Deadbots : quand l’intelligence artificielle brouille la frontière entre les morts et les vivants

Dans l’Épopée de Gilgamesh, ce dernier, roi d’Uruk, entreprend une quête désespérée pour vaincre la mort après la perte de son ami Enkidu. Après de nombreuses épreuves, il obtient d’Utnapishtim, survivant du Déluge, une plante marine offrant la jeunesse éternelle, mais un serpent la lui dérobe lors d’un bain, symbolisant l’inéluctable mortalité humaine. Ce mythe sumérien antique, l’une des plus anciennes quêtes de l’éternité, illustre que la quête de l’immortalité transcende les âges, passant des mythes ancestraux aux fictions dystopiques. En 2013, le premier épisode de la saison 2 de la série Black Mirror, nommé Be right back, raconte l’histoire d’une jeune femme décidant de souscrire à un service expérimental exploitant les données numériques de son compagnon décédé pour générer un avatar de celui-ci et pouvoir entretenir une relation virtuelle avec lui.

Dans bien des domaines, notre société est passée du réel au virtuel, et la mort n’y échappe pas. En Égypte, les corps des défunts étaient momifiés en suivant une suite de rites très codifiés. Les défunts d’Amérique latine sont quant à eux célébrés lors de fêtes joyeuses. Dans la religion brahmanique, la crémation est utilisée pour libérer l’esprit des défunts de leur corps. Les défunts musulmans doivent quant à eux recevoir une toilette très ritualisée, pour préparer le corps pour son dernier voyage. Bien que nombreuses de ces traditions demeurent encore d’actualité, une autre forme de rite, dépourvue de tout spiritisme, est apparue. Les cimetières virtuels, et autres pages commémoratives, sont devenus des moyens de rendre hommage aux morts, de manière dématérialisée. Dernièrement, Meta a annoncé vouloir mettre en place un système d’Intelligence artificielle permettant de maintenir sa présence en ligne, notamment sur les réseaux sociaux, après sa propre mort.

Aujourd’hui, une autre forme de « présence » des défunts se profile : celle des deadbots, des chatbots générés par des systèmes d’intelligence artificielle entraînés sur les traces numériques laissées par une personne de son vivant, dans le but de reproduire une version posthume de celle-ci. Cet avatar généré par un  «   re-  creation   service   »  après la mort d’une personne permet une prolongation de la vie après la mort, et soulève donc la question de l’existence d’une possible immortalité artificielle. Ce deadbot peut ainsi transformer un désir de se souvenir et de faire le deuil d’un proche en une interaction permanente avec l’avatar posthume de celui-ci, prenant une place considérable dans la vie de la personne. En 2018, le journaliste américain James Vlahos crée le premier deadbot, en intégrant une intelligence artificielle à l’application Facebook Messenger afin d’entretenir une conversation avec l’avatar de son père décédé d’un cancer. En fournissant les posts, écrits et tweets du défunt, le système était en capacité d’imiter sa façon d’écrire, ses habitudes de langage, etc.

Suite à l’essor de l’intelligence artificielle, des initiatives similaires se sont développées. L’industrie des Digital Afterlife Industrie, dont font partie les deadbots, devrait atteindre 80 milliards de dollars d’ici une dizaine d’années. Dans une interview de 2023 avec le podcaster Lex Fridman, Mark Zuckerberg disait : « Si quelqu’un a perdu un être cher et est en deuil, il peut être utile de lui permettre d’interagir ou de revivre certains souvenirs. ». Les grandes puissances de l’industrie du numérique voient dans les deadbots la possibilité de capitaliser sur la souffrance des endeuillés, en mettant en place une marchandisation des données récoltées. Le marché de la monétisation des données des morts est en plein essor, mais soulève de nombreux questionnements, qu’ils soient juridiques, éthiques ou philosophiques.

 

Le droit face aux revenants numériques

Le régime juridique des deadbots est encore très peu encadré, bien que de nombreux acteurs juridiques militent pour une plus grande régulation. Concernant le statut juridique et la responsabilité du deadbot, il convient de s’interroger sur la fin de la personnalité juridique de la personne ayant donné ses données : quand s’arrête-t-elle si un avatar numérique continue d’agir et de parler en son nom ? Le Code civil du Québec, dans son article premier, dispose que «Tout être humain possède la personnalité juridique; il a la pleine jouissance des droits civils ». Mais le moment précis de la mort n’est pas défini par la loi. En l’absence d’une définition légale, c’est le critère médical de la cessation irréversible des fonctions cérébrales qui détermine la mort physique d’une personne, et qui entraîne la mort légale de la personne. À partir de ce moment, le sujet de droit voit sa personnalité juridique prendre fin, et n’est donc plus titulaire de droits. Il semblerait donc que la personnalité juridique d’une personne physique soit rattachée au fait qu’elle soit humaine et vivante, et que le deadbot ne soit donc pas titulaire d’une quelconque personnalité juridique, même s’il reprend l’apparence et le caractère de celle-ci.

Concernant le responsable des propos ou actes du deadbot, il pourrait s’agir de l’intelligence artificielle elle-même, mais cela reviendrait à lui reconnaître une personnalité juridique, ou alors du fabricant ou encore l’héritier qui l’administre, ce qui reviendrait à la considérer comme un bien. Ainsi, la détermination du statut juridique de l’IA influence sa responsabilité. Cette question de la responsabilité des systèmes d’intelligence artificielle est complexe, et reste floue dans la plupart des régimes juridiques actuels, mais la plupart semble privilégier la responsabilité du fabriquant.

Même si les personnes sont décédées, et qu’elles ne sont plus titulaires de droits, la question se pose de l’avenir de leurs données personnelles. Au Québec, la loi 25 modernisant les dispositions législatives en matière de protection des renseignements personnels ne se prononce pas explicitement sur ce sujet. La seule mention qui est faite des données post-mortem dans le droit québécois est au sein de l’article 88.0.1 de la Loi sur l’accès aux documents des organismes publics et sur la protection des renseignements personnels, qui dispose que

[u]n organisme public peut communiquer au conjoint ou à un proche parent d’une personne décédée un renseignement personnel qu’il détient concernant cette personne, si la connaissance de ce renseignement est susceptible d’aider le requérant dans son processus de deuil et que la personne décédée n’a pas consigné par écrit son refus d’accorder ce droit d’accès.

 

L’article 88.1 poursuit en affirmant que

[s]ous réserve de l’article 88.0.1, un organisme public doit refuser de donner communication d’un renseignement personnel au liquidateur de la succession, au bénéficiaire d’une assurance-vie ou d’une indemnité de décès ou à l’héritier ou au successible de la personne concernée par ce renseignement, à moins que cette communication ne mette en cause ses intérêts ou ses droits à titre de liquidateur, de bénéficiaire, d’héritier ou de successible.

 

Ainsi, en dehors de la communication d’un renseignement susceptible d’aider le requérant dans son processus de deuil, et seulement si le défunt n’a pas refusé ce droit d’accès, la communication de données post-mortem est interdite aux héritiers ou proches de la personne décédée. Exception faite de cet article, le régime juridique des données post-mortem est absent du droit québécois. Il serait par exemple important de disposer d’un encadrement légal concernant l’effacement de ces données, et de mettre en place des dispositions anticipées qui prévoiraient leur sort et qui seraient exécutées par les héritiers.

En considérant que le consentement du défunt pour le partage de ses données à caractère personnel soit nécessaire, il serait cependant très difficile à vérifier, à moins d’avoir été obtenu préalablement à sa mort. Si ce n’est pas le cas, il devient difficile, voire hasardeux, de parier sur son accord de voir ses données utilisées de manière posthume. Mais pour ne pas bloquer totalement l’usage de ces services si le consentement n’a pas été recueilli du vivant de la personne comme il est parfois conseillé, certains auteurs recommandent donc de pousser les proches à se demander si le défunt aurait souhaité cette forme de présence, grâce à des questions guidées pendant la création du deadbot (« Comment voulait-il être rappelé ? » « Aurait-il voulu donner ses données pour créer un deadbot ? », etc.), afin qu’ils gardent la volonté du défunt à l’esprit lors de la création de l’avatar.

Mais les défunts ne sont pas les seuls à devoir donner leur consentement. Il est également important de se préoccuper de l’accord des personnes destinataires des avatars, se voyant parfois imposer une image artificielle de leur proche décédé, notamment en dehors des plateformes spécialisées. Il semblerait en effet traumatisant de se retrouver face à une image générée par une intelligence artificielle d’un proche sur un réseau social, ou via un mail, sans avoir donné son accord pour être confronté à cet avatar. Il faut en effet éviter que des deadbots de tout un chacun envahissent l’espace public numérique, sous peine de créer des confusions sur la nature de l’image. La mise en place d’un principe de consentement mutuel du défunt et des proches semble donc essentielle.

Il est également important de souligner le vide juridique entourant les deadbots et l’insuffisance des guidelines actuelles des systèmes d’intelligence artificielle pour traiter ces enjeux socio-éthiques spécifiques. Initialement, la plateforme Project December, permettant de converser avec un deadbot, était alimentée par le modèle GPT-3 d’OpenAI. Néanmoins, OpenAI aurait révoqué son accès à l’API (Interface de programmation d’application), citant une violation des règles de sécurité. Selon la politique d’OpenAI, l’utilisation de ses grands modèles de langage (LLM) pour créer des deadbots n’est pas explicitement interdite, mais les directives stipulent que tout système d’intelligence artificielle conversationnel qui imite une autre personne, à l’exclusion des personnages historiques publics, doit obtenir un consentement explicite de la personne concernée ou être clairement indiqué comme une simulation ou une parodie.

Certains auteurs recommandent de traiter les deadbots comme des dispositifs proches des outils médicaux. Les deadbots devraient ainsi subir différentes phases de test avant de pouvoir être utilisés, pour déterminer s’ils sont inoffensifs pour les utilisateurs, et pour vérifier leurs bénéfices sur certains cas de deuil sévère. Il pourrait ainsi être décidé de rendre les deadbots uniquement accessibles aux personnes souffrant d’un deuil sévère prolongé. Ainsi, les personnes qui viennent de perdre un proche et qui débutent tout juste leur processus de deuil n’auraient pas accès à ces dispositifs. En effet, l’utilisation d’une telle technologie par une personne si vulnérable soulève d’importantes questions éthiques.

 

Les deadbots face au miroir de l’éthique

L’usage des deadbots est controversé, à raison. Bien que les systèmes d’intelligence artificielle conversationnels soient de plus en plus utilisés, les deadbots sont destinés à une partie particulièrement vulnérable de la société : les personnes endeuillées.

Le désir de parler à nos morts est inhérent à la nature humaine. La docteur en psychologie et directrice de Centre international des études sur la mort Marie-Frédérique Bacqué déclare que « [d]ans les premiers temps de la perte, je ne connais pas d’endeuillés qui ne disent pas « je voudrais la ou le revoir » ». Il est en effet naturel de vouloir continuer à parler à une personne aimée qui vient de décéder, de perpétuer un lien. Le fait de communiquer aux défunts ne pose pas problème en soit, puisque les personnes endeuillées « communiquent avec les morts soit dans leurs rêves – la personne leur passe un message ou se manifeste –, soit à travers des signes – un animal aimé de la personne morte apparaît », explique Jacques Cherblanc, professeur-chercheur en éthique et religion et directeur de l’Unité d’enseignement en éthique de l’Université du Québec à Chicoutimi. Il poursuit en affirmant que « [s]ouvent, on a l’idée que c’est parce qu’il y a un « unfinished business », des choses à régler, mais pas seulement. Parfois, c’est juste parce qu’il y avait un lien d’attachement très fort ».

Ces deadbots peuvent avoir pour effet de réduire l’autonomie des utilisateurs, en créant une dépendance au chatbot. Or, selon Joseph Davis, un professeur de sociologie à l’Université de Virginie, « l’une des tâches du deuil est d’affronter la perte réelle », ce que l’interaction continue avec un deadbot pourrait empêcher. Cela crée une confusion entre la personne décédé et son avatar, qui l’incarne artificiellement. Le risque est donc de s’enfermer dans le passé, et de ne pas être en capacité de débuter un processus de deuil. Est-ce que parler à un avatar de son proche disparu apaise réellement ? Ou cela prolonge-t-il une relation impossible, en retardant l’acceptation de la mort ?

Pour encadrer correctement ces systèmes d’intelligence artificielle, il faut s’intéresser à leur conception. Il semble essentiel d’intégrer les valeurs humaines, notamment la dignité, dans le processus de création, ainsi que dans l’usage. Les choix techniques peuvent en effet provoquer des débats éthiques. En France, l’avis du Comité national pilote d’éthique du numérique du 15 septembre 2021 milite pour obliger les entreprises à mettre en avant une information claire du rôle, du fonctionnement et des limites du chatbot, pour éviter toute confusion entre le défunt et celui-ci. Il semble en effet essentiel que l’utilisateur sache qu’il s’adresse à une intelligence artificielle. Le but est d’éviter une ressemblance trop proche, pour limiter une éventuelle projection anthropomorphique de l’utilisateur sur le deadbot. Cependant, une telle transparence peut s’avérer insuffisante pour les publics particulièrement vulnérables, tels que les enfants.

L’utilisation de deadbots par des mineurs peut dans un premier temps sembler une bonne idée, car ils permettraient d’aider dans le processus de deuil, que ce soit d’un parent, d’un grand-parent, ou d’un autre proche. Mais  selon la sociologue et psychologue  Sherry Turkle , qui a écrit sur la manière dont les humains créent des relations avec la technologie, les enfants ont tendance à interagir avec les machines de la même manière qu’avec des personnes ou des animaux, en cherchant à créer un lien d’amitié avec elles. La plupart des systèmes de deadbots sur le marché n’ont pas fixé une limite d’âge minimum, ce qui laisse la possibilité pour les publics les plus jeunes d’accéder à ces avatars. Or, peu d’études ont été faites sur les impacts, qu’ils soient bénéfiques ou non, des deadbots, et encore moins sur les enfants. Cela pourrait ajouter du stress, de l’anxiété, et une confusion entre le proche perdu et son avatar à un enfant traversant déjà une période particulièrement difficile. Tant que plus d’études n’auront pas été menées sur les potentiels bénéfices des deadbots sur la gestion du deuil chez les enfants, il semble donc dangereux de leur donner accès à de tels outils, particulièrement sans aucun autre soutien psychologique.

Si les deadbots étaient reconnus comme des dispositifs médicaux, leur utilisation ne serait permise que sous la supervision d’un professionnel de la santé mentale, comme un psychologue ou un psychiatre. Dans cette optique, les patients et le personnel médical seraient conscients que ces technologies peuvent limiter l’autonomie des utilisateurs et pourraient donc faire en sorte de réduire leur impact. Il serait également important de mettre en place des mesures pour éviter que les personnes en deuil ne deviennent trop dépendantes de leur deadbot. Par exemple, une utilisation ponctuelle plutôt que continue de ces avatars permettrait de faciliter l’assimilation de la perte et du traumatisme. Certains auteurs proposent également de mettre en place des procédures de mise à la retraite des deadbots, afin d’assurer que l’effacement de ces avatars soit fait de manière respectueuse, et ne crée pas un traumatisme chez les utilisateurs. Cet effacement pourrait avoir lieu suite à la demande de ce dernier, mais aussi de manière automatique quand le deadbot n’a pas été utilisé pendant un certain temps, ou si la personne décédée a précisé une date de son vivant.

Il pourrait être envisagé d’utiliser le concept de dignité de la personne pour protéger le défunt après sa mort. La Charte des droits et libertés de la personne, adoptée en 1975, est une loi fondamentale au Québec qui établit les droits et libertés de tous les individus. Elle a pour objectif principal de protéger la dignité humaine et d’assurer l’égalité entre tous les citoyens. Son article 4 dispose que « [t]oute personne a droit à la sauvegarde de sa dignité, de son honneur et de sa réputation », mais il ne s’applique qu’au vivant. Cependant, cette notion est implicitement reprise dans l’article 4 de la loi sur les activités funéraires (A-5.02) concernant les exigences de traitement des corps des défunts. Selon Öhman and Floridi, les « restes » digitaux devraient être traités avec autant de respect que les « restes » corporels.

Cette exigence de respect ne concerne pas uniquement la mémoire symbolique du défunt, mais également le sort très concret de ses traces numériques. En prolongeant l’idée que les « restes » digitaux doivent être traités avec la même considération que les restes corporels, la dignité apparaît alors comme une limite éthique aux usages possibles de ces données. L’essor des deadbots soulève ainsi un autre enjeu majeur : celui de la marchandisation de ces fragments de vie, qui transforme l’héritage numérique en ressource exploitable. Avec les deadbots, le capitalisme s’étend au royaume des morts. L’héritage numérique des morts fait désormais partie des bases de données permettant d’entraîner les systèmes d’intelligence artificielle, alors que ces données n’étaient parfois pas présentes sur Internet avant la mort de la personne. En fournissant des écrits, des photos, des vidéos de ce dernier, l’utilisateur offre au système d’intelligence artificielle de nouvelles données sur lesquelles apprendre. L’héritage d’une vie devient alors une présence calculable et marchandable. Ces technologies réduisent la mort à un flux d’informations techniquement synthétisables, faisant disparaître l’idée de mort définitive.

Afin de rentabiliser ces deadbots, certaines compagnies ont choisi de faire payer leur utilisation, mais d’autres revendent les données des défunts récoltées, collectent des données des vivants, ou encore incorporent de la publicité. En plus de capitaliser sur la mort d’êtres humains et le deuil de leurs proches, cette pratique soulève un questionnement éthique car, lors de la conversation avec un deadbot, l’utilisateur pourrait ainsi se voir proposer des publicités commerciales, parfois directement via la bouche de l’avatar. Cela peut alors briser sa confiance et remettre en cause l’authenticité des échanges. Ces publicités incluses dans le dialogue peuvent même changer l’image et la réputation d’une personne décédée. L’utilisation de la vulnérabilité de personnes en deuil pour influencer leurs comportements, alors qu’elles sont dans un état de fragilité extrême, est très discutable. Cependant, le fait d’utiliser des personnes décédées pour promouvoir des services ou des biens n’est pas nouveau. Dans les années 90, une reproduction de Fred Astaire avait été utilisée dans des publicités pour des aspirateurs. Mais dans le cas des deadbots, les entreprises essaient de tirer profit de la souffrance de personnes endeuillées, poussant encore plus loin le capitalisme émotionnel. Jusqu’où est-il acceptable de commercialiser les données des morts ?

 

L’ambition d’immortalité à l’ère de l’intelligence artificielle

Les deadbots semblent ainsi procéder à une standardisation du deuil par des services industrialisés, alors qu’il s’agit d’un processus profondément personnel et non linéaire. Ces outils ne font pas que s’ajouter aux rites existants, ils reconfigurent en profondeur notre rapport à la mort dans un environnement numérique. Voulons-nous d’une mort connectée, gérée par les plateformes et les algorithmes, ou préférons-nous réaffirmer un droit à laisser les morts en paix ?

De plus, l’utilisation des deadbots et l’opinion que le grand public s’en fait dépend grandement des différentes cultures. En effet, alors que la société laïque semble encline à s’emparer de cette technologie, certaines religions pourraient y voir un affront fait aux défunts. Les deadbots touchent à un sujet sensible et cristallisent donc trois tensions : la mémoire contre l’oubli, la reconstruction contre l’exploitation, et la technologie contre la dignité humaine. À l’heure où des deadbots promettent de faire parler les morts à partir des fragments de leur vie numérique, le devenir de nos données et de notre image s’impose comme une nouvelle forme de testament, aussi importante que nos dernières volontés écrites.

Ce contenu a été mis à jour le 9 avril 2026 à 10 h 25 min.