« Justice prédictive, solution ou simple reproduction du passé ? »
Par Annaëlle Pembellot
« Justice prédictive », « justice algorithmique », « justice computationnelle», tant de termes complexes mais souvent réduits à l’image diffusée par les films de science-fiction. Cette image d’une justice où les hommes sont simplement remplacés par des robots-juge ou robots-avocat. Nous en sommes encore bien loin aujourd’hui. Après le développement de plusieurs secteurs, c’est au tour de la justice de vivre une nouvelle révolution numérique, qui semble être mise en œuvre par l’application de ces notions. Révolution qui devrait mettre fin à de nombreux écueils constatés aujourd’hui dans la justice traditionnelle, à savoir : l’engorgement des tribunaux, l’inégalité d’accès à la justice ou le déficit de transparence. Ainsi, la justice algorithmique apparaît comme la solution, mais qu’en est-il réellement aujourd’hui ?
La justice algorithmique sera t-elle meilleure que la justice humaine ?
La première difficulté rencontrée est la compréhension de ces notions. À quoi font-elles concrètement référence ? En effet, pour comprendre les effets de la justice prédictive, il est nécessaire d’en connaître d’abord la définition. Lorsqu’on mène des recherches sur ce sujet, on comprend que ces notions ont des définitions qui varient d’une personne à une autre, selon la profession ou le mouvement philosophique ou technologique auquel elle appartient. Étant donnée la complexité, voire l’hyper-complexité, de certaines notions une grande place est encore laissée à l’interprétation personnelle. Il faut donc faire un choix parmi les spécialistes pour comprendre les tenants et aboutissants de cette notion de justice prédictive.
Dans leur ouvrage « Justice digitale, accepteriez-vous d’être jugés par des algorithmes ? », les auteurs Antoine GARAPON et Jean LASSEGUE la définissent comme étant « la capacité prêtée aux machines de mobiliser rapidement en langage nature le droit pertinent pour traiter une affaire, de le mettre en contexte en fonction de ses caractéristiques propres (lieu, personnalité des juges, des cabinets d’avocats, etc.) et d’anticiper la probabilité des décisions qui pourraient intervenir. » On comprend alors que la justice prédictive est une sous-catégorie de la justice algorithmique qui désigne tout système automatique de prise de décision juridique, au sens où son objectif est de calculer une probabilité. Ce calcul est possible car il repose sur de l’intelligence artificielle, plus précisément sur une solution de « machine learning » selon le mathématicien Jacques LÉVY VÉHEL. Ce dernier a développé un outil fondé sur l’intelligence artificielle qui lui semble tout à fait fiable pour donner un éventail de décisions, mais il porte un avis négatif sur les algorithmes prédictifs qui font beaucoup parler aux Etats-Unis, comme le fameux COMPAS.
Effectivement, la France est plus réticente à l’instauration d’une justice rendue automatiquement par rapport aux Etats-Unis. En principe, aucune décision portant des effets juridiques ne peut aboutir sans la participation de l’humain dans son processus. Ainsi, en France, seules les décisions entièrement automatisées émises par une administration publique sont acceptées. L’état de la pratique a, par ailleurs, été relevé par Perica SUCEVIC, Conseiller juridique à la Direction interministérielle du numérique (DINSIC) en ces termes : « Il ne faut pas se voiler la face : le calcul des impôts, depuis des années, ne fait jamais intervenir aucun humain ».
De plus, le Conseil de l’Europe a constitué une commission qui a été à l’origine de la rédaction d’une Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires. Cette Charte, même non contraignante juridiquement, permet de dessiner une ligne directrice à destination des juristes et hommes politiques des Etats membres. En effet, la Charte pose cinq principes importants relatifs à la réglementation de l’utilisation de l’intelligence artificielle et donc au fonctionnement de la justice dite « prédictive », par l’emploi de plusieurs algorithmes. Ces cinq principes concordent avec les nouvelles attentes exprimées à l’égard de la justice prédictive, parmi lesquelles on trouve: la participation plus active des individus, la baisse des coûts de justice permettant de lutter contre une forme de discrimination d’accès, l’intelligibilité et la transparence des processus et enfin une plus grande efficacité de la justice.
Tandis qu’aux États-Unis, ces résultats découlant des outils prédictifs sont déjà utilisées au cours de procès et peuvent aboutir à l’emprisonnement d’un individu, comme l’outil « Public Safety Assessment» qui examine les informations sur le prévenu et les met en perspective avec des données issues de juridictions américaines. D’ailleurs selon un maître de conférence en ethnographie de l’Université de Stanford (Californie), Angèle CHRISTIN, plus d’une soixantaine d’algorithmes prédictifs seraient déjà employés aujourd’hui dans les différents Etats du pays par la justice américaine.
Un algorithme est une suite d’opérations ou d’instructions donnant un résultat. Cette opération est mathématique et l’algorithme fonctionne grâce à une configuration basée sur du Machine Learning, cette technique qui permet alors à l’algorithme d’être auto-apprenant c’est-à-dire qu’il apprend par lui-même des données qu’il traite. Ainsi, ce n’est pas l’algorithme en tant que tel qui doit faire l’objet des critiques mais bien les données au cœur de son processus de fonctionnement.
Mais donc qu’est-ce qu’une « bonne donnée » ?
Là est toute la difficulté. La donnée apparaît comme la valeur essentielle à l’algorithme, le cœur de son élaboration. En effet, le but d’un algorithme prédictif étant de calculer une probabilité grâce aux informations que le concepteur lui donne, c’est-à-dire la donnée, le choix des données utilisées emporte un réel pouvoir de décision. Ce choix prédestine la décision finale prise par l’algorithme et qui aura pour conséquence d’emporter des effets juridiques sur la personne concernée. C’est d’ailleurs la raison pour laquelle, la France n’autorise pas la prise en compte de données sensibles pour la configuration d’un algorithme prédictif. Comme cité précédemment, l’algorithme COMPAS a beaucoup fait parler de lui, en raison de ces résultats biaisés à l’encontre de la communauté afro-américaine principalement. Un article en particulier constate que, pour un dossier criminel équivalent ou moins conséquent, l’individu afro-américain aura un taux de récidive plus élevé que l’individu de type caucasien. Pour l’utilisation de cet algorithme, des données ont été collectées grâce à des formulaires préalablement remplis par l’accusé et un travailleur social. Il ressort de cet article que, d’une part, le travailleur social connaissant l’algorithme peut facilement prédéterminer un résultat par rapport à un autre ; tandis que, d’autre part, les questions sont fortement ciblées et orientées à l’image de : « Que pense le prévenu de la police ? Avez-vous des amis qui ont été condamnés ?…», ce qui tend à nous faire réfléchir sur la pertinence des questions et donc des données collectées puis utilisées par l’algorithme. Ainsi la justice demeure discriminante et inégalitaire, contrairement à ce que l’on espérait de cet algorithme. Le biais porte alors sur ces fameuses données. En lisant des articles sur ces algorithmes prédictifs, des personnes sont tentées de penser que les juges sachant que l’algorithme ou du moins les données qui y sont employés tendent à rendre un résultat erroné, devraient seulement ne pas prendre en compte ces prédictions. Mais attention, tel cas ne serait être imaginable, en théorie, dans les pays membres du Conseil de l’Europe, étant donné que la Charte éthique de la CEPEJ explique que « Les considérations exprimées précédemment quant aux effets potentiellement négatifs de ces outils sur l’impartialité du magistrat sont également valables en matière pénale: un juge qui décide contre la prédiction d’un algorithme prend vraisemblablement des risques d’assumer une responsabilité accrue. Il ne semble pas irréaliste d’imaginer que les juges seraient récalcitrants à prendre cette charge supplémentaire, notamment dans les systèmes dans lesquels leurs mandats ne sont pas permanents mais assujettis au vote populaire, ou dans lesquels leur responsabilité personnelle (disciplinaire, civile voire pénale) est susceptible d’être recherchée, surtout si leurs garanties statutaires en matière disciplinaire sont insuffisantes » mais l’absence de force juridique de ce texte permet aux Etats membres du Conseil de l’Europe d’être protégé par toute sanction relative à cette disposition.
En effet, le fonctionnement d’un algorithme dépend de la mise en corrélation d’une grande quantité de données, c’est-à-dire entre le profil de la personne concernée par la mesure et les données préalablement choisies. Puisque, historiquement, des communautés sociales, raciales ou économiques ont été davantage discriminées par les forces de l’ordre ou encore par la justice, l’utilisation de ces mêmes données récoltées dans le passé dans un but prédictif conduit forcément à la simple reproduction des erreurs qui ont été commises auparavant, comme l’explique le MIT Technology Review. La donnée originelle étant biaisée, on ne pourrait attendre le contraire de la prédiction résultant de l’algorithme. Ce n’est donc pas l’algorithme qui doit être remis en cause, mais effectivement les données sur lesquelles il se base.
Par ailleurs, un débat théorique existe aussi à propos du processus de machine learning, mis en œuvre par ces algorithmes. Ce débat oppose d’un côté ceux qui pensent que la justice humaine est déjà une justice mécanique, ainsi la justice prédictive reproduirait le même schéma (théoricien italien Norberto BOBBIO) ; et, de l’autre côté, ceux qui considèrent la part d’humanité au cœur de la justice comme impossible à reproduire dans un contexte de justice prédictive. De plus, ce débat conduit par la même à s’interroger sur la faisabilité d’une modélisation du raisonnement juridique.
Mais alors verdict…
Enfin, il semble nécessaire de faire un bref comparatif des « pour » et des « contre » vis-à-vis de la justice prédictive. D’abord dans la catégorie des « pour », on peut déjà intégrer les grands espoirs en termes d’accès à une justice plus équitable comme le désengorgement des tribunaux, la neutralité et la transparence. Malheureusement, dans l’état actuel des connaissances et des technologies, ces attentes ont tendance à avoir un effet adverse. En effet, si on prend l’exemple de la transparence, on se rend rapidement compte que de réels conflits de droits apparaissent, avec la protection du secret commercial. Effectivement, pour des raisons économiques évidentes, les méthodologies des algorithmes, le code qui le compose, sont inaccessibles, laissant le cœur de la réflexion caché comme l’explique Frank PASQUALE dans son ouvrage « The Black Box Society ». En continuant sur cette vague des « contre », il est donc nécessaire, au terme de ce blog, de rajouter la difficulté susmentionnée à utiliser des « bonnes données ». Il faudrait en effet intégrer des moyens permettant de sélectionner les données strictement nécessaires et d’actualiser les données utilisées le plus souvent possible. Cela permettrait, d’une part d’entretenir une permanence dans l’enrichissement de l’algorithme, et, d’autre part d’utiliser exclusivement des données jugées intéressantes et surtout légitimes.
Un changement qui se propage ?
Pour plus d’actualité, l’Estonie s’est récemment démarquée en annonçant la conception d’un « juge robot ». Il serait alors intéressant de suivre cette innovation numérique, pour en faire un nouveau constat de la première société numérique au monde, selon le magazine américain Wired. Le professeur David ENGSTROM de l’Université de Stanford a d’ailleurs émis un avis positif pour l’Estonie en ces termes : « La promesse d’une approche de l’IA signifie que vous obtenez plus de cohérence que nous n’en avons actuellement » « Et peut-être un système basé sur l’IA plus précis que le système de prise de décision humaine ». Il estime également que les citoyens estoniens peuvent faire confiance à l’utilisation actuelle des données numériques par le gouvernement. Mais ne soyons pas pessimistes, des solutions peuvent être apportées.
L’implication du Laboratoire de cyberjustice est plus palpable notamment grâce à une création qui n’est autre que l’application JusticeBot. Cet outil semble plus sérieux qu’un juge robot au regard de sa réelle effectivité en termes d’intégration de l’intelligence artificielle au service de l’accessibilité du droit.
A propos de l’auteure :
Etudiante en Master 2 Droit du numérique parcours Tiers de confiance et sécurité numérique à l’Université de la Rochelle (France), je suis passionnée par les évolutions des nouvelles technologies et les enjeux qu’elles suscitent. Mon approche s’est voulue comparative entre le système français et le système nord-américain, mais également introductive au regard de l’étendue de ce sujet tant qu’intéressant que polémique. Mon objectif est d’ouvrir la réflexion.
Ce contenu a été mis à jour le 18 octobre 2019 à 11 h 27 min.