La justice algorithmique peut-elle être juste ?
C’est une transformation déjà à l’œuvre en France. Le développement des algorithmes dans le monde judiciaire va s’accélérant, posant de multiples questions éthiques. Et ce, alors qu’aucun garde-fou institutionnel n’a encore été élaboré pour la création et l’utilisation de ces nouveaux outils. On fait le point avec l’appui de l’IHEST (L’Institut des Hautes Etudes pour la Science et la Technologie).
Serons-nous un jour jugés par des robots ? Si cette perspective peut sembler farfelue, ou au moins futuriste, l’émergence d’une justice recourant aux algorithmes est cependant déjà une réalité. Aux Etats-Unis, certaines intelligences artificielles sont utilisées en justice pénale pour évaluer les risques de récidive, non sans poser question. On parle alors de « justice prédictive », mais il s’agit plutôt d’une justice basée sur les probabilités. Si le cas de la France est bien différent, les solutions de « LegalTech » se multiplient. Des sociétés privées proposent ainsi leurs services à des cabinets d’avocat ou d’assurance, par exemple pour évaluer, dans certaines affaires, la sentence ou les montants les plus probables.
Des solutions pour un contexte français ?
Les algorithmes n’entrent que très progressivement dans le fonctionnement de la justice française. Ce n’est en effet que tout récemment, en mars 2020, qu’un traitement algorithmique, Datajust, a pu être mis en œuvre afin de modéliser l’indemnisation des dommages corporels.
Pour autant, par rapport à ses voisins européens, la France reste peu dotée pour sa justice, que ce soit en nombre de juges par habitant ou au niveau du budget global. Le système judiciaire est ainsi surchargé de façon chronique, et les procédures bien trop lentes. Des défauts qui affectent le rapport des Français à leur justice : seuls 41% d’entre eux faisaient confiance à la justice en 2019 (Source : le baromètre de la confiance politique 2019 du Cevipof).
Face à cet état de fait, les promoteurs des algorithmes pointent leurs multiples avantages, pour l’ensemble des acteurs. Par l’automatisation de certaines tâches, ils allégeraient le quotidien des magistrats et avocats en les déchargeant de certaines contraintes administratives. Les magistrats pourraient en outre s’appuyer sur les IA pour une aide à la décision, tandis que les avocats affineraient leurs stratégies grâce aux analyses de dossier proposées par les IA.
Quant aux justiciables, la constitution de bases de données à partir des décisions de justice leur permettrait d’avoir accès à une véritable bibliothèque juridique. Ils verraient le tarif de leurs démarches baisser en raison d’une gestion simplifiée, et les délais de comparutions diminuer. Grâce à l’intelligence artificielle, les décisions sur les petites affaires seraient potentiellement améliorées, dans un sens plus égalitaire.
Zones d’ombre et inégalités
Ce tableau idéal ne doit pas faire oublier les risques que représentent les algorithmes pour la justice, si rien n’est fait pour les encadrer et les développer de façon sécurisée. Le fonctionnement même des algorithmes existant aujourd’hui reste aux mains de leurs fabricants, en raison du secret des affaires : il n’existe donc aucune transparence sur leur conception, et les professionnels de la justice ne disposent pas d’une expertise suffisante pour les évaluer.
Les expérimentations menées en France dans deux cours d’appel, à l’initiative du ministère de la Justice, ont par ailleurs montré des biais de raisonnement aboutissant à des résultats aberrants. L’utilisation des algorithmes pour des prédictions pourrait bafouer le principe d’individualisation de la peine en matière pénale, et reproduire ou renforcer des inégalités. L’heure est donc à la prudence.
Ignorer la dimension sociale
Autre risque si les algorithmes se généralisaient, celui de casser la dimension sociale de la justice en la réduisant à une décision. Or la justice est fondamentalement faite de processus, et les procès, dans leur déroulé, participent de l’acceptation des peines.
Parce que les algorithmes ignorent la possible interprétation des textes et le contexte social propre aux jugements, l’utilisation de l’IA en matière de justice comporte également le risque de standardisation des décisions de justice. Sans parler enfin, du bouleversement profond de certaines fonctions ou professions judiciaires, voire de leur disparition.
À tout le moins, le développement des algorithmes appliqués à la justice implique un effort conséquent en termes de formation. L’enjeu étant de permettre aux professionnels de maîtriser ces outils, en connaissant leur fonctionnement, les données sur lesquelles ils s’appuient et leurs limites, et ainsi de savoir comment les employer avec pertinence et en toute connaissance de cause dans le cadre de leur action.
Des préconisations
Encadrer et cibler
L’urgence actuelle est à la définition d’un cadre. Les pouvoirs publics se doivent d’élaborer un cahier des charges détaillé et contraignant de l’utilisation de ces outils : à quel moment y recourir ? Qui serait habilité à le faire ? Selon quelles modalités ? etc. Autant de questions qui pourraient faire l’objet d’un débat au niveau national, voire européen. Une réflexion de fond doit aussi être lancée sur la façon de mettre au service du plus grand nombre les données judiciaires, en respectant les droits fondamentaux. Quelle structuration, gestion et valorisation de ces données doit-on souhaiter ?
Pour être exploitables comme données, les décisions de justice doivent par ailleurs être expurgées d’une partie de leur contexte, ce qui accroît le risque d’uniformisation. Encadrer l’exploitation des données judiciaires implique donc également de prioriser dans quels secteurs elles seront prioritairement utilisées. De fait, un litige commercial simple n’a rien à voir avec une affaire pénale lourde ou inédite : si le recours aux algorithmes peut apparaître comme un gage d’objectivité pour une aide à la décision dans un cas, il empêcherait un véritable jugement adapté dans le second.
Un déploiement en trois étapes ?
Ce n’est qu’une fois le cadre posé que peut s’imaginer un déploiement de la justice algorithmique, passant par trois étapes. D’abord, la création de bases de données d’envergure, à partir des décisions de justice. Un travail colossal, qui doit relever du service public, afin de parvenir à constituer des bases de données fiables et sécurisées. Car si l’appareil judiciaire lui-même ne garde pas le contrôle sur leur constitution, la menace est grande que la protection des données personnelles soit défaillante, volontairement ou non.
Cette étape devrait permettre, dans un second temps, de développer des innovations pour l’introduction des algorithmes dans l’aide à la décision judiciaire. Celles-ci pourraient être confiées à des laboratoires universitaires de R&D, travaillant en partenariat avec des professionnels de la justice. Une fois les innovations élaborées et testées, elles pourraient être externalisées vers le secteur privé.
Alors que l’exploitation des données de justice est laissée actuellement à l’appréciation des seules sociétés privées, le développement de la justice algorithmique ne se fera pas sans une labellisation et un contrôle des acteurs privés, (sous forme de test algorithme-juge par exemple), par l’Etat, avant toute mise sur le marché des logiciels. Une façon de s’assurer que l’intelligence artificielle soit mise au service de tous.
Article réalisé avec l’appui du rapport « Justice algorithmique. S’assurer de l’éthique et préserver l’équité ? », de la promotion Elinor Ostrom, cycle national 2018 – 2019 de l’IHEST.