Enseigner la justice augmentée, Christophe Roquilly

Christophe Roquilly est professeur de droit à l’Edhec et directeur du centre de recherches LegalEdhec. Il revient pour nous sur les enjeux d’une pratique augmentée par les IA et les outils numériques.

Christophe Roquilly, vous êtes professeur et doyen du corps professoral et de la recherche à l’EDHEC Business School, directeur de LegalEdhec. Le 4 octobre dernier à l’occasion de la Nuit du Droit, le pôle LegalEdhec a abordé les enjeux du recours à l’intelligence artificielle pour la pratique du droit et de la justice. Pour commencer, comment définir la « Justice prédictive » ?

Etes-vous d’accord avec votre confrère de l’université d’Aix-Marseille pour qui la justice prédictive est la  » version moderne de la boule de cristal  » ? Autrement dit, la justice qui se dessine exclue-t-elle l’humain pour ne faire du juge qu’un simple automate, retirant ainsi l’appréciation de celui-ci dans le jugement ?

L’utilisation de l’IA pour objectiver les décisions judiciaires et aussi aider à la prise de décision individuelle ou d’entreprise est très prometteuse et me paraît être un enjeu majeur. Cependant, je n’aime pas les termes «prédictive » et « boule de cristal ». En effet, cela laisse supposer, d’une part que l’on peut prédire la décision du juge, et d’autre part que cette prédiction aurait quelque chose de magique, voire de surnaturel ou paranormal. Or cette supposition rend un bien mauvais service à l’IA pour rendre plus objective une décision de justice, et aussi une prise de décision face au risque judiciaire.

En effet, que peut-on prédire : au mieux qu’en fonction d’un certain nombre de critères, variables selon les domaines du droit concernés et les faits, il y a X% de « chances » que le juge rende une décision de tel ou tel type, plus ou moins favorable selon la partie au litige. Ici, la « justice prédictive » est en réalité un outil d’aide à la décision pour le justiciable. En fonction des décisions judiciaires antérieures, celui-ci peut évaluer son risque – positif ou négatif – et prendre une décision éclairée.

Evidemment, les juges pourraient aussi être amenés à adapter leurs critères de jugement en fonction du comportement des justiciables. Par exemple, si ces derniers infèrent des jugements passés que leur violation du droit entraînerait des conséquences judiciaires économiquement acceptables – et si tant est qu’ils soient peu sensibles au caractère acceptable ou non d’un point de vue social et éthique de leurs comportements, ce qu’il ne faut pas souhaiter, évidemment – alors l’analyse des données génère des comportements déviants, qu’il faudra corriger. Le problème est que juges et justiciables se retrouveront dans une forte asymétrie d’information : une base de décisions de justice « transparentes » et permettant l’analyse et la prise de décision, d’une part ; d’autre part une base de comportements de justiciables qui ne sera jamais complète ni totalement transparente : que saura-t-on des comportements de transgression de la norme quand ils ne sont pas détectés ?

Du point de vue des magistrats, le recours à l’IA peut permettre de rendre plus objectives leurs décisions, dès lors que les critères – et leur pondération – conduisant à un jugement et à un « quantum » deviendront transparents pour tous les juges. Ainsi, pour les mêmes faits face aux mêmes règles et avec des justiciables au profil identique, des décisions cohérentes. En revanche, la machine pourra-t-elle juger ? Je ne le pense pas ni ne le souhaite. En effet, même si toute règle peut être paramétrée dans un système, la complexité des faits, des comportements, et de la vie tout simplement, résistera au codage. Et puis que deviendrait le concept « faire jurisprudence », alors même que celui-ci sous-entend une rupture par rapport à un état antérieur. Or, comment faire rupture si l’on s’en tient à la loi des grands nombres ?

Les legaltech sont en plein développement, selon vous quels garde-fous doivent être posés ?

Nous vivons dans une société où la norme juridique est omniprésente, pour ne pas dire « omni-pressante ». Je ne vois pas l’intérêt à réglementer spécifiquement les legaltechs. Le droit commun contient de nombreuses dispositions applicables, entre autres, aux legaltechs : droit des contrats, régimes de responsabilité civile, droit de la consommation, protection des données personnelles, etc.

En revanche, il est vrai que des questions nouvelles se posent (ou en tout cas des questions qui se posent sous un jour nouveau), en particulier quand il s’agit de la constitution des algorithmes qui vont servir à traiter des données (par exemple en matière d’analyse de décisions judiciaires) ou de la création de la base de données elle-même. Existe-t-il des biais ? Une incomplétude des données qui pourrait rendre les traitements et leurs conclusions hasardeux ? C’est une vraie question, surtout quand l’ambition est de faire du « traitement statistique ». D’ailleurs, sur le terrain de la responsabilité des agents artificiels – ou des robots, si vous préférez – nous sommes encore dans une phase de prospective. Il y a donc ici un terrain fertile pour la réflexion juridique, économique et éthique, mais la question de la responsabilité des robots ne concerne pas toutes les legaltechs, loin s’en faut, et elle dépasse aussi largement la « simple » question des legaltechs.

Pour en revenir aux « garde-fous », je ne suis pas partisan d’une réglementation supplémentaire, mais je trouve opportun que les acteurs du marché aient pris des engagements éthiques, comme l’attestent à la fois la « Charte éthique pour un marché du droit en ligne et ses acteurs » et le Livre Blanc « Les enjeux éthiques de la justice prédictive ». Evidemment, il s’agit bien souvent d’un rappel des engagements qui sont de toute façon des obligations légales et l’on pourrait disserter pendant de longues heures sur la confusion entre « règles éthiques » et « règles juridiques ». Mais au-delà de la dimension marketing évidente de ces chartes ou livres blancs, il serait malhonnête intellectuellement de ne pas leur reconnaître une utilité dans les messages véhiculés et la volonté affichée de se poser les bonnes questions… et d’y répondre.

Ceci étant dit, c’est le marché qui jugera. Pour l’instant il y a bouillonnement de projets et de business models, et c’est très bien. Mais, à terme, il n’y aura pas de place pour tout le monde et j’espère que ce sont les legaltechs qui créent le plus de valeurs pour leurs clients, et plus largement le plus de valeur sociale, qui s’imposeront.

Comment formez-vous des « juristes augmentés » dans un univers du « droit augmenté » ? Quelles compétences particulières doivent-ils développer ?

La compétence la plus importante est l’agilité. C’est-à-dire, la capacité à s’adapter à des outils qui changent rapidement, ce qui sous-entend donc une certaine résilience. Je lis parfois (ou j’entends) que tous les juristes augmentés devront savoir coder. Je pense que c’est absurde. En revanche, être capable de comprendre comment un « code fonctionne », pour savoir l’utiliser au mieux de ses besoins et en déterminer les éventuelles limites ou risques, sera important. Etre à l’aise avec les outils digitaux, qu’il s’agisse de gérer l’information, la connaissance ou les compétences, de communiquer, de mesurer sa performance, sera aussi capital.

Comme le digital va permettre de plus en plus aux juristes de passer moins de temps sur les tâches répétitives, il sera attendu de leur part qu’ils soient créatifs et capables de proposer des innovations, qu’elles soient juridiques, opérationnelles ou managériales. Egalement, le talent dans la relation-client: comprendre son client, échanger avec lui afin de déterminer quelle promesse de valeur il attend et pouvoir la lui apporter : l’intelligence émotionnelle, le talent dans le travail en équipe, où la connaissance et la compétence ne sont pas jalousement gardées mais partagées, le sens de la pédagogie. Etre capable de travailler en mode-projet.