Par Gregory Lewkowicz, Professeur à l’Université libre de Bruxelles, directeur du programme droit global du Centre Perelman
La Commission Européenne pour l’Efficacité de la Justice (CEPEJ) a adopté les 3 et 4 décembre 2018 la Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement (ci-après, CEEJ)[1]. Il s’agit du premier instrument adopté au niveau européen, en l’occurrence celui du Conseil de l’Europe, sur l’usage de l’intelligence artificielle dans les systèmes de justice. Cette initiative s’inscrit dans le « moment éthique » de l’intelligence artificielle déjà abordé précédemment[2] et présente la particularité de concerner principalement le monde du droit.
Le terme « éthique » ne doit pas prêter à confusion. Il n’y est pas question de moralité. La Charte est placée sous la responsabilité du groupe de travail sur la qualité de la justice de la CEPEJ. Elle s’inscrit pleinement dans la perspective d’évaluer et de renforcer un aspect particulier de la qualité des systèmes de justice, à savoir, leur utilisation des systèmes d’intelligence artificielle. La Charte établit en effet des règles souples destinées à servir de référentiel à un système de conformité (compliance) des solutions d’intelligence artificielle. Elle concernera aussi, en toute hypothèse, les avocats et l’ensemble des professionnels du droit qui seront affectés – et peut-être certifiés – par ricochet.
La Charte ne fait pas mystère de son ambition de constituer la base d’une filière de certification placée sous la supervision conjointe d’acteurs publics et privés chargés de l’audit, de la labellisation et de l’amélioration constante des pratiques. Elle précise d’ailleurs dès l’entame que les traitements des décisions juridictionnelles par des systèmes d’intelligence artificielle doivent respecter certains standards et que ceux-ci doivent faire l’objet d’une certification :
« Qu’ils soient conçus dans le but d’apporter un support à une consultation juridique, une aide à la rédaction ou à la décision ou une orientation des justiciables, il est essentiel que lesdits traitements soient effectués dans des conditions de transparence, de neutralité et de loyauté certifiées par une expertise extérieure à l’opérateur et indépendante. »[3]
Dans cette perspective, la CEEJ identifie cinq principes fondamentaux qui doivent encadrer le recours à des systèmes d’intelligence artificielle dans les systèmes judiciaires et leur environnement.
(i) Le principe de respect des droits fondamentaux. Celui-ci suppose de garantir que les traitements de données et leurs usages respectent les droits fondamentaux, ne portent pas atteinte aux garanties du procès équitable et au droit d’accès au juge en privilégiant idéalement une approche respectueuse des droits de l’homme dès la conception.
(ii) Le principe de non-discrimination. Celui-ci vise à prévenir spécifiquement la création ou le renforcement de discriminations entre individus ou entre groupes d’individus en raison d’un traitement automatisé de données.
(iii) Le principe de qualité et de sécurité. Celui-ci impose, dans le cadre du traitement de décisions juridictionnelles ou de données judiciaire, d’utiliser des sources certifiées et des données intangibles ainsi que des modèles d’apprentissage machine conçus de manière multidisciplinaire dans un environnement technologique sécurisé.
(iv) Le principe de transparence, de neutralité et d’intégrité intellectuelle. Celui-ci recommande de faire prévaloir l’intérêt de la justice sur les droits de propriété intellectuelle en garantissant que les méthodes de traitement soient transparentes, neutres, loyales et intellectuellement intègres. Ces méthodes doivent être explicables dans un langage clair. Elles doivent être certifiables et auditables et pourraient, le cas échéant, faire l’objet d’une labellisation par les pouvoirs publics.
(v) Le principe de maîtrise par l’utilisateur. Celui-ci préconise de bannir une utilisation prescriptive des systèmes fondés sur l’intelligence artificielle et de permettre à l’utilisateur de ces systèmes de demeure un acteur autonome, éclairé et maître de ses choix.
Pour chacun de ces principes, l’annexe IV de la CEEJ établit une « checklist d’intégration des principes de la charte dans vos traitements ». Celle-ci est assez rudimentaire. Elle prend la forme d’une échelle d’auto-évaluation pour chacun des cinq principes de la Charte. Tout porte à croire qu’elle a été intégrée au document à titre d’exemple et non avec l’idée qu’elle puisse réellement servir d’outil opérationnel pour les développeurs de solutions d’intelligence artificielle ou pour les acteurs de la justice. Au moment de son adoption, l’opérationnalisation de la CEEJ était de toute évidence une affaire à suivre.
L’adoption de la CEEJ est en effet un point de départ plutôt qu’un aboutissement. A l’instar des référentiels de ce type dans d’autres domaines, ce sont les mécanismes de mise en œuvre qui en définiront concrètement le sens et la portée. Or, la question de l’opérationnalisation de la Charte a considérablement évolué depuis décembre 2018.
En mars 2019, le groupe de travail sur la qualité de la justice de la CEPEJ adoptait ainsi un document de travail établissant les actions susceptibles d’assurer la diffusion et la mise en œuvre de la Charte[4] en soulignant « l’importance d’entreprendre rapidement des actions en matière d’opérationnalisation des principes de la Charte à l’intention des acteurs publics et privés » et en confirmant « que la perspective d’une éventuelle certification des instruments d’IA de la part de la CEPEJ doit être approfondie »[5]. C’est dans cette perspective que s’est tenue à Athènes le 23 septembre 2019 une réunion commune entre la CEPEJ et l’Institut des Ingénieurs Electriciens et Electroniciens (IEEE)[6] en marge de la table ronde sur l’Intelligence artificielle et l’état de droit organisé sous les auspices du Président de la République hellénique.
L’IEEE est une association professionnelle qui regroupe plus de 400.000 ingénieurs dans le monde. En réponse aux interrogations sociétales sur l’intelligence artificielle et la robotique, cette association a lancé une initiative globale sur l’éthique des systèmes autonomes et intelligents. Celle-ci a donné lieu à une série de recommandations dans tous les domaines : l’Ethically Aligned Design[7]. L’ambition de l’IEEE va toutefois bien au-delà de l’élaboration de ce seul rapport. Forte de son expertise dans le développement de normes techniques, l’association a lancé la série de normes techniques IEEE P7000. Celles-ci concernent des enjeux à l’intersection de la technologie et de l’éthique telles que la prévention des biais algorithmiques (P7003), les technologies de reconnaissance faciale (P7013) ou encore la gouvernance des données des enfants et des étudiants (P7004).
Parmi les thématiques, septante pages de l’Ethically Aligned Design concernent l’utilisation de l’intelligence artificielle dans le domaine du droit[8]. Elles visent plus spécifiquement à établir des normes pour l’adoption de systèmes autonomes ou intelligents dans les systèmes juridiques. A la différence de la CEEJ, les principes identifiés par l’IEEE sont au nombre de 4 :
(i) Le principe d’efficacité (« fitness for purpose »). Ce principe vise à garantir la capacité d’un système à rencontrer les objectifs qui lui ont été fixés soit par la validation d’un système individuel, soit par l’évaluation différentielle de plusieurs systèmes. En pratique, cette garantie est donnée par la production d’indicateurs quantitatifs pertinents à la fois pour les experts et les développeurs et pour les non-experts et les utilisateurs du système.
(2) Le principe de compétence. Ce principe vise à garantir que les utilisateurs des systèmes disposent des compétences requises pour les utiliser. Il implique l’obligation pour les développeurs de fournir des spécifications précises sur les compétences requises à la bonne utilisation du système. Il implique également la formation et, le cas échéant, la certification des opérateurs habilités à utiliser le système.
(3) Le principe de redevabilité. Celui-ci suppose que soit constitué une documentation clarifiant les responsabilités des différents intervenants dans le développement et l’utilisation du système. Il implique également la contractualisation du partage des responsabilités entre les fournisseurs et les utilisateurs des produits et services utilisés dans les systèmes judiciaires. Le principe de redevabilité suppose également la mise en place de mécanismes d’audit multipartites susceptibles de traiter les questions de responsabilité sur la base d’une documentation probante des processus.
(4) Le principe de transparence. Celui-ci impose de définir différentes catégories de bénéficiaires d’informations ainsi que, pour chaque catégorie, la liste des informations auxquelles ils devraient avoir accès parmi les cinq catégories suivantes : (i) des informations non-techniques sur l’utilisation et le développement d’un produit; (ii) des informations relatives aux données utilisées pour le développement et dans le cadre de l’utilisation du système; (iii) des informations concernant l’efficacité ou la performance du système; (iv) des informations sur les modèles formels utilisés par le système et (v) des informations expliquant la logique générale du système ou certains résultats spécifiques.
Sur le plan de la formulation, on mesure la distance qui sépare les principes dégagés par le comité juridique de l’IEEE de ceux identifiés par la Charte de la CEPEJ. Les premiers sont exprimés dans une perspective opérationnelle, lorsque les seconds demeurent plus généraux et abstraits. De ce point de vue, les deux projets ne pouvaient que se rencontrer tant ceux-ci sont potentiellement complémentaires.
Aussi ne s’étonnera-t-on pas que le groupe de travail sur qualité de la justice de la CEPEJ lors de sa réunion des 30 et 31 octobre salue « les standards opérationnels concernant les applications de justice dite « prédictive » et de recherche juridique [CEPEJ-GT-QUAL (2019) 4] qui ont été préparés par l’IEEE (Institut des ingénieurs électriciens et électroniciens) » et souhaite poursuivre la collaboration afin de définir « les questions spécifiques auxquelles il convient de répondre afin d’évaluer si l’application est conforme ou non aux principes de la CEPEJ, d’autre part les preuves empiriques spécifiques qui permettraient d’arriver à des réponses à ces questions »[9]. Il sera d’un grand intérêt de prendre connaissance du contenu de ces travaux communs qui devraient être accessibles dans un futur proche.
Parfois très abstraits, parfois très techniques, les travaux en cours sur la certification des produits d’intelligence artificielle à l’usage du monde de la justice sont porteurs d’enjeux fondamentaux dont il nous est encore difficile de prendre la mesure. L’informatisation de la justice est une dynamique dont on ne voit pas poindre la fin malgré ses (nombreux) ratés. Dans ce contexte, définir les normes techniques et les systèmes de certification applicables revient, ni plus, ni moins, à redéfinir de manière opérationnelle certains principes fondamentaux de l’état de droit ainsi que certaines garanties du droit à un procès équitable.
Il est de ce point de vue urgent que tous les professionnels du droit et leurs organisations représentatives se saisissent de la question. Ceci est en particulier vrai des juristes de tradition civiliste. Une simple lecture de la composition du comité juridique de l’IEEE permet de constater la quasi-absence des juristes de tradition civiliste et la domination des common lawyers en son sein. Ceci aura nécessairement des implications sur la nature des normes techniques issues des travaux de l’IEEE. Il ne faudra pas se plaindre demain de l’influence croissance de la common law sur les systèmes de justice si les représentants de la culture juridique de droit civil ne s’expriment pas aujourd’hui.
Les standards de compétence applicables aux professionnels du droit sont également en ligne de mire. Les normes de l’IEEE soulignent suffisamment que la certification des produits utilisés dans le domaine de la justice doit s’accompagner d’une certification des opérateurs. Il s’agit d’une logique classique dans le domaine de l’informatique où les informaticiens et les développeurs sont appelés à acquérir des certificats pour démontrer leur capacité à utiliser tel ou tel type de solutions ou de langage de programmation. Faudra-t-il demain être détenteur d’un certificat en informatique juridique pour accéder à la profession d’avocat ou à la magistrature ? Et qui sera en mesure de délivrer ces certificats donnant accès à tout ou partie de la profession ? Bref, les informaticiens certifieront-ils demain non seulement la qualité de la justice mais aussi des professionnels du droit ? La question se posera.
[1] Accessible en ligne à l’adresse : https://rm.coe.int/charte-ethique-fr-pour-publication-4-decembre-2018/16808f699b
[2] Voy. G. Lewkowicz, « Encadrer le développement de l’intelligence artificielle : le moment éthique » disponible en ligne à l’adresse https://www.incubateurbxl.eu/encadrer-le-developpement-de-lintelligence-artificielle-le-moment-ethique/
[3] p.5
[4] CEPEJ-GT-QUAL, Actions possibles pour assurer une diffusion et une mise en œuvre plus larges de la Charte éthique européenne sur l’utilisation de l’intelligence artificielle (IA) dans les systèmes judiciaires et leur environnement, CEPEJ-GT-QUAL(2019)1, Strasbourg, 5 mars 2019.
[5] CEPEJ-GT-QUAL, Rapport de réunion. 25e réunion (Strasbourg 14-15 mars 2019), CEPEJ-GT-QUAL(2019)2, Strasbourg, 24 mai 2019, §8.
[6] Putting the principles of the CEPEJ European Ethical Charter on the use of artificial intelligence in judicial systems into practice, with a certification perspective, Athènes, 23 Septembre 2019.
[7] IEEE, Ethically Aligned Design : a Vizion for Prioritizing Human Well-bein with Autonomous and Intelligent Systems, version 2, IEEE, 2017 disponible en ligne à l’adresse https://standards.ieee.org/industry-connections/ec/autonomous-systems.html
[8] IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems, Law disponible en ligne à l’adresse https://standards.ieee.org/content/dam/ieee-standards/standards/web/documents/other/ead1e_law.pdf
[9] CEPEJ-GT-QUAL, Rapport de réunion. 26e réunion (Venise, 30-31 octobre 2019), CEPEJ-GT-QUAL(2019)11, Strasbourg, 28 novembre 2019, respectivement §5 et §6.
[supsystic-social-sharing id="1"]