mardi 7 janvier 2020

Place des algorithmes dans le secteur juridique

15ème législature

Question N° 21789
de M. Jean-Michel Mis (La République en Marche - Loire )
Question écrite
Ministère interrogé > Justice
Ministère attributaire > Justice
 
Rubrique > justice
Titre > Place des algorithmes dans le secteur juridique
Question publiée au JO le : 23/07/2019 page : 6828
Réponse publiée au JO le : 07/01/2020 page : 91

Texte de la question

M. Jean-Michel Mis attire l'attention de Mme la garde des sceaux, ministre de la justice, sur la question de la place accordée aux algorithmes dans le secteur juridique et sur la nécessité de travailler dès maintenant à la construction d'un cadre à la fois responsabilisant et porteur pour les acteurs français de la justice « algorithmique ». Alors que certains pays de l'OCDE, comme la Finlande ou les États-Unis ont recours à des algorithmes dans leurs systèmes de justice, il est aujourd'hui indispensable que la France se saisisse de ce sujet afin d'en définir les usages et d'en contrôler les dérives, afin d'éviter l'avènement d'une justice expéditive et déshumanisée. En effet, si la loi programmation 2019-2022 et de réforme de la justice, adoptée définitivement le 18 février 2019, fait entrer la justice française dans une nouvelle ère, celle du numérique, elle a pour autant omis la question du rôle que pourrait jouer les algorithmes dans le secteur juridique, alors même que se développent dans le pays de nombreuses legaltech. Comme le rappelait l'ancien vice-président du Conseil d'État, M. Jean-Marc Sauvé, si les algorithmes dans le droit sont bien « une opportunité », il convient de s'en saisir « en sachant faire preuve d'une grande vigilance sur l'intangibilité d'une justice indépendante, impartiale, transparente, humaine et équilibrée » afin de garantir à tous les citoyens un égal accès à la force du droit. Ces outils sont en fait des statistiques sur des décisions de justice qui peuvent faciliter la compréhension des professionnels du droit, orienter une stratégie. Ils ne sont et ne doivent rester qu'une aide en complément de l'intelligence humaine dans le processus de décision. Cette révolution pourrait, en outre, être une formidable opportunité pour le monde juridique, mais aussi pour l'État qui trouverait là un moyen d'assurer un fonctionnement de la justice plus efficient. Elle serait aussi et surtout une opportunité de positionner la France comme un leader dans ce domaine, de lui permettre d'imposer sa vision pour une utilisation éthique de ces outils. Il lui demande donc quelles mesures compte prendre le Gouvernement pour construire un cadre à la fois responsabilisant et porteur pour les acteurs français de la justice « algorithmique ».

Texte de la réponse

Les nouvelles technologies de l'information et de la communication contribuent à dessiner un nouvel environnement judiciaire permettant, entre autres, la dématérialisation de l'accès au droit et à la justice, la création de plateformes de résolutions à l'amiable des litiges ou encore l'accès à de nouvelles modalités de saisine des juridictions, notamment civiles. Parmi ces évolutions, les outils algorithmiques dits « d'intelligence artificielle » se proposent notamment de contribuer à réduire l'aléa judiciaire par l'analyse statistique du risque judiciaire encouru par le justiciable. Touchant au cœur de l'action du magistrat, ces outils pourraient modifier en profondeur la pratique du droit : ils suscitent donc d'importants débats. Parmi les deux cents entreprises répertoriées en 2018 comme Legaltech, seules 3 % des start-ups « legaltech » feraient du développement d'un algorithme d'intelligence artificielle leur cœur de métier. Ces nouveaux acteurs cherchent à faire évoluer les pratiques du droit. Il importe d'évaluer avec objectivité la réalité de ces évolutions. Plusieurs cas d'usage et d'expérimentations, en France comme dans d'autres pays, justifient une première analyse nuancée des algorithmes de prédiction de l'aléa juridique. En France, l'expérimentation d'un logiciel aux visées prédictives dans le ressort des cours d'appel de Douai et Rennes au printemps 2017 a été conclue par le constat partagé entre magistrats et avocats d'une inadéquation par rapport aux besoins exprimés. Au Royaume-Uni, l'expérimentation HART, conduite en 2016 par des chercheurs de l'université de Londres, et qui avait comme objectif de reproduire les processus de décision du juge européen, n'est pas parvenue à descendre en dessous des 20 % de réponses erronées, ce qui est un taux trop important pour un outil d'aide à la décision. Il appartient à la puissance publique de fixer le cadre et d'orienter le justiciable dans cet univers en pleine mutation. A ce titre, la principale garantie contre une justice intégralement algorithmique tient à l'article 47 de la loi n° 78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés, qui dispose qu'« aucune décision de justice impliquant une appréciation sur le comportement d'une personne ne peut avoir pour fondement un traitement automatisé de données à caractère personnel destiné à évaluer certains aspects de la personnalité de cette personne. (…) ». La loi n° 2016-1321 du 7 octobre 2016 dite « République numérique » impose la transparence des algorithmes publics, offrant ainsi une garantie supplémentaire contre un éventuel phénomène de « boîte noire » en matière d'usages judiciaires de l'intelligence artificielle. En outre, la loi de programmation 2018-2022 et de réforme pour la justice prévoit que la réutilisation de données de magistrats ou de greffiers « ayant pour objet ou pour effet d'évaluer, d'analyser, de comparer ou de prédire leurs pratiques professionnelles réelles ou supposées » est un délit (article 33). La certification facultative des plateformes en ligne de résolution amiable des litiges, y compris celles dont le service en ligne est proposé à l'aide d'un traitement algorithmique ou automatisé de données à caractère personnel, constitue une étape supplémentaire dans la construction du cadre juridique en la matière. Il s'agit d'accompagner le développement des legaltech tout en sécurisant le cadre juridique et instaurant un climat de confiance pour le justiciable qui recourt à ces outils numériques. La certification sera accordée dès lors que les plateformes respectent les règles de protection des données à caractère personnel et les exigences d'indépendance et d'impartialité. La certification ne pourra pas être accordée à des plateformes qui auraient pour seul fondement un traitement algorithmique ou automatisé de données. Cette accréditation a été pensée non comme une obligation mais comme une faculté et doit aider au développement de ces entreprises innovantes tout en informant pleinement le justiciable. Parallèlement, le plan de transformation numérique du ministère de la justice doit permettre de mettre en œuvre les dispositions de la loi de programmation 2018-2022 et de réforme pour la justice sur l'open data des décisions de justice. Les données qui seront libérées dans ce cadre permettront ainsi de sécuriser l'entraînement des algorithmes en mettant à disposition des données complètes et non biaisées, aspect essentiel de la construction de solutions algorithmiques fiables. Dans la ligne des engagements souhaités par le président de la République quant au positionnement de la France comme actrice majeure de l'intelligence artificielle, le ministère de la justice soutient plusieurs projets aux fins d'expérimentation de l'intelligence artificielle appliquée à la matière judiciaire, en partenariat avec la mission Etalab : les projets DataJust et OpenJustice. En outre, le ministère participe à l'élaboration d'outils internationaux permettant d'inscrire la France dans une perspective européenne en la matière. Ainsi, la charte éthique européenne sur l'utilisation de l'IA dans les systèmes judiciaires a été adoptée lors de la 31ème réunion plénière de la Commission européenne pour l'efficacité de la justice. Elle dégage notamment cinq grands « principes » de l'intelligence artificielle vertueuse, que sont le principe de respect des droits fondamentaux, le principe de non-discrimination, le principe de qualité et de sécurité, le principe de transparence, de neutralité et d'intégrité intellectuelle, ainsi que le principe de maîtrise par l'utilisateur. Le ministère de la justice suit également les travaux de la Commission ainsi que ceux qui seront entrepris dans le cadre du comité ad hoc sur l'intelligence artificielle crée par le Conseil de l'Europe.

Aucun commentaire :

Publier un commentaire