mardi 12 mai 2020

PROPOSITION DE RÉSOLUTION visant à encadrer la justice prédictive et empêcher que l’intelligence artificielle prenne les décisions de justice en lieu et place des juges,

Description : LOGO
N° 2912
_____
ASSEMBLÉE  NATIONALE
CONSTITUTION DU 4 OCTOBRE 1958
QUINZIÈME LÉGISLATURE
Enregistré à la Présidence de l’Assemblée nationale le 11 mai 2020
PROPOSITION DE RÉSOLUTION
visant à encadrer la justice prédictive et empêcher que lintelligence artificielle prenne les décisions de justice en lieu et place des juges,


présentée par Mesdames et Messieurs
Patrick HETZEL, Nathalie BASSIRE, Thibault BAZIN, Valérie BEAUVAIS, Émilie BONNIVARD, Ian BOUCARD, Xavier BRETON, Bernard BROCHAND, Fabrice BRUN, Josiane CORNELOUP, MarieChristine DALLOZ, JeanPierre DOOR, Daniel FASQUELLE, Nicolas FORISSIER, Annie GENEVARD, Philippe GOSSELIN, Michel HERBILLON, Brigitte KUSTER, Valérie LACROUTE, Marc LE FUR, Constance LE GRIP, Geneviève LEVY, David LORION, JeanLouis MASSON, Gérard MENUEL, Frédérique MEUNIER, Guillaume PELTIER, Bernard PERRUT, Bérengère POLETTI, Frédéric REISS, Bernard REYNÈS, Vincent ROLLAND, Raphaël SCHELLENBERGER, JeanMarie SERMIER, Éric STRAUMANN, JeanCharles TAUGOURDEAU, JeanLouis THIÉRIOT, Isabelle VALENTIN, Patrice VERCHÈRE, Arnaud VIALA, JeanPierre VIGIER, Stéphane VIRY,
députés.

 1 
EXPOSÉ DES MOTIFS
Mesdames, Messieurs,
Alors que la France entière est confinée pour éviter la propagation du covid‑19, la Chancellerie a publié au journal officiel le dimanche 29 mars un décret (n° 2020‑356) portant création d’un traitement automatisé de données à caractère personnel dénommé DataJust.
Ce décret prévoit, pour une durée de deux ans, le développement d’un algorithme destiné à permettre « lévaluation rétrospective et prospective des politiques publiques en matière de responsabilité civile et administrative, lélaboration dun référentiel indicatif dindemnisation des préjudices corporels, linformation des parties et laide à lévaluation du montant de lindemnisation à laquelle les victimes peuvent prétendre afin de favoriser un règlement amiable des litiges ». 
Sur le site d’Etalab, l’équipe chargée du projet indique qu’avec Datajust, les victimes « pourraient comparer en pleine connaissance de cause les offres dindemnisation des assureurs et les montants quelles pourraient obtenir devant les tribunaux ; les avocats disposeraient dinformations fiables leur permettant de conseiller leurs clients ; les magistrats auraient un outil daide au chiffrage des préjudices grâce à un accès facilité à des jurisprudences finement ciblées ».
Bien que présenté par la Chancellerie comme un « outil de qualité », ce projet est controversé.
Car il pose de nombreuses questions.
Va‑t‑on arriver à la disparition progressive des avocats ?
Avance‑t‑on vers une société de « juges‑robots » ?
Peut‑on laisser aux algorithmes le pouvoir de juger ?
La machine est‑elle en voie de remplacer le juge ?
Est‑ce la fin programmée des décisions individualisées ?
Va‑t‑on vers l’automatisation de la justice ?
Lorsque les avocats y recourent pour préparer leur défense ou mettre en place les bases d’une négociation, comment s’assurer que le socle jurisprudentiel sur lequel s’appuient les résultats est fiable et exhaustive ?
Quelle garantie a‑t‑on que le raisonnement qui a conduit à la prédiction judiciaire est incontestable ?
Si la justice prédictive repose sur le postulat que peut être anticipé le résultat d’une procédure grâce à la puissance de calcul de solutions informatisées agrégeant des milliers des décision de tribunaux et cours combinées avec les paramètres spécifiques d’une affaire, arrivera‑t‑on à des jugements prédéterminés en fonction du lieu ?
Peut‑on préserver l’anonymat des personnes citées dans un jugement tout en diffusant l’essentiel du contenu d’un jugement anonymisé ?
Ne court‑on pas le risque d’une réidentification des personnes simplement en croisant ces données avec d’autres sources ?
Est‑ce que toute vie « judiciaire » civile ou pénale, tout auteur ou toute victime, doit être sur la place publique d’Internet ?
Comment s’assurer que les données dérivant des décisions juridictionnelles proviennent de sources certifiées et ne puissent pas être altérées jusqu’à leur utilisation effective par l’algorithme ?
Comment prévoir l’instauration d’un barème en matière de réparation des préjudices corporels et de création d’un fichier comportant des données personnelles hors le cadre du règlement général sur la protection des données (RGPD) ?
Comment encadrer les sociétés qui contribuent à la réalisation d’une fonction régalienne qu’est la justice ?
Comment maîtriser la transparence de la méthodologie utilisée ?
Comment éviter une commercialisation des données ?
Comment mettre en place une éthique pour les « fabricants » d’algorithmes ? Est‑il prévu une autorité de régulation des algorithmes ?
Face à toutes ces interrogations, il est urgent de rappeler que linterprétation de la règle et du droit doit rester une prérogative strictement humaine.
Le Conseil national des barreaux a déposé un recours devant le Conseil d’État.
La présidente de la conférence des bâtonniers a exprimé son mécontentement de ne pas avoir été consultée sur ce décret, publié en plein état d’urgence sanitaire.
Au vu de toutes ces interrogations, nous vous demandons, Mesdames, Messieurs, de bien vouloir adopter la proposition de résolution suivante.



PROPOSITION DE RÉSOLUTION
Article unique
L’Assemblée nationale,
Vu l’article 34‑1 de la Constitution,
Vu l’article 136 du Règlement de l’Assemblée nationale,
Considérant l’importance d’une justice individualisée ;
Considérant qu’un algorithme ne peut remplacer magistrats et juges dans les affaires de responsabilité civile ;
Considérant les risques de réidentification par croisement des données ;
Invite le Gouvernement à retirer ce décret aucunement prioritaire en ce temps de pandémie.

Aucun commentaire :

Publier un commentaire