Contenu

Vous êtes iciAccueil » Politique » Une


Épauler les magistrats

Politique_Magistrats.jpg

Politique_Magistrats.jpg

Éliminer une partie de la subjectivité des magistrats, leurs mouvements d’humeur, leurs stéréotypes, … et rendre la justice plus équitable, grâce à des outils d’intelligence artificielle. Le projet n’a rien de théorique, explique Daniel Chen.

13 septembre 2019 imprimer en PDF

Comprendre pour entreprendre : Les outils d’intelligence artificielle sont en train de transformer profondément les conditions d’exercice de nombreuses professions, comme la traduction, la conduite routière ou la médecine. Dans quelle mesure la magistrature peut-elle est concernée ?

Daniel Chen : Le grand public en entend peu parler en France, mais l’utilisation d’outils d’intelligence artificielle n’est d’ores et déjà plus marginale à échelle mondiale lorsqu’il s’agit de rendre la justice. En Estonie, des « robots juges » ont, par exemple, été mis au point à la demande du ministère de la justice pour résoudre des conflits portant sur des sommes inférieures à 7 000 €. Les deux parties doivent déposer toutes les pièces réclamées par le système expert qui émet alors une décision. En cas de contestation seulement, s’il y a appel, un juge humain intervient comme filet de sécurité. Le but affiché par ce projet, en cours de déploiement, est de désengorger les tribunaux, en permettant aux magistrats de se concentrer sur les affaires les plus complexes.

Les magistrats français ne cessent de se plaindre du manque de moyens de la justice. Les outils d’intelligence artificielle vont-ils prendre ainsi le relais pour les petites affaires ?

Tallinn est la capitale mondiale de l’administration numérique. Aucun autre pays n’est pour l’instant allé si loin. Mais de nombreuses start-ups de la Silicon Valley travaillent aujourd’hui sur ces sujets et conçoivent des outils qui ont vocation à se vendre dans le monde entier. Des programmes d’intelligence artificielle ont été développés pour l’analyse des contrats ou la recherche de jurisprudence, ce qui pourrait considérablement alléger dans l’avenir la tâche des avocats et magistrats. Il s’agit en quelque sorte d’assistants juridiques robotisés. La demande est très forte du côté des avocats qui représentent une force de frappe économique importante Outre-Atlantique. Mais d’autres programmes, assez différents, sont aussi en train d’être conçus spécifiquement pour épauler les magistrats. Il s’agit en premier lieu de repérer leurs biais.

Repérer les biais des magistrats ? Qu’entendez-vous par là ?

De nombreuses recherches ont été menées ces dernières années, qui montrent que l’attention des magistrats n’est pas constante, qu’ils peuvent se laisser distraire et que leurs décisions sont impactées par des facteurs très divers.

Une étude israélienne a ainsi mis en évidence que les verdicts étaient influencés par l’heure de la journée à laquelle ils étaient rendus. Les magistrats sont sensiblement plus bienveillants après avoir déjeuné que lorsqu’ils ont le ventre creux… On sait aussi qu’ils n’aiment pas produire une série de verdicts analogues. Après avoir traité de plusieurs affaires très lourdes, ils ont tendance à être plus accommodants.

D’autres éléments ont été identifiés. On a pu montrer que les résultats récents de l’équipe de foot nationale jouaient un rôle. Le timbre de voix des avocats a également des conséquences, des voix très graves étant corrélées à des verdicts plus sévères. On sait aussi que des températures extrêmes, trop froides ou chaudes, augmentent l’intransigeance des magistrats. En revanche, les accusés bénéficient d’une certaine clémence le jour de leur anniversaire…

Les outils d’intelligence artificielle rendraient la justice de manière moins humaine et donc plus équitable ?

La question n’est pas aujourd’hui de remplacer les magistrats par des machines sauf dans des cas exceptionnels, lorsqu’on s’aperçoit que les verdicts sont rendus de manière extrêmement routinière et sont donc en fait totalement prédictibles. Des cas de ce type ont été mis en évidence. Aux États-Unis par exemple, la décision de donner ou non le statut de réfugié à un immigrant est prise par un juge. Mais si on donne à un programme d’intelligence artificielle la nationalité du candidat, le nom du juge et la date du jugement, on arrive à prédire parfaitement le verdict. La pression est telle que les magistrats fonctionnent de manière automatique. On peut se demander s’ils lisent vraiment les dossiers. En ce cas, la présence de magistrats humains doit être interrogée ou il faut du moins les avertir que leurs actes sont prévisibles à ce point, ce qui peut révéler de l’inattention. L’idée générale, plutôt que de se passer de leur intervention, est de les aider à prendre conscience de ces biais afin qu’ils se corrigent eux-mêmes.

Les magistrats vous semblent-ils prêts à accepter l’idée que leurs jugements sont biaisés ? Comment les inciter à modifier leurs pratiques ?

Cela nécessite beaucoup de délicatesse car les résistances sont fortes. Un programme peut par exemple indiquer au magistrat comment il a tranché dans des affaires similaires les années précédentes. Il peut aussi fournir des statistiques sur les décisions de ses collègues dans des cas approchants. Il est crucial de ne pas donner aux magistrats l’impression d’être contrôlés, mais qu’on leur fournisse au contraire des outils pour pouvoir améliorer leur efficacité. Pour éviter des écarts à la norme trop importants, on peut imaginer l’envoi de messages d’avertissement, du type : attention, vous déviez de votre fonctionnement habituel.

Ce type d’outil pourrait-il être efficace pour lutter contre les discriminations ?

Des études prouvent à quel point les stéréotypes sont puissants. Aux États-Unis, par exemple, on a montré l’impact important du genre des accusés, ainsi que l’impact de leur couleur de peau. Il n’est pas simple d’éliminer ce type de biais. Mais des projets sont en cours pour concevoir des outils adaptés qui pourraient les neutraliser. Aux Pays-Bas notamment, on étudie un système de procès en réalité virtuelle dans lequel les magistrats verraient juste un avatar de l’accusé, une silhouette neutre. Il s’agit pour l’instant d’un prototype d’application, en cours de test auprès d’étudiants en droit. Mais c’est une piste de recherche prometteuse.


Daniel Chen

Professeur à l’Université Toulouse Capitole, chercheur à l’Institut d’Études Avancées de Toulouse (IAST), Daniel Chen, est titulaire d’un doctorat en sciences économiques du Massachusetts Institute of Technology (MIT) et Juris Doctor de l’Université de Harvard. Il enseigne notamment l’économie comportementale, le machine learning et l’approche économique du droit.





Pour aller plus loin

Analyse des données judiciaires et transformation de la loi américaine , Daniel Chen, Artificial Intelligence and the law, 2019

Justice, les verdicts sont liés à la voix des avocats, Comprendre pour entreprendre

La voix des avocats et la Cour Suprême, Daniel Chen, Yosh Halberstam, Manoj Kumar et Alan Yu, Computational analysis of law, 2019

La justice est-elle aveugle ? Est-elle également sourde ? Daniel Chen, Manoj Kumar, Vishal Motwani, et Philip Yeres, Computational analysis of law, 2019,

L’influence des médias sur les verdicts, Comprendre pour entreprendre

Universit� Toulouse 1 Capitole
En appuyant sur le bouton "j'accepte" vous nous autorisez à déposer des cookies afin de mesurer l'audience de notre site. Ces données sont à notre seul usage et ne sont pas communiquées.
Consultez notre politique relative aux cookies