Panel Jeunes Chercheurs | AI&Tech, Justice and Politics

Sur cette page (cliquez pour y accéder) :


Vidéo


Biographies

Modérateur

Speaker Photo
Fabien Gélinas

Le professeur Fabien Gélinas, Ad. E., enseigne et mène des recherches dans les domaines du règlement des différends internationaux, des contrats de common law et de droit civil, du droit commercial, du droit et de la technologie, ainsi que de la théorie juridique. Ancien avocat général de la Cour internationale d’arbitrage, il agit à titre d’arbitre, d’expert et de consultant en matière de règlement des différends et de réforme juridique.

Le professeur Gélinas est cofondateur du Laboratoire de Cyberjustice de Montréal. Il a enseigné au Centre d’études diplomatiques et stratégiques de Paris (École des hautes études internationales), à l’Université de Paris II – Panthéon Assas, à l’Université nationale du Rwanda à Butare, au Trinity College de Dublin, à Sciences Po Paris, à l’Université de New York et à l’Université nationale de Singapour.

Panélistes

Speaker Photo
Jinzhe Tan

Jinzhe Tan est doctorant en intelligence artificielle et en droit à la Faculté de droit de l’Université de Montréal. Ses recherches portent sur l’intersection entre l’intelligence artificielle et le droit, avec un accent particulier sur l’amélioration de l’accessibilité du droit et la promotion du règlement des différends assisté par la technologie. Ses travaux examinent également comment l’intelligence artificielle peut aider à atténuer les lacunes dans la prise de décision au sein du processus judiciaire, contribuant ainsi à un système judiciaire plus équitable et plus cohérent.

Jinzhe a publié des articles dans des conférences de premier plan sur l’IA et l’informatique juridique, notamment ICAIL et JURIX. Ses recherches couvrent plusieurs dimensions des applications de l’IA dans le domaine juridique, de l’utilisation de grands modèles linguistiques pour structurer les connaissances juridiques à l’emploi de l’IA pour la résolution des litiges et la compréhension juridique par les individus. Ses contributions ont été reconnues à l’échelle internationale, un article co-écrit ayant reçu le prix du meilleur article à JURIX 2023.

À travers son travail, Jinzhe vise à promouvoir l’intégration responsable de l’IA dans les systèmes juridiques, en veillant à ce que la technologie renforce l’équité, la cohérence et l’accès à la justice.
Speaker Photo
Gabrielle Boily

Gabrielle Boily poursuit une maîtrise en psychologie avec thèse à l’Université Laval. Titulaire d’un baccalauréat en droit et d’un baccalauréat en psychologie obtenus simultanément, elle s’intéresse aux liens entre ces deux disciplines. Après un semestre à l’Université Paris 1 Panthéon-Sorbonne, elle a commencé sa carrière de chercheuse avec un article sur les tribunaux de santé mentale, récompensé par le concours de rédaction des Cahiers de droit. Son parcours l’a ensuite amenée à étudier l’interaction entre humain et machine, en particulier l’intelligence artificielle, dans le cadre de ses travaux au laboratoire LEILAH sous la supervision du professeur Alexandre Marois. Ses recherches novatrices sur l’impact de l’IA sur les processus cognitifs et sur l’utilisation des outils d’IA pour améliorer l’accès à la justice ont reçu le soutien d’Obvia et du CRSNG sous forme de subventions, ce qui témoigne de leur pertinence scientifique et sociale.

Speaker Photo
Sarah Sutherland

Sarah A. Sutherland est chercheuse et consultante spécialisée dans l’informatique juridique, la stratégie en matière de données et les intersections entre le droit, la technologie et l’information. Elle est consultante principale chez Parallax Information Consulting, où son travail consiste principalement à intégrer des approches fondées sur les données dans la planification et les opérations des organisations juridiques. Son livre, Legal Data and Information in Practice: How Data and the Law Interact (Routledge, 2022), examine la manière dont les données façonnent les systèmes juridiques et sont façonnées par ceux-ci. Auparavant, elle a occupé le poste de présidente-directrice générale de l’Institut canadien d’information juridique (CanLII), où elle supervisait la plus grande plateforme d’information juridique en libre accès au Canada. Elle a été récompensée pour ses contributions dans ce domaine par le prix Fastcase 50 (2022) et le prix Dennis Marshall pour l’excellence en bibliothéconomie juridique décerné par l’Association canadienne des bibliothèques juridiques (2023). Elle prépare actuellement un doctorat en droit à l’université d’Édimbourg, dont l’obtention est prévue en 2027.


Résumé

Le panel de clôture de la conférence AJC était présidé par Fabien Gélinas (Université McGill) et présentait les travaux de jeunes chercheurs dont les recherches portent sur les intersections entre le droit, l’intelligence artificielle, la technologie, la justice et la politique. Les panélistes étaient Jinzhe Tan (Université de Montréal), Sarah Sutherland (University of Edinburgh) et Gabrielle Boily (Université Laval). Chaque intervenant a apporté une approche disciplinaire différente à la discussion sur la manière dont l’intelligence artificielle croise la prise de décision juridique, l’accès à la justice et le potentiel prédictif des données en droit.

Jinzhe Tan a ouvert le panel avec une présentation intitulée « Renforcer l’autonomie judiciaire grâce à l’intelligence artificielle ». Il a commencé par explorer le fonctionnement cognitif de la prise de décision humaine, en se référant à la théorie du raisonnement à double processus. Selon ce modèle, la pensée humaine mobilise deux systèmes : le Système 1, rapide, automatique et intuitif, et le Système 2, lent, réfléchi et exigeant sur le plan cognitif. Les chercheurs en intelligence artificielle se sont inspirés de ce cadre pour concevoir des systèmes imitant la cognition humaine. Alors que les outils d’IA traditionnels reproduisaient souvent le système rapide et intuitif, les développements actuels — tels que les grands modèles de langage comme ChatGPT-5 — visent de plus en plus à reproduire le Système 2, plus lent et analytique.

Tan a ensuite appliqué ce cadre cognitif au raisonnement judiciaire. Idéalement, on s’attend à ce que les juges s’appuient sur le raisonnement du Système 2 pour rendre des décisions fondées sur les principes juridiques et les preuves. Cependant, comme les réalistes juridiques l’ont depuis longtemps souligné, les juges sont des êtres humains et donc susceptibles d’emprunter des raccourcis cognitifs, notamment dans des situations de stress, de pression temporelle ou de surcharge d’informations. Ces raccourcis conduisent souvent à un recours au Système 1, où des facteurs extrajuridiques, voire irrationnels, peuvent influencer les décisions. Il a illustré cela par l’exemple du juge Antonin Scalia, qui avait un jour conseillé aux avocats masculins de ne pas se présenter au tribunal avec une queue de cheval, suggérant ainsi que l’apparence pouvait influencer la perception judiciaire.

Tan a cité de nombreuses études sur les influences extrajuridiques dans les décisions judiciaires, y compris le célèbre « effet du juge affamé », qui a montré que les juges ont tendance à rendre des décisions plus sévères juste avant le déjeuner, lorsqu’ils sont probablement affamés et fatigués. Les recherches académiques ont depuis classé les biais judiciaires en trois grandes catégories : cognitifs, émotionnels et socio-économiques. Ces travaux soulignent que les décisions judiciaires ne sont pas toujours purement rationnelles, mais sont souvent influencées par les émotions et le contexte extérieur.

Face à ces enjeux, Tan s’est interrogé sur la possibilité que l’IA puisse constituer un meilleur décideur. Il a cité des études comparant les décisions humaines avec les prédictions algorithmiques dans le cadre des décisions de mise en liberté sous caution, notamment pour évaluer si les prévenus risqueraient de fuir ou de récidiver. Les résultats ont suggéré que les modèles algorithmiques pourraient réduire la criminalité d’au moins 14 % et les taux d’incarcération d’au moins 18 %. Cela soulève la question provocante : l’IA devrait-elle remplacer les juges ?

Tan a répondu à cette question avec prudence. Bien que les systèmes d’IA soient basés sur les données et moins vulnérables aux types de biais qui affectent les juges humains, ils sont loin d’être parfaits. L’« effet du juge affamé », par exemple, a depuis été remis en question par des études de suivi utilisant de meilleures méthodologies et des ensembles de données plus larges. De plus, la plupart des modèles d’IA sont entraînés sur des données biaisées et reflètent les inégalités sociales. Selon lui, l’IA constitue un « miroir déformant » du raisonnement humain : elle peut nous aider à comprendre nos limites cognitives, mais nous ne devrions pas nous en remettre à elle pour prendre des décisions à notre place.

Au contraire, l’IA devrait être utilisée pour réduire la charge de travail des juges et soutenir une meilleure prise de décision, plutôt que de remplacer le jugement humain. Par exemple, l’IA peut améliorer l’accès à l’information, aider au règlement des différends en ligne et gérer les tâches administratives qui surchargent le système judiciaire. Tan a conclu que l’autonomie judiciaire doit être préservée, avec les humains restant au centre de la prise de décision juridique. La valeur de l’IA réside dans sa capacité à nous aider à mieux nous comprendre et à améliorer les systèmes existants, sans les remplacer entièrement.

La deuxième intervenante, Gabrielle Boily, a présenté ses recherches intitulées « L’utilisation des outils d’IA pour améliorer l’accès à l’information juridique au Québec ». Les travaux de Boily se situent à l’intersection de l’accès à la justice, de l’interaction humain-IA et de la psychologie cognitive. Elle a commencé par exposer un problème croissant dans le système judiciaire québécois : un nombre croissant de justiciables se présentent sans représentation. Elle a soutenu que les plateformes d’e-justice et les outils d’IA peuvent contribuer à combler ce déficit d’accès, à condition qu’ils soient fiables, éthiques et inclusifs. Sa question de recherche centrale était de savoir si les outils d’IA actuellement accessibles au Québec soutiennent efficacement l’accès du public à l’information juridique.

Boily a utilisé un cadre conceptuel inspiré du Plan stratégique 2023–2027 du ministère de la Justice du Canada, qui souligne la nécessité d’un système judiciaire juste et accessible. Elle a également fait référence au paragraphe 2(b) de la Charte canadienne des droits et libertés, qui accorde au public le droit d’être informé sur les institutions publiques, ainsi qu’à l’article 128 de la Loi sur le Barreau du Québec, qui distingue l’information juridique du conseil juridique — distinction que les outils d’IA ont souvent tendance à brouiller.

Sa méthodologie combinait un cadre d’évaluation de l’IA dans les contextes judiciaires avec une analyse de performance basée sur des requêtes pour deux outils : JusticeBot, développé par le Laboratoire de cyberjustice, et ChatGPT. Elle s’est concentrée sur le droit du logement au Québec, en utilisant des situations juridiques basées sur des données statistiques tirées du rapport annuel 2023–2024 du Tribunal administratif du logement. Son cadre d’évaluation a été adapté pour tester l’efficacité des outils à répondre à des requêtes juridiques spécifiques.

Les résultats ont révélé des différences notables entre les deux systèmes. JusticeBot a obtenu de bonnes performances, fournissant trois réponses complètes et exactes, étayées par des références aux textes législatifs et à la jurisprudence. Il incluait également des sources juridiques et des exemples, démontrant une conception transparente et solide intégrant les retours des utilisateurs. En revanche, ChatGPT a produit deux réponses exactes et une réponse inexacte. Bien que son format conversationnel offre de la clarté, il fournissait rarement des références juridiques et sa tendance à donner des conseils très spécifiques brouillait la frontière entre information juridique et conseil juridique. Cela pose un problème particulier compte tenu des implications légales potentielles liées à la dépendance à des réponses générées par l’IA inexactes ou trop détaillées.

Boily a conclu que, bien que la diffusion des outils d’IA promette d’améliorer l’accès à l’information juridique, elle comporte également des risques. Un contenu juridique inexact ou trompeur peut semer la confusion chez les utilisateurs et ralentir les processus judiciaires. Par conséquent, l’évaluation de l’IA doit rester dynamique, participative et réactive. Des processus d’évaluation formels et adaptables sont nécessaires pour garantir que les systèmes d’IA servent le public de manière efficace et éthique.

La dernière intervenante, Sarah Sutherland, a présenté une communication intitulée « Processus, finalité et temps : examiner l’écart entre la prise de décision judiciaire et la prédiction juridique ». Ses travaux visaient à mieux comprendre comment le temps et le contexte culturel influencent le raisonnement juridique et l’utilisation des données dans les systèmes computationnels. Sutherland a souligné la coexistence historique des humains et des machines de calcul entre 1870 et 1970. Elle a présenté le débat actuel sur l’IA et la prédiction juridique comme la continuation d’une relation de longue date entre le raisonnement humain et le calcul machine.

Sutherland s’est concentrée sur la notion de prédiction en tant qu’outil reliant le passé et l’avenir. La prédiction juridique ne se limite pas à la probabilité : elle comporte également des implications économiques importantes, telles qu’une efficacité accrue et une meilleure évaluation des risques. Cependant, elle a souligné que les systèmes juridiques ne peuvent pas — et ne doivent pas — promettre la justice. Les tribunaux ne peuvent garantir des décisions correctes, et la logique sous-jacente de la prédiction est souvent imparfaite ou incomplète.

Elle a abordé le défi de déterminer quelles données devraient être utilisées pour former les systèmes d’IA juridique. Une hypothèse courante est que les décisions judiciaires peuvent servir d’indicateurs fiables des résultats corrects. Cependant, Sutherland a remis en question cette hypothèse, en notant que de nombreux éléments du système juridique ne sont ni enregistrés ni disponibles sous forme de données. Par exemple, un nombre important de litiges sont réglés par des accords privés et n’apparaissent jamais dans la jurisprudence. Ainsi, les résultats que nous pouvons prédire ne sont que ceux qui nous sont visibles, laissant une grande partie du paysage juridique dans l’ombre.

De plus, elle a souligné que le droit lui-même est dynamique. Ce qui est considéré comme juridiquement correct aujourd’hui ne l’était peut-être pas il y a un an, et pourrait ne plus l’être dans un an. Cette variabilité temporelle rend la prédiction intrinsèquement difficile, voire peu fiable, sur le long terme. L’argument central de Sutherland était que les outils de prédiction juridique échouent souvent à saisir les complexités culturelles, temporelles et procédurales plus profondes du droit, et que tout modèle computationnel doit tenir compte de ces facteurs s’il espère être utile ou pertinent.

Le panel a conclu la conférence AJC en offrant des perspectives riches et nuancées sur les promesses et les limites de l’IA dans les contextes juridiques.

Résumé rédigé par Ali Ekber Cinar.


Photos

Ce contenu a été mis à jour le 5 décembre 2025 à 9 h 55 min.