Conférence d’honneur | Legal Contestability and Scientific Falsifiability in AI Decision-Making
Sur cette page (cliquez pour y accéder) :
Vidéo
Biographies
Mot d’ouverture
Karim Benyekhlef est professeur à la Faculté de droit de l’Université de Montréal depuis 1989. Il est détaché au Centre de recherche en droit public depuis 1990 et en a assuré la direction de 2006 à 2014. Il a assuré la direction du Regroupement stratégique Droit, changements et gouvernance, regroupant une cinquantaine de chercheurs, de 2006 à 2014. Il fut aussi directeur scientifique du Centre d’études et de recherches internationales de l’Université de Montréal (CÉRIUM) de 2009 à 2012. Il assure actuellement la direction du Laboratoire de cyberjustice, qu’il a fondé en 2010. Le Laboratoire de cyberjustice a obtenu en 2015 le Prix Mérite Innovation du Barreau du Québec. Il est titulaire de la Chaire de recherche LexUM en information juridique depuis octobre 2014. Il est membre du Conseil scientifique et du Conseil d’orientation du Cérium. Il a reçu en 2016 la distinction Advocatus Emeritus (Avocat émérite) du Barreau du Québec.
Conférencière
Mireille Hildebrandt est professeure émérite à la Vrije Universiteit Brussel (VUB), où elle a été nommée par le Conseil de recherche de la VUB sur le thème « Interface entre droit et technologie ». Elle a été codirectrice du groupe de recherche sur les études en droit, science, technologie et société (LSTS) à la Faculté de droit et de criminologie de 2019 à 2024. Elle est également professeure émérite en « Environnements intelligents, protection des données et État de droit » à la Faculté des sciences de l’Institut des sciences informatiques et de l’information (iCIS) de l’Université Radboud de Nimègue.
Ses recherches portent sur les implications des décisions automatisées, de l’apprentissage automatique et de l’action artificielle inconsciente pour le droit et l’État de droit dans les démocraties constitutionnelles. Hildebrandt a publié 5 monographies scientifiques, 23 volumes ou numéros spéciaux, et plus de 120 chapitres et articles dans des revues et volumes scientifiques. Elle a reçu une bourse ERC Advanced Grant pour son projet « Counting as a Human Being in the era of Computational Law » (2019-2024) pour COHUBICOL.
Résumé
Le 15 octobre 2025, la conférence AJC s’est ouverte par les remarques du professeur Karim Benyekhlef, directeur du Laboratoire de cyberjustice et responsable du projet Autonomisation des acteurs judiciaires par les technologies de cyberjustice (AJC).
Il a d’abord rappelé que, depuis 2018, ce projet réunit une communauté interdisciplinaire de chercheurs et chercheuses qui s’interrogent sur la manière dont l’intelligence artificielle transforme l’administration de la justice. Comprendre un phénomène aussi complexe et incertain exige, selon lui, la confrontation de plusieurs perspectives, sans que cette diversité ne conduise à la domination d’une discipline sur les autres. Le droit doit donc préserver ses méthodes analytiques et normatives propres, afin que les exigences juridiques soient intégrées dès la conception des outils technologiques.
S’inspirant des travaux de l’historienne Elizabeth Eisenstein, qui observait que l’humanité peine encore, six siècles après son invention, à mesurer toutes les conséquences de l’imprimerie, le professeur Benyekhlef a invité à la prudence et à l’humilité face aux bouleversements technologiques contemporains. Il a décrit l’intelligence artificielle comme un pharmakon, à la fois remède et poison, capable de faire progresser la justice tout en en fragilisant les fondements.
Le professeur Benyekhlef a également attiré l’attention sur les enjeux géopolitiques entourant la régulation de l’IA. il a mis en garde contre la dépendance croissante du Canada à l’égard des grandes puissances technologiques. Entre la volonté hégémonique des États-Unis et l’ascension rapide de la Chine, le pays risque, selon lui, de perdre la maîtrise des technologies qui façonnent son système judiciaire. « Celui qui contrôle la norme contrôle le marché », a-t-il rappelé, soulignant que la construction de cadres normatifs nationaux constitue un enjeu majeur de souveraineté. La justice ne saurait, selon lui, reposer sur des technologies étrangères échappant à tout contrôle national.
Il a conclu son allocution en invitant les participants à adopter une approche critique et pragmatique : l’objectif n’est pas de se laisser séduire par les promesses euphoriques de l’industrie, mais d’examiner les capacités réelles des outils d’IA dans le domaine juridique, en distinguant ce qui est véritablement possible de ce qui n’est que séduisant en apparence.
À la suite de cette introduction, la conférence d’ouverture a été prononcée par la professeure Mireille Hildebrandt (Vrije Universiteit Brussel), spécialiste reconnue à l’intersection du droit, de la philosophie et de l’informatique. Elle a exploré le parallèle entre la falsifiabilité scientifique et la contestabilité juridique, deux principes qu’elle juge essentiels à la fois à la fiabilité du savoir et à la solidité de l’État de droit. Tout comme une théorie scientifique doit pouvoir être réfutée, la légitimité d’une décision juridique dépend, selon elle, de la possibilité de la contester par des mécanismes institutionnels de contrôle et d’équilibre.
Pour illustrer cette idée, elle a évoqué la métaphore d’Ulysse et des sirènes, expliquant que l’État de droit ne repose pas sur l’auto-contrainte, mais sur la capacité des institutions à résister à l’arbitraire. Elle a conclu cette métaphore en soulignant que, fondamentalement, « tout repose sur un équilibre des pouvoirs ».
Elle a ensuite présenté une typologie des technologies juridiques, élaborée dans le cadre de son projet du Conseil européen de la recherche Counting as a Human Being in the Era of Computational Law. Cette ressource en libre accès recense des dizaines de systèmes d’IA utilisés dans les contextes judiciaires, en analysant qui les déploie, comment leurs prétentions sont justifiées et dans quelle mesure leur fiabilité et leur responsabilité peuvent être évaluées.
La professeure Hildebrandt a mis en garde contre la fascination actuelle pour l’IA explicable, qui risque, selon elle, de détourner l’attention des juristes de ce qui importe réellement : la justification. « Expliquer le fonctionnement d’un système n’équivaut pas à justifier ses effets », a-t-elle affirmé, appelant à s’interroger sur la manière dont les décisions algorithmiques peuvent être motivées, contestées et justifiées dans l’ordre juridique.
S’appuyant sur les travaux de Karl Popper et de Charles Sanders Peirce, elle a plaidé pour un retour à la rigueur théorique et à la falsifiabilité dans la recherche sur l’IA. Elle a rappelé que la validité scientifique ne repose pas sur la précision ou l’exactitude, mais sur la capacité à confronter et à réfuter les hypothèses à la lumière des faits. Sans cadre théorique falsifiable, l’IA risque de devenir un domaine de croyance plutôt que de connaissance.
Elle a conclu en reliant cette responsabilité épistémique à la pratique du droit, expliquant que science et droit reposent tous deux sur des procédures qui rendent les décisions contestables. Assurer que les systèmes d’IA employés dans le domaine judiciaire demeurent vérifiables et ouverts à la critique constitue, selon elle, une condition essentielle à la préservation de l’État de droit à l’ère de l’intelligence artificielle.
Résumé rédigé par Maryam Akhlaghi.
Photos





Ce contenu a été mis à jour le 31 octobre 2025 à 10 h 01 min.
