Panel 1 | Regulating AI in the Justice Sector: The Regulatory Reflex

Sur cette page (cliquez pour y accéder) :


Vidéo


Biographies

Modérateur

Speaker Photo
Nicolas Vermeys

Me Nicolas Vermeys, LL.D. (Université de Montréal), LL.M. (Université de Montréal), CISSP, est directeur du Centre de recherche en droit public (CRDP), directeur adjoint du Laboratoire de cyberjustice et professeur à la Faculté de droit de l’Université de Montréal.

Me Vermeys est membre du Barreau du Québec et possède également une certification en sécurité informationnelle (CISSP) décernée par (ISC)2. Il est l’auteur de nombreuses publications portant principalement sur les incidences des technologies de l’information sur le droit, dont les ouvrages Droit codifié et nouvelles technologies : le Code civil (Yvon Blais, 2015) et Responsabilité civile et sécurité informationnelle (Éditions Yvon Blais, 2010).

Me Vermeys s’intéresse particulièrement aux questions juridiques liées à l’intelligence artificielle, à la sécurité de l’information, aux développements en matière de cyberjustice et, plus généralement, aux incidences des innovations technologiques sur le droit, thèmes sur lesquels il est régulièrement invité à intervenir auprès des médias et dans le cadre de conférences prononcées pour les juges, avocats, regroupements professionnels et organismes gouvernementaux au Canada et à l’étranger.

Panélistes

Speaker Photo
Arnaud Latil

Arnaud Latil est maitre de conférences HDR à Sorbonne Université, chercheur au centre SND (Sciences, Normes, Démocratie, UMR 8011) et membre du SCAI (Sorbonne Cluster for AI). Il est l’auteur de l’ouvrage Le droit du numérique, une approche par les risques, Dalloz, 2ème ed., 2024). Il est expert auprès du Bureau européen de l’IA (Commission européenne).

Speaker Photo
Bertrand Gervais

Me Bertrand Gervais, B.A.A., LL.B. est membre du Barreau du Québec depuis 2003. Il occupe depuis 2015 le poste de Directeur du Greffe et Greffier des appels au siège de Montréal de la Cour d’appel du Québec. Il y supervise la planification, la coordination et l’amélioration continue des services du greffe, tout en assurant la liaison entre la magistrature et le personnel judiciaire. Il travaille également sur le projet Lexius du ministère de la Justice du Québec visant à mettre en place une cour tout électronique.

Titulaire d’un baccalauréat en droit de l’Université de Montréal et d’un baccalauréat en administration des affaires de HEC Montréal, Me Gervais a également occupé divers postes de coordination et de direction au sein de la Cour d’appel, notamment comme Directeur général par intérim, Coordonnateur du Service de recherche et Avocat-recherchiste. Engagé dans la communauté juridique, il est membre de plusieurs comités du Barreau de Montréal.

Speaker Photo
Amy Salyzyn

Amy Salyzyn est professeure à la Faculté de droit, section de common law, de l’Université d’Ottawa. Elle est experte dans les domaines de la déontologie juridique, de la réglementation des avocats, de l’utilisation de la technologie dans la prestation de services juridiques et de l’accès à la justice. À l’Université d’Ottawa, elle enseigne le droit de la responsabilité civile ainsi que des séminaires de niveau supérieur sur la déontologie juridique et l’utilisation de l’intelligence artificielle dans la profession juridique. Amy est membre du Barreau de l’Ontario et préside actuellement le conseil d’administration de l’Association canadienne pour l’éthique juridique.

Avant de rejoindre l’Université d’Ottawa, Amy a été assistante judiciaire à la Cour d’appel de l’Ontario et a exercé dans un cabinet spécialisé dans les litiges à Toronto. Elle a traité un large éventail d’affaires civiles et commerciales, notamment des litiges pour rupture de contrat, délit civil, négligence professionnelle, litiges en matière de valeurs mobilières et droit du travail, ainsi que des affaires de droit administratif. Amy a obtenu son doctorat en sciences juridiques et sa maîtrise en droit à la faculté de droit de Yale, ainsi que son diplôme de droit à la faculté de droit de l’Université de Toronto, où elle a reçu la clé du doyen à la fin de ses études.

Speaker Photo
Aimé Toumelin

Aimé Toumelin est cofondateur de Hadaly. Hadaly révolutionne les fusions et acquisitions des petites et moyennes entreprises. En 2025, la plateforme pilote déjà plus de 150 processus actifs et a soutenu des transactions totalisant plus de 500 millions de dollars, illustrant son impact concret.

Propulsée par l’intelligence artificielle, Hadaly automatise la structuration des documents financiers et juridiques, organise les data rooms et produit des livrables clés : rapports de valorisation, mémorandums d’information confidentiels (CIM) et tableaux de risques. Résultat : des coûts réduits, des délais accélérés et une meilleure prise de décision.

Sa mission : démocratiser l’accès aux outils M&A avancés pour des transactions plus rapides, transparentes et efficaces, au service des vendeurs, acheteurs et conseillers de l’écosystème PME.


Résumé

S’appuyant sur les bases conceptuelles établies lors de la présentation de la Professeure Mireille Hildebrandt, la conférence s’est ensuite tournée vers une perspective plus réglementaire et institutionnelle avec le premier panel, animé par le professeur Nicolas Vermeys, directeur adjoint du Laboratoire de cyberjustice. La discussion s’est concentrée sur la manière dont l’intelligence artificielle transforme la régulation, la gouvernance et la pratique professionnelle dans le secteur de la justice, en réunissant des points de vue venus d’Europe, du Canada et de l’industrie, et en mettant en évidence la tension entre innovation, éthique et responsabilité.

La conversation s’est ouverte avec le professeur Arnaud Latil, qui a analysé l’approche réglementaire de l’Union européenne en matière d’intelligence artificielle, qu’il décrit comme une nouvelle forme de démocratie délibérative technique. Selon lui, le Règlement sur l’intelligence artificielle (AI Act) est à la fois un instrument juridique et une expérience politique visant à s’assurer que le développement technologique ne soit jamais détaché du débat public.

Latil a présenté trois piliers qui structurent ce modèle. Le premier est industriel, visant à renforcer la souveraineté européenne grâce à des investissements stratégiques dans les infrastructures de données et la capacité de calcul. Le deuxième est délibératif, en associant les parties prenantes à travers des normes, des codes de conduite et des regulatory sandboxes (bacs à sable réglementaires), permettant une gouvernance adaptative sans rigidité excessive. Le troisième est fondé sur la conformité, traduisant la logique de gestion des risques de l’AI Act en obligations graduées selon le niveau de danger que présente chaque système.

En combinant co-régulation et stratégie industrielle, l’Union européenne cherche, selon Latil, à établir un équilibre délicat : faire de l’innovation un processus démocratique plutôt qu’un simple enjeu technique ou économique.

La discussion s’est ensuite tournée vers Bertrand Gervais, directeur du greffe et du registre des appels à la Cour d’appel du Québec, qui a offert une perspective judiciaire sur les défis que pose l’IA dans les tribunaux canadiens. Il a décrit un continuum de réponses qui se dessine progressivement au pays.

À un premier niveau, certaines juridictions ont instauré des déclarations volontaires, comme la Cour fédérale, invitant les parties à indiquer toute utilisation d’IA dans la préparation de leurs arguments. La conformité, toutefois, demeure limitée : entre décembre 2023 et octobre 2024, seulement deux déclarations ont été reçues sur environ 20 000 dossiers. À un niveau intermédiaire, certains tribunaux émettent des directives prudentes, mettant en garde contre l’utilisation d’arguments ou de citations générés par l’IA sans vérification. Enfin, la Cour d’appel du Québec, que représente le juge Gervais, a adopté une mesure plus institutionnelle, exigeant que toutes les références citées dans les mémoires comportent des hyperliens vers des bases de données authentifiées, afin d’empêcher la soumission de jugements fabriqués.

Gervais a précisé que ces initiatives ne visent pas à interdire l’IA, mais à préserver l’intégrité procédurale. Sa principale préoccupation concerne les justiciables non représentés, de plus en plus nombreux à utiliser des outils génératifs sans disposer des compétences juridiques nécessaires pour détecter les erreurs ou les « hallucinations » produites par ces systèmes. Selon ses mots, « l’accès à la justice ne peut se faire au détriment de la vérité ».

La discussion s’est poursuivie avec la professeure Amy F. Salyzyn, qui a examiné comment la réglementation professionnelle s’adapte aux implications éthiques de l’IA dans la pratique du droit. Elle a rappelé que l’IA est présente depuis longtemps dans le travail juridique, notamment dans la recherche documentaire et la vérification diligente, mais que l’arrivée des outils génératifs comme ChatGPT a profondément changé la donne, tant par leur ampleur que par leur visibilité.

Si la plupart des Barreaux ont publié des lignes directrices, celles-ci demeurent souvent générales et déclaratives. L’appel récurrent à « garder un humain dans la boucle » risque, selon elle, de devenir un simple slogan si les régulateurs ne définissent pas clairement ce que recouvre une supervision humaine effective.

Elle a identifié trois défis majeurs pour les régulateurs : définir concrètement ce que signifie la supervision humaine, vérification, encadrement ou co-rédaction, garantir l’indépendance éthique des outils conçus par des entreprises privées aux algorithmes opaques, et encadrer les systèmes d’IA destinés au grand public qui fournissent des conseils juridiques à des non-juristes, un domaine encore largement hors de portée de la régulation traditionnelle.

Son intervention a mis en lumière une tension fondamentale : si l’IA promet efficacité et démocratisation, la responsabilité professionnelle doit évoluer pour préserver la compétence, la confidentialité et la confiance.

Enfin, Aimé Toumelin, cofondateur de Hadaly, une entreprise canadienne de legal-tech spécialisée dans les transactions commerciales, a apporté une perspective pratique ancrée dans l’expérimentation. Il a expliqué comment son entreprise conçoit des outils d’IA destinés à assister les avocats dans les transactions et la gestion contractuelle, notamment lors des vérifications diligentes.

Toumelin a reconnu les atouts et les limites de ces technologies. Dans un environnement contrôlé, l’IA accélère la révision des documents et permet de repérer des incohérences souvent négligées. Mais elle produit aussi des faux positifs et des interprétations erronées. Pour lui, cette dualité illustre une vérité essentielle : « L’IA n’est jamais meilleure que les données et l’humain qui la guide. »

Il a identifié trois garanties fondamentales pour assurer la fiabilité de l’IA juridique : la transparence, afin que les utilisateurs comprennent comment chaque résultat est produit et puissent retracer le raisonnement ; la sécurité des données, pour que toutes les informations demeurent chiffrées et stockées localement ; et la validation humaine, car une automatisation sans supervision reste prématurée et potentiellement dangereuse.

Son message de clôture a résonné avec celui de l’ensemble du panel : la fiabilité et la responsabilité ne freinent pas l’innovation, elles en sont les conditions mêmes de légitimité.

Résumé rédigé par Maryam Akhlaghi.


Photos

Ce contenu a été mis à jour le 7 novembre 2025 à 10 h 40 min.