PERSPECTIVES JURIDIQUES OSLER 2025

Recours accru à l’IA dans les litiges : avantages, dangers et resserrement de la réglementation Recours accru à l’IA dans les litiges : avantages, dangers et resserrement de la réglementation

4 décembre 2025 10 MIN DE LECTURE

Key Takeaways

  • L’IA transforme la profession juridique. Autant elle facilite l’analyse de données et la rédaction de documents, autant elle manque de fiabilité et peut engager la responsabilité professionnelle.
  • Le recours irréfléchi à l’IA en représentation juridique n’est pas sans risque : les tribunaux sont prêts à sanctionner les parties qui utilisent des références hallucinées.
  • Les tribunaux canadiens adoptent des lignes directrices sur l’utilisation de l’IA, qui imposent la transparence et obligent les avocats à vérifier les contenus générés par cette technologie.

La montée fulgurante de l’intelligence artificielle (IA) transforme à peu près tous les secteurs de l’économie, y compris le droit. Les cabinets d’avocats l’utilisent de plus en plus pour analyser des données, rédiger des contrats et effectuer des recherches juridiques de base. L’émergence de cette technologie transforme également la représentation juridique : partout au pays, un nombre croissant d’avocats et de parties non représentées font appel à l’IA pour préparer et rédiger des documents judiciaires.

Le recours à l’IA en représentation juridique présente de nombreux avantages, notamment la réduction des coûts et l’amélioration de l’accès à la justice. Il pose cependant des risques importants en matière de responsabilité juridique et d’évolution du droit. Malgré son grand potentiel, l’IA n’est pas parfaite. Elle génère des erreurs et des hallucinations. En effet, plusieurs affaires très médiatisées au Canada et aux États-Unis illustrent les dangers d’une confiance aveugle en l’IA devant les tribunaux.

Pour parer à ces dangers, les tribunaux et les organismes de réglementation canadiens adoptent des lignes directrices sur l’utilisation transparente de l’IA et n’hésitent pas à punir les contrevenants. D’où l’importance, pour les parties et leurs avocats, de superviser le recours à l’IA en matière de représentation juridique. L’IA doit être utilisée de façon responsable, sans compromettre le dossier du client ni perturber l’évolution du droit.

Le recours à l’IA soulève aussi des problèmes juridiques plus larges associés à la provenance des données sous-jacentes. Certaines questions de droit d’auteur et de protection des renseignements personnels sont d’ailleurs traitées dans un autre article de Perspectives juridiques Osler. Ajoutons que la technologie évolue rapidement, comme l’explique l’article de Perspectives juridiques Osler sur l’évolution de la définition d’IA et la montée de l’IA agentive. Plus les outils d’IA gagneront en sophistication, plus ils seront utilisés en représentation juridique et plus les normes d’utilisation responsable seront sévères. Les clients et leurs avocats doivent donc bien comprendre le cadre applicable et surveiller son évolution.

Utilisation problématique de l’IA par des avocats

Plusieurs décisions très médiatisées sur l’utilisation problématique de l’IA ont été rendues récemment aux États-Unis. L’une d’entre elles concerne le cabinet Boies Schiller Flexner LLP (BSF). Un associé de BSF et ancien procureur fédéral avait déposé un mémoire détaillé dans le cadre d’un appel important. Les avocats de la partie adverse ont signalé la présence de graves erreurs qui ressemblaient à des hallucinations d’IA.

BSF a immédiatement demandé le retrait du mémoire. Dans une déclaration jointe à sa demande de dépôt d’un mémoire corrigé [PDF] (en anglais seulement), l’associé a admis que le cabinet avait des politiques sur les risques associés à l’utilisation de l’IA et s’attendait à ce que ses avocats [traduction] « vérifient attentivement le texte et les références » des mémoires. Or, l’associé n’avait pas fait ce travail.

Dans la dernière année, les tribunaux canadiens ont été confrontés à quelques cas semblables d’utilisation problématique ou irréfléchie de l’IA dans des documents judiciaires.

Dans l’affaire Reddy v. Saroya, par exemple, la Cour d’appel de l’Alberta devait déterminer si l’avocat de l’appelant devait payer des frais de justice pour avoir déposé un mémoire contenant plusieurs références à des dossiers introuvables. Dans une affaire semblable, R. v. Chand, le juge a demandé à l’avocat du défendeur de préparer une nouvelle plaidoirie écrite sans l’aide de l’IA générative, car la plaidoirie initiale contenait des références hallucinées par l’IA.

Dans l’affaire Zhang v. Chen, l’avocate du défendeur avait cité deux sources inexistantes devant la Cour suprême de la Colombie-Britannique. Elle a finalement admis que les références provenaient de ChatGPT et qu’elle ne les avait pas vérifiées. La Cour a refusé d’imposer à l’avocate des [traduction] « frais spéciaux », habituellement réservés [traduction] « aux comportements répréhensibles ou aux abus de procédure ». Elle a toutefois conclu que l’avocate était personnellement responsable d’une partie des frais de justice accordés à la partie adverse, en raison des délais occasionnés par les hallucinations.

Dans l’affaire Hussein v. Canada (Immigration, Refugees and Citizenship), la Cour fédérale a condamné une partie à payer des frais de justice pour avoir fait un usage problématique de l’IA et avoir induit la Cour en erreur. L’avocat avait invoqué plusieurs affaires inexistantes et avait mal cité des décisions sur certains points de droit. Il a admis qu’il s’était fié à l’IA et n’avait pas contre-vérifié les sources. Or, il a fait cet aveu après avoir produit deux cahiers d’autorités incomplets en réponse à une directive de la Cour.

Enfin, dans l’affaire Ko v. Li, la Cour supérieure de justice de l’Ontario a convoqué une avocate à une audience pour outrage au tribunal pour avoir cité des affaires inexistantes dans ses observations écrites. Les aveux et les excuses de l’avocate et les mesures correctives appliquées – y compris la participation à des activités de perfectionnement portant sur les risques de l’IA dans la pratique du droit – ont finalement été jugés suffisants pour écarter un outrage au tribunal.

Pour en savoir plus sur notre groupe national Litiges.
En savoir plus

Réaction des tribunaux canadiens face aux dangers de l’IA

Comme l’explique le bulletin d’actualités d’Osler Plaidoiries générées par l’IA : comment les juges et les législateurs canadiens réagissent-ils à l’IA générative?, les tribunaux et les organismes de réglementation canadiens ont agi sur plusieurs plans, notamment en obligeant les parties à déclarer leur utilisation de l’IA et en rappelant la responsabilité professionnelle des avocats. 

Par exemple, l’Ontario a récemment apporté des modifications aux Règles de procédure civile qui obligent les parties à certifier que les éléments de doctrine et de jurisprudence cités dans les mémoires sont authentiques. Les experts doivent certifier l’authenticité de chacune des sources savantes et de chacun des autres documents ou dossiers mentionnés dans leurs rapports. De plus, la Cour supérieure de justice de l’Ontario a récemment mis à jour sa directive de pratique provinciale pour clarifier que la Cour ne tolérera aucune négligence entourant l’utilisation de l’IA et, surtout, de références hallucinées. Elle rappelle qu’en cas de manquement, elle peut notamment réprimander publiquement l’avocat ou la partie, ordonner le paiement des dépens, ajourner une audience ou rejeter l’affaire, engager une procédure pour outrage au tribunal et, en ce qui concerne les avocats, renvoyer l’affaire au Barreau de l’Ontario. Par ailleurs, le Comité des règles en matière civile de l’Ontario envisage d’ajouter aux Règles une définition du terme « intelligence artificielle » et une procédure de contestation de l’authenticité d’éléments de preuve générés par ordinateur qui auraient été falsifiés ou forgés de toutes pièces.

Divers tribunaux canadiens (notamment ceux du Manitoba [PDF], du Yukon [PDF] et de la Nouvelle-Écosse [PDF], ainsi que la Cour fédérale [PDF]) exigent une déclaration écrite si l’IA a été utilisée dans les documents judiciaires, sans toutefois obliger les parties à certifier l’authenticité des références.

La Cour fédérale a pris position également. Dans l’avis aux parties et à la communauté juridique du 7 mai 2024 [PDF], la Cour affirme qu’elle s’attend à ce que les documents judiciaires renfermant des contenus « créés » par l’IA contiennent une déclaration « au premier paragraphe du document [indiquant] qu’on s’est servi de l’IA pour préparer le document entier ou une partie précise de celui-ci ».

La surveillance accrue du recours à l’IA devant les tribunaux fait ressortir l’importance d’adopter une définition uniforme et techniquement sensée du terme « intelligence artificielle ». Or, les consultations récentes sur le projet de modification des Règles de procédure civile de l’Ontario ont révélé que ce concept de base demeure imprécis. Les définitions proposées diffèrent de celles utilisées par l’OCDE, par l’Union européenne dans sa très influente Loi sur l’intelligence artificielle et même dans certains textes émergents, dont la Loi visant à œuvrer pour les travailleurs de l’Ontario. Ce manque d’uniformité crée un certain flou quant à la portée des exigences de déclaration du recours à l’IA.

En pratique, en contexte de litige, le terme « IA » renvoie essentiellement aux systèmes d’apprentissage automatique qui fonctionnent par inférence probabiliste (plutôt que par inférence déterministe, p. ex. un calcul Excel). Comme ces systèmes peuvent produire des extrants erronés et tendancieux, ils présentent des risques que les tribunaux cherchent à atténuer. Les tribunaux et les décideurs voudront sans doute harmoniser les définitions et les directives judiciaires afin que les règles de procédure et les obligations professionnelles soient fondées sur une conception de l’IA qui tient compte de la nature de ces risques.

Conséquences pour les avocats et les équipes juridiques

Considérant ses avantages énormes en représentation juridique et son potentiel d’amélioration de l’accès à la justice, l’IA va sans doute gagner en popularité auprès des parties et des tribunaux. On peut aussi s’attendre à ce que les tribunaux et les décideurs resserrent la réglementation et les lignes directrices et prévoient des sanctions en cas de manquement.

Les cas médiatisés d’utilisation problématique de l’IA par des avocats et des tribunaux offrent une leçon importante : beaucoup de risques peuvent (et doivent) être atténués bien avant le litige. La gestion des risques est essentielle à une bonne gouvernance de l’IA. C’est pourquoi les avocats et les équipes juridiques travaillent activement à l’établissement de cadres d’utilisation responsable.

Comme l’explique le bulletin d’actualités d’Osler Gouvernance de l’intelligence artificielle : composer avec ce que l’avenir nous réserve, il faut absolument adopter des politiques internes claires sur l’utilisation de l’IA et des contenus générés par l’IA, choisir soigneusement ses fournisseurs pour assurer la sécurité des données et la fiabilité des systèmes, et expliquer clairement aux clients quand et comment l’IA est utilisée. Les clients doivent prendre des mesures similaires afin de baliser le recours à l’IA dans leurs dossiers. En appliquant des mécanismes de protection, les professionnels du droit peuvent gagner en efficacité grâce à l’IA tout en respectant leurs obligations éthiques et professionnelles. Les clients récolteront ensuite les fruits de cette approche proactive.