Nous joindre
X
Rechercher
Publicité

L'utilisation croissante de l'IA dans les tribunaux canadiens comporte des risques

durée 23h09
31 décembre 2025
La Presse Canadienne, 2026
durée

Temps de lecture   :  

4 minutes

Par La Presse Canadienne, 2026

TORONTO — Auparavant, si un client, habitué aux courriels courts, envoyait soudainement un long message ressemblant à une note juridique, Ron Shulman soupçonnait qu'il avait reçu l'aide d'un membre de sa famille ou d'un conjoint.

Désormais, cet avocat en droit de la famille à Toronto demande à ses clients s'ils ont utilisé l'intelligence artificielle. Et la plupart du temps, dit-il, la réponse est affirmative.

Presque chaque semaine, son cabinet reçoit des messages rédigés ou générés par l'IA, un changement que M. Shulman dit avoir constaté ces derniers mois.

Si l'IA peut efficacement résumer des informations ou organiser des notes, certains clients semblent s'y fier «comme à une sorte de super-intelligence», l'utilisant pour décider de la marche à suivre dans leur dossier, explique-t-il.

«Cela pose un problème majeur», car l'IA n'est pas toujours fiable et a souvent tendance à être d'accord avec celui qui l'utilise, a déclaré M. Shulman lors d'une récente entrevue.

Certaines personnes utilisent également l'IA pour se représenter elles-mêmes devant les tribunaux, sans avocat, ce qui peut retarder les procédures et faire grimper les frais juridiques pour les autres parties, qui doivent éplucher des quantités considérables de documents générés par l'IA, ajoute-t-il. À mesure que l'IA s'immisce dans de plus en plus d'aspects de la vie quotidienne, elle s'invite également de plus en plus dans les tribunaux et le système juridique.

Ces dernières années, des documents créés à l'aide de plateformes telles que ChatGPT ont été présentés devant des tribunaux et des commissions au Canada et aux États-Unis, exposant parfois des avocats ou des personnes se représentant elles-mêmes devant la justice à de sérieux problèmes en raison de prétendues «hallucinations» — des références inexactes ou tout simplement inventées.

Dans une affaire notable, une avocate de Toronto fait face à une procédure pour outrage au tribunal après avoir inclus des cas inventés par ChatGPT dans ses plaidoiries en début d'année, puis l'avoir nié lorsqu'elle a été interrogée par le juge. Dans une lettre adressée au tribunal quelques mois plus tard, l'avocate a déclaré avoir déformé les faits par «crainte des conséquences potentielles et par pure honte».

Les hallucinations générées par l'IA peuvent avoir un coût financier et porter atteinte à la réputation. À l'automne, un tribunal québécois a imposé une amende de 5000 $ à un homme qui avait eu recours à l'intelligence artificielle générative pour préparer ses documents après s'être séparé de son avocat. Peu après, la Cour suprême de l'Alberta a condamné une femme à payer 500 $ de frais supplémentaires pour avoir fourni trois faux mandats, avertissant que les justiciables non représentés pourraient s'attendre à des sanctions plus importantes à l'avenir s'ils ne respectaient pas les directives du tribunal concernant l'IA.

Les tribunaux et les ordres professionnels de plusieurs provinces ont publié des lignes directrices sur l'utilisation de l'IA, certains — dont la Cour fédérale — exigeant que les personnes déclarent avoir utilisé des modèles génératifs.

Certains avocats qui ont utilisé ou rencontré l'IA dans le cadre de leur travail affirment qu'elle peut être un outil utile si elle est utilisée judicieusement, mais que, mal utilisée, elle peut compromettre la vie privée, ralentir la communication, éroder la confiance et faire grimper les frais juridiques, même sans sanction financière. Ksenia Tchern McCallum, avocate en immigration à Toronto, autorisée à pratiquer au Canada et aux États-Unis, constate que de plus en plus de personnes viennent la consulter avec des recherches, voire des demandes déjà remplies grâce à l'IA, qu'elles souhaitent ensuite faire examiner.

Parfois, des clients utilisent l'IA pour «vérifier les faits» de ses affirmations, en analysant des documents qu'elle a préparés via une plateforme, ce qui risque d'exposer leurs informations personnelles et de miner leur confiance en son travail, explique-t-elle.

«Cela peut mettre à rude épreuve la relation client. Si je donne des instructions à mon client et qu'il les remet en question, me dit : "Je ne pense pas que ce soit nécessaire, ou pourquoi devrais-je faire ça ?", et qu'il conteste (…) comment puis-je alors le représenter au mieux de ses intérêts ?, s'interroge Mme McCallum. L'IA peut explorer Internet et indiquer les étapes habituelles d'un processus, mais mon expérience et ma connaissance de ce qui fonctionne et de ce qui ne fonctionne pas dans ces procédures sont des aspects qu'elle ne pourra pas reproduire.»

Les forums en ligne destinés aux personnes confrontées à des problèmes d'immigration incitent également à l'utilisation de l'IA pour préparer les dossiers et réduire les frais d'avocat, a-t-elle expliqué.

«Ils soumettent ces documents, et le tribunal leur dit : "D'accord, nous constatons que vous avez utilisé une IA, mais vous ne l'avez pas déclaré." Non seulement vous ne l'avez pas déclaré, mais vous faites référence à des cas inexistants, à des procédures qui n'existent pas, et vous citez des lois non pertinentes », a expliqué Mme McCallum.

Paola Loriggio, La Presse Canadienne