UTILISATION DE L’INTELLIGENCE ARTIFICIELLE PAR LES USAGERS DES TRIBUNAUX POUR LES AIDER À PARTICIPER AUX PROCÉDURES JUDICIAIRES
Déclaration du Comité d’action
Notre Comité appuie les tribunaux canadiens dans leurs efforts de modernisation. Il fournit des orientations relativement aux défis à relever et met en lumière des possibilités et des pratiques novatrices pour moderniser les activités judiciaires et améliorer l’accès à la justice pour les usagers des tribunaux.
1. CONTEXTE
La prolifération et l’évolution rapide des outils d’intelligence artificielle (IA) ont soulevé des questions et des préoccupations quant à leur application aux processus judiciaires. Bon nombre d’usagers des tribunaux aimeraient utiliser cette technologie pour améliorer leur participation aux procédures judiciaires et réduire leurs dépenses. Dans ce contexte, ils se tournent vers les tribunaux pour obtenir des orientations sur la façon dont ils peuvent le faire, pour savoir comment l’utilisation de l’IA par d’autres usagers des tribunaux sera traitée et pour confirmer l’approche globale des tribunaux à l’égard de l’IA.
Ce document vise à aider les tribunaux à s’adapter à l’utilisation de l’IA par les usagers des tribunaux, notamment les parties, les avocats et d’autres personnes qui interagissent directement avec les tribunaux. Il décrit les avantages et les risques possibles associés à cette utilisation, donne un aperçu des principales caractéristiques liées à l’utilisation responsable de l’IA par les usagers des tribunaux afin d’aider les tribunaux à surveiller efficacement cette utilisation et met en évidence les considérations opérationnelles importantes à prendre en compte en vue de l’élaboration des orientations pour les usagers des tribunaux. Bien que les juges et les administrateurs de tribunaux forment le public principal de ces orientations, les usagers des tribunaux pourraient aussi trouver leur contenu utile.
Comme il est indiqué dans la publication complémentaire Démystifier l’IA dans les processus judiciaires, ces orientations sont exclusivement axées sur les domaines d’utilisation à moindre risque : les fonctions administratives, l’analyse juridique et la recherche. En raison de la complexité supplémentaire associée à ces domaines, elles ne couvrent pas l’utilisation de l’IA dans la prise de décisions ni les questions liées à la preuve, à la divulgation électronique ou au droit substantiel. Les orientations récentes du Conseil canadien de la magistrature sur l’IA indiquent que le pouvoir décisionnel des juges ne doit jamais être délégué à l’IA.
2. AVANTAGES ET DÉFIS
2.1 Avantages de l’utilisation de l’IA par les usagers des tribunaux
Amélioration de l’accès à la justice : L’IA peut aider les usagers des tribunaux à participer aux processus judiciaires de diverses façons. Les avocats peuvent utiliser des outils d’IA pour améliorer l’efficacité de la gestion des dossiers, de la recherche juridique et de l’examen des documents, ce qui peut réduire les coûts répercutés sur leurs clients. D’autres usagers des tribunaux peuvent tirer parti de l’IA pour trouver de l’information pertinente plus rapidement, plus efficacement et dans la langue de leur choix, pour les aider à préparer des documents judiciaires et pour se retrouver plus facilement dans les processus judiciaires.
Renforcement de l’administration de la justice et de la confiance : Une approche prudente et mesurée en matière d’IA, qui est suffisamment rigoureuse pour offrir une certitude aux usagers des tribunaux tout en faisant une place aux applications pertinentes de la technologie, peut renforcer la confiance du public dans l’administration de la justice et, par conséquent, la confiance des usagers des tribunaux.
2.2 Défis et risques liés à l’utilisation de l’IA par les usagers des tribunaux
Malentendus fréquents : Les progrès récemment réalisés dans le domaine de l’IA ainsi que les possibilités liées à son utilisation dans des contextes beaucoup plus vastes et plus complexes que jamais ont suscité un intérêt sociétal considérable pour l’IA. On peut confondre facilement la distinction entre la faisabilité actuelle ou à court terme et les possibles avancées futures et les avantages et les risques qui en découlent, ce qui peut engendrer des malentendus et de la méfiance. Le discours public et le contexte propre à chacun des usagers des tribunaux façonneront leurs idées préconçues sur l’IA.
Rythme de développement et accessibilité : L’IA présente un défi unique pour les tribunaux et les usagers de ceux-ci en raison de son évolution continue et rapide et de la vitesse à laquelle les nouveaux outils deviennent largement accessibles au public. L’accès à ces nouveaux outils a forcé les tribunaux à répondre rapidement à des questions nouvelles et complexes de manière réactive plutôt que proactive. Les usagers des tribunaux peuvent se sentir dépassés par l’abondance d’outils offerts sans bien comprendre lesquels conviennent le mieux. Ils peuvent également choisir d’utiliser des outils gratuits sans savoir qu’ils comportent un niveau de risque plus élevé parce qu’ils ne sont pas spécifiquement conçus à des fins juridiques.
Exactitude de la sortie : Certains outils d’IA peuvent être utilisés pour produire de faux documents judiciaires qui semblent légitimes, comme une fausse ordonnance d’un tribunal d’une autre juridiction. Les outils d’IA, en particulier ceux qui ne sont pas entraînés au moyen de données juridiques, peuvent également avoir des « hallucinations » lorsqu’on leur demande de fournir la jurisprudence pertinente aux usagers des tribunaux, fabriquant ainsi des affaires inexistantes. La sortie fondée sur des données ou des algorithmes faussés peut perpétuer le tort causé à des groupes historiquement défavorisés. Toutes ces situations peuvent entraîner la soumission de documents inexacts aux tribunaux, mais les lacunes que présentent ces documents peuvent ne pas être immédiatement ou facilement détectées. Comme le montrent ces exemples, ces risques sont particulièrement accrus lorsque des outils d’IA générative sont utilisés pour produire du nouveau contenu.
Atteinte à l’administration de la justice et à la confiance : Une approche en matière d’IA qui n’est pas claire, qui engendre de l’incertitude ou qui ne tient pas véritablement compte des possibilités ou des risques importants pourrait avoir une incidence négative sur les fonctions de recherche de la vérité et sur les fonctions juridictionnelles des tribunaux, et, au bout du compte, sur la confiance des usagers des tribunaux. Le rejet de toutes les utilisations potentielles de l’IA sans une analyse plus approfondie empêche les tribunaux d’améliorer leurs activités pour les usagers des tribunaux.
3. COMPRENDRE L’UTILISATION DE L’IA PAR LES USAGERS DES TRIBUNAUX
Les tribunaux pourront mieux comprendre comment l’IA peut être utilisée dans le cadre des procédures judiciaires s’ils comprennent comment différents usagers des tribunaux peuvent aborder l’utilisation des outils d’IA et connaissent le niveau de risque associé aux différentes utilisations.
3.1 Les antécédents des usagers des tribunaux ont une incidence sur leur utilisation de l’IA
- Les avocats et les autres professionnels du droit doivent se conformer à certaines responsabilités professionnelles, telles que les obligations relatives à la compétence technologique, à la confidentialité du client et au fait qu’ils ne doivent pas induire en erreur le tribunal ou d’autres parties. Ces obligations devraient guider leur utilisation de l’IA et la validation de toute information qu’ils fournissent au tribunal. Étant donné que d’autres usagers des tribunaux n’ont pas les mêmes obligations, les tribunaux devront peut-être exercer une supervision accrue et leur poser des questions plus pointues sur leur utilisation de l’IA.
- Les usagers des tribunaux ont différents degrés de connaissances en matière de technologie et d’IA. Ceux qui connaissent le domaine comprendront mieux les implications de l’utilisation de différents outils d’IA, tandis que ceux qui n’ont aucune connaissance de ces outils ou expérience préalable pourraient ne pas avoir conscience des risques potentiels.
- Les connaissances juridiques d’un usager des tribunaux ont une incidence sur la capacité de ce dernier à utiliser efficacement les outils d’IA dans le contexte judiciaire. Par exemple, les avocats expérimentés qui utilisent l’IA générative pour rédiger des mémoires seront mieux en mesure de vérifier l’exactitude du contenu et de corriger les erreurs, tandis que les avocats moins expérimentés ou les usagers des tribunaux sans formation juridique pourraient ne pas remarquer les inexactitudes.
3.2 Le type d’IA et l’objectif de son utilisation ont une incidence sur les risques
- Les usagers des tribunaux peuvent utiliser des outils d’IA pour accomplir diverses tâches visant à améliorer l’efficacité et l’exactitude de leurs démarches. Ces tâches peuvent comprendre l’obtention d’information (réponses simples à des questions ou recherches plus approfondies), l’examen et la comparaison de documents, la traduction de documents ou la création de nouveau contenu.
- Bien qu’une supervision humaine compétente fasse toujours partie d’une utilisation responsable de l’IA, l’importance de la supervision augmente à mesure qu’un outil crée davantage de contenu entièrement nouveau. Les outils qui créent du nouveau contenu présentent un plus grand risque de reproduire des informations inexactes et nuisibles que ceux qui accomplissent des fonctions de base, comme la récupération d’information, la transcription de fichiers audio ou le remplissage de formulaires.
- Certains outils offrent des fonctionnalités intégrées pour faciliter la vérification des faits, comme la liste des hyperliens menant aux données de base, ce qui peut simplifier le processus de supervision pour les usagers des tribunaux.
- L’identité du développeur, la raison pour laquelle l’outil a été créé, ses données d’entraînement et son algorithme ont tous une incidence sur le degré de risque associé à son utilisation. Un outil d’IA développé par des experts juridiques ou judiciaires et conçu spécifiquement pour répondre aux besoins de ces professionnels ou d’autres usagers des tribunaux est généralement plus fiable qu’un outil générique accessible sur d’autres plateformes. L’utilisation d’un outil adapté à la culture peut également éviter des sorties inexactes ou inappropriées dans les cas concernant des communautés autochtones ou d’autres communautés minoritaires.
- La protection des données et la cybersécurité peuvent être compromises si les informations sensibles sont saisies dans une plateforme d’IA qui n’applique pas de mesures de protection appropriées. Les usagers des tribunaux devraient être informés des risques liés à la saisie de ces données dans des outils d’IA, en particulier ceux qui sont accessibles gratuitement et pour lesquels le fournisseur n’impose aucune obligation contractuelle.
- Le manque de transparence d’un outil d’IA – également connu sous le nom de « boîte noire de l’IA » ou du « problème de la boîte noire » – augmente les risques. Les sorties obtenues au moyen de processus qui ne sont pas explicables ou compréhensibles pour les humains ou les sorties produites au moyen de données d’entraînement inconnues peuvent rendre plus difficile l’examen des résultats par les usagers des tribunaux en vue de déterminer s’ils sont exacts.
4. CONSIDÉRATIONS OPÉRATIONNELLES : ÉLABORATION D’ORIENTATIONS SUR L’UTILISATION DE L’IA À L’INTENTION DES USAGERS DES TRIBUNAUX
Les usagers des tribunaux ont besoin d’orientations claires, sans ambiguïté et accessibles afin d’utiliser efficacement l’IA et d’éviter de présenter des informations inexactes au tribunal. Voici quelques conseils recommandés pour l’élaboration d’orientations efficaces :
- Éviter le jargon technique excessif et établir une base commune en définissant de façon générale et en langage clair des termes clés.
- Définir explicitement la portée du document, c’est-à-dire ce qui n’est pas couvert, ce qui l’est et ce que la portée signifie en pratique.
- Établir la distinction entre l’utilisation de l’IA générative et d’autres outils d’IA : la nécessité pour les usagers des tribunaux de faire preuve de prudence et pour les tribunaux d’exercer une supervision se posera généralement dans le contexte de l’IA générative.
- Expliquer que les outils génériques, comme ChatGPT, sont moins fiables que ceux développés par des experts juridiques et mentionner aux usagers des tribunaux des outils juridiques fiables, y compris des sources gratuites.
- Éviter les déclarations trop générales qui sont difficiles à respecter et formuler des orientations axées sur l’enjeu principal qu’elles cherchent à aborder, comme empêcher que des informations inexactes soient présentées au tribunal.
- Réviser régulièrement les orientations et les avis pour tenir compte de l’évolution du domaine de l’IA, et archiver ou supprimer les versions obsolètes afin d’éviter toute confusion.
De bonnes orientations rassureront les usagers des tribunaux sur les manières appropriées d’utiliser l’IA et sur la façon dont tout document produit au moyen de l’IA sera reçu par le tribunal. À cet égard, tout en reconnaissant les diverses compétences et responsabilités professionnelles des usagers des tribunaux, les tribunaux voudront peut-être rappeler ce qui suit aux usagers :
- L’examen des documents produits au moyen de l’IA par un humain compétent est une étape importante pour éviter que des informations inexactes, discriminatoires ou culturellement insensibles ne soient soumises à un tribunal.
- Les usagers devraient comprendre les avantages et les limites des outils d’IA qu’ils utilisent et être prêts à expliquer au tribunal quels outils ils ont utilisés et à quelles fins. Cette attente tient compte de l’approche prudente mais réaliste du tribunal, renforce la présence de défis et de risques, et attribue à l’usager du tribunal la responsabilité du choix et de l’utilisation des outils. La mesure dans laquelle les tribunaux peuvent demander des explications supplémentaires ou tenir les usagers des tribunaux responsables de leur utilisation d’outils d’IA dépendra du contexte. Par exemple, les tribunaux s’attendraient raisonnablement à ce que les avocats assument une plus grande responsabilité à l’égard de leur utilisation de l’IA que les parties non représentées.
- Il incombe aux usagers de confirmer, au mieux de leurs capacités, que tous les documents qu’ils soumettent, y compris ceux produits à l’aide de l’IA, sont exacts. Un tel rappel établit un équilibre entre la transparence dans l’utilisation de l’IA et les difficultés pratiques.
- Date de modification :