version PDF

UTILISATION DE L’INTELLIGENCE ARTIFICIELLE PAR LES TRIBUNAUX POUR AMÉLIORER LES ACTIVITÉS JUDICIAIRES

Déclaration du Comité d’action

Notre Comité appuie les tribunaux canadiens dans leurs efforts de modernisation. Il fournit des orientations relativement aux défis à relever et met en lumière des possibilités et des pratiques novatrices pour moderniser les activités judiciaires et améliorer l’accès à la justice pour les usagers des tribunaux.

1. CONTEXTE

Alors que le domaine de l’intelligence artificielle (IA) a évolué rapidement au cours des dernières années, les tribunaux partout au Canada et à l’étranger réfléchissent à la façon dont elle peut être utilisée pour améliorer leurs activités et promouvoir l’accès à la justice. Bien que l’IA offre des possibilités intéressantes d’améliorer les capacités internes des tribunaux, en plus de celles destinées au public, l’intégration de l’IA dans les activités judiciaires devrait toujours tenir compte des risques potentiels soulevés par de telles initiatives.

Ce document vise à aider les tribunaux à déterminer dans quel contexte il serait approprié d’utiliser les outils d’IA pour améliorer les activités judiciaires, et comment le faire. Il décrit les avantages et les défis, les principes d’orientation de même que les considérations opérationnelles et les étapes du déploiement des outils d’IA dans le contexte judiciaire. Comme l’indique la publication complémentaire Démystifier l’IA dans les processus judiciaires, qui vise à promouvoir une compréhension commune de termes et de concepts clés concernant l’IA utilisés dans ce document, ces orientations sont exclusivement axées sur les domaines d’utilisation à moindre risque : les fonctions administratives, l’analyse juridique et la recherche. En raison de la complexité supplémentaire associée à ces domaines, elles ne couvrent pas l’utilisation de l’IA dans la prise de décision ni les questions liées à la preuve, à la divulgation électronique ou au droit substantiel. Les orientations récentes du Conseil canadien de la magistrature sur l’IA indiquent que le pouvoir décisionnel des juges ne doit jamais être délégué à l’IA.

2. AVANTAGES ET DÉFIS

2.1 Avantages de l’utilisation de l’IA par les tribunaux

Efficacité et exactitude accrues : L’IA a le potentiel de rationaliser une variété de tâches coûteuses en temps en les exécutant plus rapidement et plus précisément que les humains. Par exemple, elle peut automatiser de nombreuses tâches administratives liées à la gestion des dossiers, telles que l’enregistrement, la planification et la gestion des documents, ce qui permet au personnel du tribunal de réaffecter du temps et des efforts à des tâches nécessitant une plus grande intervention humaine. L’IA est particulièrement bien adaptée pour déceler les écarts et les tendances dans de grands volumes de données et réduire les doublons.

Allocation plus ciblée des ressources : L’analyse prédictive peut permettre aux tribunaux d’anticiper plus précisément leurs besoins en ressources et de planifier en conséquence pour maximiser leur incidence. Les économies pourraient ensuite être réinvesties dans d’autres domaines dans lesquels des besoins se font sentir.

Amélioration de l’accès à la justice : Les tribunaux peuvent utiliser l’IA pour améliorer l’accès à la justice et la participation des usagers des tribunaux aux processus judiciaires de diverses façons. Par exemple, la traduction et la transcription faisant appel à l’IA, bien qu’elles ne soient pas officielles, peuvent être utilisées par des jurilinguistes qualifiés pour accélérer la publication de versions officielles de documents judiciaires. Une fois que ces outils seront perfectionnés, ils pourraient également réduire les coûts pour les tribunaux et les usagers des tribunaux. Les tribunaux peuvent aussi héberger des agents conversationnels sur leurs sites Web publics pour aider les usagers des tribunaux à naviguer dans leurs processus, y compris à remplir des formulaires électroniques.

2.2 Défis et risques de l’utilisation de l’IA par les tribunaux

Obstacles à l’accès : Les technologies sur lesquelles l’IA s’appuie pour fonctionner ne sont pas universellement accessibles. Il est possible que certaines personnes ne disposent pas de la technologie nécessaire pour accéder à l’IA ou des connaissances nécessaires pour l’utiliser efficacement; l’emplacement géographique et l’accès limité à l’Internet, notamment dans les communautés du Nord, peuvent aussi soulever des défis et certaines personnes peuvent avoir des handicaps physiques ou cognitifs qui les empêchent d’utiliser l’IA. À ce titre, les tribunaux qui intègrent l’IA pour améliorer leurs activités devraient être conscients de la diversité des expériences des usagers potentiels de l’IA - qu’ils soient internes ou du public, selon l’outil - et ils devraient évaluer si l’on satisfait à leurs besoins. Si ce n’est pas le cas, des outils supplémentaires ou de remplacement devraient être envisagés pour combler les lacunes en matière d’accès. 

Inexactitude, préjugés et discrimination : Selon la façon dont ils ont été conçus et les données qui alimentent leurs sorties, il existe un risque très réel que des outils d’IA génèrent des informations inexactes ou incomplètes ou perpétuent des préjugés qui mènent à la discrimination. Même en l’absence de biais algorithmique, la manière dont les données sont obtenues et organisées peut reproduire et renforcer davantage les préjudices, en particulier en ce qui concerne les communautés défavorisées. Même les approches qui visent l’équité peuvent souffrir de la discrimination insidieuse quand les préjugés sont intégrés inconsciemment aux étapes préliminaires de la collecte et le traitement des données, ainsi que lors de la conception de l’outil d’IA. Par exemple, il est essentiel que toute approche à l’IA dans le contexte autochtone prenne connaissance de ces risques et y réponde, vu la mesure dans laquelle l’héritage du colonialisme est présent dans les documents juridiques existants.

Les humains et la technologie peuvent tous les deux être une source de préjugés. La sensibilisation est la première étape pour déceler et atténuer ces préjugés et prévenir davantage de discrimination. Par exemple, la collecte de données qui exclut un contexte important sur les structures familiales ou de gouvernance autochtones peut renforcer les préjugés existants et entraîner des sorties d’IA nuisibles lorsqu’elle est utilisée dans des contextes impliquant des parties autochtones ou des questions juridiques.

L’utilisation de données de base tendancieuses dans l’entraînement de l’IA peut aussi mener à des conséquences inattendues à l’égard de personnes autochtones et d’autres communautés historiquement défavorisées y compris, par exemple, les Canadiens noirs. L’inexactitude pourrait aussi survenir quand un outil générique ne dispose pas de la capacité de fonctionner de manière appropriée dans le contexte des tribunaux. Par exemple, quand il ne peut pas reconnaître ni apprendre des termes et des concepts juridiques.  

Gestion de données : Les données devraient être non seulement exactes et objectives, mais collectionnées, conservées, et traitées dans le cadre d’un système de gestion de données robuste. L’optimisation d’outils d’IA repose sur une fondation de données exactes, dans un format approprié tel qu’elles soient compatibles avec l’utilisation de l’IA. Par conséquent, un tribunal qui dépend des dossiers en papier, par exemple, fera probablement face à des étapes intermédiaires pour extraire les données et les traduire en forme numérique, avant l’intégration de l’IA dans ses processus.

Transparence : Les outils d’IA qui manquent de transparence posent des défis car les humains ne comprennent pas comment leurs sorties sont produites. Cela peut rendre difficile l’évaluation de l’exactitude des sorties, ainsi que des risques associés à l’utilisation de l’IA, tels que le détournement des informations sensibles par des personnes morales. Cela est particulièrement problématique pour les outils d’IA de prise de décisions, bien que les préoccupations restent pertinentes, dans une bien moindre mesure, avec des outils à moindre risque développés à des fins administratives.

Confidentialité des données et cybersécurité : La nature sensible des informations utilisées et générées par les tribunaux demande une attention particulière afin de s’assurer que les mesures de confidentialité et de cybersécurité appropriées sont préservées. Les risques augmentent avec un outil d’IA qui n’est pas adapté au contexte des tribunaux, car il n’aura pas été conçu en prenant en compte ces considérations importantes. Par exemple, les tribunaux devraient éviter de copier et coller des informations judiciaires dans des outils génériques et accessibles au public, comme ChatGPT.   

Perte de connexion et de rapport personnels : Comme avec toute technologie, l’utilisation d’outils d’IA pour la résolution des différends dans une manière qui remplace ou modifie de façon importante le degré d’interaction entre humains pourrait miner la confiance des usagers des tribunaux. Il s’agit d’une préoccupation particulière dans le contexte autochtone où la connexion personnelle et les relations sont d’une importance fondamentale, et où la confiance dans le système de justice canadien est souvent moindre à cause de l’héritage du colonialisme.

3. PRINCIPES D’ORIENTATION

Les principes d’orientation suivants sont présentés pour aider les tribunaux à réfléchir à la façon dont ils pourraient utiliser de manière responsable les outils d’IA pour améliorer les activités judiciaires. Ils demeurent pertinents tout au long du cycle de vie de l’IA.

3.1 L’IA est un outil, plutôt qu’une fin en soi

L’IA ne sera pas la solution appropriée à tous les problèmes et ne devrait pas être utilisée simplement parce qu’elle est nouvelle, intéressante ou disponible. L’utilisation potentielle de l’IA devrait se fonder sur l’identification du problème et l’évaluation de solutions possibles, y compris d’autres technologies ou des approches non technologiques au lieu de simplement intégrer l’IA dans des processus inefficaces.

3.2 L’IA devrait favoriser l’accès à la justice et une approche axée sur l’usager

Servir le public de manière équitable et efficace devrait guider toutes les décisions liées à l’utilisation de l’IA. Il y a également lieu de tenir compte de tous les usagers potentiels de l’outil et d’intégrer leurs besoins dans sa conception, sa mise en œuvre et sa surveillance ainsi que de consulter les usagers concernés à toutes les étapes du processus pour évaluer si l’outil permet d’obtenir les résultats escomptés et de régler rapidement tout problème dès qu’il survient.

3.3 La supervision humaine de l’IA est essentielle

L’examen des sorties de l’IA au moyen d’une supervision humaine compétente est important à toutes les étapes pour valider les sorties et apporter les corrections nécessaires. Le niveau de supervision humaine requis dépendra de divers facteurs : par exemple, une supervision accrue peut être nécessaire pour des outils qui ne sont pas conçus spécifiquement à des fins judiciaires ou juridiques. Lors de l’élaboration d’outils pour les tribunaux, il est possible qu’une supervision accrue soit nécessaire dès les premières étapes de l’évaluation de l’exactitude.

3.4 La communication favorise la responsabilisation et la confiance dans les tribunaux

Les tribunaux et les usagers des tribunaux ont des points de vue et des préoccupations variés sur l’utilisation de l’IA. Une communication claire sur la façon dont les tribunaux utilisent et surveillent l’IA, sur la manière dont cela profitera aux usagers et sur les mesures de protection mises en place pour éviter les risques peut promouvoir une utilisation efficace et appropriée de l’IA et renforcer la confiance dans les processus des tribunaux. Un tribunal pourrait conserver le droit d’exclure l’utilisation de tout outil qu’il juge ne pas être en mesure de traiter, s’engager à se tenir au courant des changements importants dans le domaine et communiquer en temps opportun toute modification nécessaire à son approche en matière d’IA.

3.5 Des mesures appropriées de confidentialité des données et de cybersécurité sont nécessaires

Un cadre robuste de confidentialité des données et de cybersécurité, y compris un protocole clair en cas de violation, peut atténuer les risques associés à l’utilisation d’un outil d’IA pour stocker ou traiter des informations sensibles traitées par les tribunaux. La manière dont les politiques ou les protocoles liés à l’IA s’intègrent dans les cadres existants de gestion de l’information et de technologie de l’information devrait être considérée.

3.6 L’IA est en constante évolution et nécessite un apprentissage continu

Le développement d’une compréhension de base des concepts fondamentaux de l’IA permet de cerner plus facilement les possibilités et les risques et d’apprécier les problèmes connexes. Il est essentiel de se tenir informé des développements dans le domaine de l’IA pour évaluer la pertinence et l’efficacité continue de toute utilisation de l’IA. Les tribunaux devraient être au courant de toute évolution des mesures législatives, des orientations et des pratiques exemplaires.

4. ÉTAPES CLÉS DU DÉPLOIEMENT DES OUTILS D’IA DANS LES TRIBUNAUX

Bien que l’IA soulève à la fois de nouvelles possibilités et de nouvelles préoccupations, la décision de mettre en œuvre un outil d’IA dans le cadre des activités judiciaires n’est pas différente de l’adoption de toute autre nouvelle technologie, de manière générale. Il s’agit d’adopter une approche structurée à chaque étape : de la détermination de la pertinence de l’IA à la conception du projet, en passant par l’intégration de l’outil dans les activités du tribunal, la surveillance de son utilisation et, finalement, son élimination progressive ou le passage à un autre outil.

4.1 Phase d’évaluation des besoins et de planification

Commencer par cerner les principaux défis ou points à améliorer. Le fait de se concentrer d’abord sur les problèmes facilite une approche axée sur les solutions, qui peut inclure ou non l’IA, et réduit le risque d’utiliser de nouvelles technologies, quelle que soit leur pertinence. S’assurer de comprendre les paramètres de tout système de gestion de données et technologie existants, y compris les avantages et les points à améliorer. Examiner ensuite les applications potentielles de l’IA – leurs possibilités, leurs défis et leurs risques – et explorer et comparer soigneusement les solutions de rechange pour décider si l’IA devrait être utilisée. Utiliser ces connaissances pour évaluer si la solution proposée pourrait être faisable et pour affiner la compréhension des questions pertinentes.

La consultation est un élément essentiel de cette évaluation. À considérer :

  • La mobilisation des experts en la matière pour
    • s’assurer que toute l’équipe de projet comprend les concepts clés; et
    • examiner la pertinence d’un outil d’IA potentiel.
  • L’intégration des commentaires des communautés qui pourraient être touchées par l’outil d’IA.
    • Veiller à ce que des consultations auprès des communautés marginalisées soient menées d’une manière adaptée à la culture. Par exemple, certaines communautés ont vécu des traumatismes liés à la collecte de données qui pourraient éclairer les perceptions de l’IA. Pour en savoir plus sur la collaboration avec les usagers des tribunaux, veuillez consulter la publication du Comité d’action intitulée Recueillir les points de vue des usagers pour soutenir le fonctionnement efficace du système judiciaire.

Équipe de projet : Définir les personnes, les rôles, les responsabilités et les processus d’approbation nécessaires. Si toute l’expertise n’est pas disponible dans votre tribunal, demander un soutien extérieur – cela peut être particulièrement nécessaire dans des domaines technologiquement complexes. Élaborer un plan sur la façon dont les membres de l’équipe interagiront, y compris tout changement prévu au fil du temps.

Collaboration interne : Veiller à ce que les secteurs judiciaire et administratif du tribunal soient mobilisés et à ce qu’ils travaillent ensemble de façon continue. Des contrôles internes réguliers permettent de réagir rapidement et de manière cohérente aux changements de technologie, de loi ou de politique. 

Feuille de route claire : Pour susciter des discussions constructives et soutenir les conversations futures reposant sur une base commune, créer une feuille de route claire et complète sur la façon dont l’IA sera utilisée. Cette feuille de route devrait tenir compte des plans à long et à court terme. Bien que l’IA puisse éventuellement offrir des gains d’efficacités, la dépense initiale – y compris le coût pour développer ou obtenir un outil d’IA, tout comme la consultation et la formation – demeure un facteur important de la planification.

4.2 Phase de gestion de projet de l’IA

Qu’un tribunal décide d’utiliser un outil d’IA existant, d’en faire personnaliser un pour répondre à ses besoins ou de poursuivre la création de quelque chose d’unique, des éléments communs devraient guider les étapes de conception, de mise en œuvre et de mise hors service du processus, également connu sous le nom de cycle de vie de l’IA (voir Démystifier l’IA dans les processus judiciaires pour les définitions de ces étapes). La décision initiale concernant le niveau de participation du tribunal à l’élaboration de l’outil qu’il prévoit utiliser déterminera la façon dont chacun des éléments suivants sera mis en œuvre dans la pratique.

4.2.1 Traitement des données – tout au long du cycle de vie et après la mise hors service

  • S’assurer que le traitement des données liées à l’outil est conforme à l’ensemble des mesures législatives et politiques pertinentes en matière de protection des données et de cybersécurité. Il s’agit notamment des données qui ont éclairé la conception, la mise en œuvre et la mise hors service d’un outil, des sorties, des données d’entraînement et de tous les sous-produits créés au cours du cycle de vie. La conservation et la destruction des données devraient également être prises en compte et conformes aux politiques préexistantes.

4.2.2 Conception

  • L’objectif pour lequel l’outil a été développé devrait répondre aux besoins particuliers du tribunal. Cela comprend les aspects juridiques de fond, les réalités pratiques, la sensibilité culturelle et toute protection nécessaire pour les informations sensibles inhérentes au contexte judiciaire. Les tribunaux devraient revenir à l’objectif de l’outil lorsqu’ils élaborent des objectifs, des résultats attendus et des indicateurs de rendement afin de mesurer les résultats par rapport aux attentes.
  • Tenir compte du contexte plus large d’un outil d’IA, ainsi que des travaux antérieurs, actuels ou anticipés de son développeur. Cela comprend les conflits d’intérêts potentiels, le niveau d’expertise et des antécédents de problèmes majeurs tels que des violations de la confidentialité, des atteintes à la vie privée ou des violations des droits de la personne.
  • Les outils sont développés et affinés et ils évoluent au fil d’essais et de la formation. Bien que cela s’applique tout au long du cycle de vie de l’IA, le développeur en est initialement responsable au stade de la conception. Idéalement, les tribunaux devraient participer aux essais des premières versions de l’outil pour s’assurer qu’il répond à leurs besoins. Lorsque le tribunal n’y participe pas directement, il est important de poser des questions pour comprendre le processus d’essais et de formation.
  • Pour une intégration réussie, les exigences techniques particulières d’un outil devraient s’inscrire dans les systèmes et les structures plus larges du tribunal. Par exemple, déterminer si l’outil d’IA est compatible avec tout autre logiciel avec lequel il pourrait avoir besoin d’interagir.

4.2.3 Mise en œuvre

  • Réfléchir à la manière dont la mise en œuvre sera structurée et à l’étendue de l’assistance du développeur requise ou souhaitée à différentes étapes.
  • L’essai de plusieurs outils simultanément et dans différentes conditions aidera un tribunal à déterminer celui qui répond le mieux à ses besoins. Les problèmes d’obsolescence et d’incompatibilité peuvent être évités en tenant compte de la longévité d’un outil d’IA en plus de la façon dont les différentes versions peuvent interagir.
  • Le pilotage de l’outil sélectionné avant un lancement complet permet un dépannage le cas échéant. Choisir un groupe diversifié de testeurs pour mieux saisir le fonctionnement de l’outil pour les personnes ayant des expériences diverses, notamment en matière de connaissances technologiques et de niveau de confort ainsi que d’expertise en la matière. Par exemple, les avocats ayant une compréhension juridique plus approfondie seront mieux en mesure de cerner les inexactitudes dans le contenu produit par l’IA, et il est possible que les personnes qui ne sont pas familières avec la technologie de base ne maximisent pas leur utilisation d’un outil d’IA.
  • Créer un plan de transition pour minimiser les perturbations et les retards dans le travail du tribunal lorsque l’outil est mis en œuvre, car des problèmes peuvent encore survenir lorsque l’utilisation devient plus répandue et plus constante. Conserver les approches de rechange pour les offrir en parallèle avec le nouvel outil d’IA pendant la période de transition et adopter de saines pratiques de gestion des données pour éviter toute perte de données, violation de confidentialité ou atteinte à la vie privée.
  • Offrir une formation initiale et continue sur l’IA et ses incidences sur les activités judiciaires. Les besoins en formation seront différents pour les secteurs administratif et judiciaire du tribunal en fonction de l’utilisation qu’ils feront du nouvel outil et des considérations relatives à l’indépendance judiciaire.
  • Une vérification régulière de l’outil devrait être effectuée par une équipe d’experts techniques, juridiques et administratifs afin de s’assurer qu’il fonctionne correctement et qu’il reste une solution appropriée au problème constaté. C’est aussi l’occasion d’intégrer la rétroaction et d’affiner continuellement l’outil, en fonction du degré de participation du tribunal dans son développement. L’objectif de l’outil sera utile pour encadrer une évaluation rigoureuse de ses performances (voir ci-dessus).
  • Au-delà de l’approvisionnement initial, toute relation entre le développeur et le tribunal devrait être clairement établie et communiquée. Intégrer la possibilité de fournir des commentaires et de demander la modification d’un outil d’IA sur une base continue.

4.2.4 Mise hors service

  • Établir des paramètres clairs pour la mise hors service, qui seront façonnés par le degré de participation du tribunal à l’élaboration d’un outil d’IA. Cela permet d’éviter qu’un tribunal souhaite continuer d’utiliser un outil qui n’est plus supporté par l’entreprise qui l’a créé. Les éléments importants comprennent la définition des critères de mise hors service, la prise en compte des effets potentiels sur d’autres systèmes liés, les périodes de conservation et la manière dont le processus sera communiqué aux usagers de l’outil.