Introduction

Avec les avancées rapides en matière d'intelligence artificielle (l'« IA »), on entend de plus en plus parler de la nécessité d'un encadrement éthique de l'IA. Mais à quoi fait-on référence ici?

« Tirée du mot grec ‟ethos” qui signifie ‟manière de vivre”, l'éthique est une branche de la philosophie qui s'intéresse aux comportements humains et, plus précisément, à la conduite des individus en société. L'éthique fait l'examen de la justification rationnelle de nos jugements moraux, elle étudie ce qui est moralement bien ou mal, juste ou injuste1. »

Quant à la définition de l'IA, aux fins de notre réflexion, nous avons aussi retenu celle établie par le Parlement européen en 2020 : « la capacité d'une machine à reproduire des comportements liés aux humains, tels que le raisonnement, l'apprentissage, la planification et la créativité2 ».

Ainsi, tout comme les comportements humains, l'intelligence artificielle qui les reproduit soulève des questions éthiques, morales et sociales. En effet, même si ces systèmes sont capables d'apprendre, ils travaillent sur des représentations prédéfinies du monde, des modèles partiels qui sont générés par l'humain.

C'est dans ce contexte que plusieurs organisations se sont penchées sur l'élaboration de principes éthiques liés à l'IA, qui doivent être considérés dès la conception de l'ensemble des algorithmes. Leurs réflexions convergent autour des principes suivants : transparence et explicabilité, responsabilité, respect de la vie privée, justice et équité (non-discrimination), sûreté et sécurité (non-nuisance ou malfaisance).

Sans prétendre couvrir l'ensemble des enjeux éthiques pouvant survenir en matière d'IA, dans le présent article, les auteures ont choisi de s'attarder à un comportement humain dont les impacts se font déjà sentir en matière d'IA, à savoir les biais discriminatoires.

Plusieurs causes expliquent l'IA biaisée

Les biais discriminatoires existent en dehors de l'IA et des algorithmes. Ils existent d'abord chez les humains sous forme de raccourcis pris par le cerveau qui mènent à la prise de décisions ou conclusions incorrectes et subjectives3. Les biais qu'on retrouve dans l'IA sont donc fréquemment les mêmes que ceux retrouvés chez les humains, mais amplifiés dû à l'accès de l'IA à des quantités astronomiques de données biaisées. Ainsi, on dira qu'une IA est biaisée lorsque son résultat n'est pas neutre, loyal ou équitable4.

De surcroît, l'IA est confrontée à différents types de biais algorithmiques que l'on peut regrouper en deux grandes catégories. Il y a d'abord les biais cognitifs  qui sont intégrés par l'humain concepteur. Ceux-ci englobent les biais de confirmation5, les biais de répétition6 et les biais stéréotypes7. Dans ces cas, l'humain concepteur est sujet à des biais déclenchés par des stéréotypes et des préjugés profondément établis dans son inconscient et qui le conduisent à favoriser sa perception du monde, même si des données contradictoires à sa pensée existent8. Ainsi, les biais cognitifs de l'humain concepteur sont intégrés sous forme de biais algorithmiques aux systèmes d'IA qu'il a programmés.

Il y a également les biais statistiques  qui découlent des données d'entraînement. Ceux-ci englobent les biais de représentativité9, les biais des données10 et les biais d'omission de variantes11. Ils désignent une situation d'inadéquation entre les données utilisées par un algorithme et la réalité qu'elles tentent de mesurer en raison de la manière dont les données ont été collectées12. Cela survient notamment lorsque l'intelligence artificielle a été entraînée sur des données insuffisantes, inexactes ou non représentatives. Ainsi, les systèmes d'IA qui sont entraînés avec de telles données statistiques biaisées produiront nécessairement des résultats biaisés.

Exemples d'algorithmes biaisés au sein de certains systèmes de justice

Parmi les exemples d'outils d'IA biaisés, on peut citer le programme Correctional Offender Management Profiling for Alternative Sanctions (« COMPAS »), parfois utilisé par le système de justice pénale américain et qui permet d'évaluer les risques de récidive criminelle d'un accusé en se fondant sur des données publiques et des réponses à plus d'une centaine de questions sur ses activités criminelles antérieures, ses antécédents familiaux, ses antécédents scolaires, son lieu de résidence, sa situation d'emploi, et plus encore13. Or, une étude réalisée en 2016 a révélé que ce logiciel reflète et renforce les préjugés et stéréotypes racistes à l'égard des personnes de couleur noire en prédisant faussement qu'elles sont plus susceptibles de récidiver. Effectivement, COMPAS leur attribue à tort un risque de récidive deux fois plus élevé que les personnes ayant la peau plus claire et se trouvant dans une situation similaire14.

On peut également parler des technologies de reconnaissance faciale qui sont de plus en plus utilisées par les autorités dans divers pays pour identifier des suspects. À travers le passage en revue de plusieurs de ces technologies, des études ont démontré que plusieurs outils d'intelligence artificielle se révèlent plus performants sur des visages à peau pâle que sur des visages à la peau plus foncée15. En janvier 2020 d'ailleurs, l'erreur d'un algorithme de reconnaissance faciale des services de police de Détroit, au Michigan, a conduit à l'arrestation injustifiée et à la détention pendant trente heures d'un l'Afro-américain accusé à tort de vol16. Malgré leur redoutable précision biométrique, les algorithmes de reconnaissance faciale ont donc tendance à se tromper plus souvent à propos de certains groupes démographiques, à propos des personnes noires et des femmes notamment, tel que le signale le rapport du National Institute of Standard and Technology17.

Plusieurs solutions existent

Mais comment s'assurer que les systèmes d'intelligence artificielle ne discriminent pas un groupe de personnes en particulier, que ce soit à l'égard de leur couleur de peau, de leur genre, de leur âge ou de leur nationalité? 

Plusieurs solutions sont envisageables afin de concevoir des IA plus justes et moins biaisées. D'abord, il est nécessaire de conscientiser les humains qui conçoivent les systèmes d'IA afin qu'ils reconnaissent leurs propres biais et les tempèrent en travaillant avec une équipe diverse, mixte et interdisciplinaire qui priorisera les répercussions de l'IA sur l'humain, plutôt que sur la performance ou la recherche de profits18.

Ensuite, il est nécessaire d'améliorer les systèmes d'IA eux-mêmes, dans la façon dont ils exploitent les données, sont développés, déployés et utilisés afin de les empêcher de perpétuer les biais humains et cognitifs. Cela peut se faire notamment en incluant, dans les données des IA, les résultats de recherche en psychologie et la documentation sur les biais inconscients19. Il est par ailleurs primordial de diversifier autant que possible l'ensemble des données sur lesquelles les IA sont entraînées.

Parallèlement, l'utilisation de l'IA à titre d'outil permettant d'identifier les manifestations de discrimination systémique envers certains groupes démographiques et soutenant l'élaboration de politiques publiques ciblées afin d'y répondre devrait être améliorée et renforcée.

Exemples d'IA visant à réduire la discrimination

À titre d'exemple, l'algorithme Justice League sensibilise le public aux méfaits des systèmes d'IA, propose des données représentatives en incluant toutes les minorités et permet aux citoyens de reporter eux-mêmes les biais algorithmiques dont ils sont victimes20.

Autre exemple, la plateforme d'analyse Ravel Law, permet de vérifier l'ensemble des jugements rendus par un juge et d'en dégager certaines tendances, telles que sa façon de penser, d'écrire et de trancher21. De tels logiciels pourraient servir à identifier si des stéréotypes et préjugés existent au sein d'un système judiciaire ou auprès de certains juges en particulier, et si oui, de les mettre en lumière. Une telle utilisation de l'IA pourrait ainsi permettre de renforcer la protection des personnes issues de groupes marginalisés devant la loi ainsi que la transparence des processus décisionnels au sein des systèmes de justice tout en accroissant l'imputabilité des juges22.

Il importe dans cette réflexion sur l'encadrement de l'IA que les considérations en matière d'éthique se retrouvent à toutes les étapes du cycle de vie de ces systèmes, soit la recherche, la conception, le développement jusqu'au déploiement, l'utilisation, la maintenance, l'exploitation, la commercialisation, le financement, le suivi et l'évaluation, la validation, et enfin l'utilisation, le démantèlement et la mise en service.23

Les cabinets d'avocats sont aussi concernés

Au-delà de ChatGPT qui invente des précédents jurisprudentiels inexistants24 et qui échoue à l'examen du Barreau du Québec avec une note de 12 %25, l'utilisation par les cabinets d'avocats de l'IA soulève également des enjeux éthiques. Parmi ceux-ci, et en restant dans la notion de biais, notons un questionnement quant à savoir si les cas servant de base à l'IA dans le domaine juridique peuvent être biaisés. L'informatisation d'un plus grand nombre de données signifie-t-elle l'américanisation du droit, vu l'ampleur des données provenant de nos voisins du Sud26?

Ainsi, les cabinets peuvent faire face aux mêmes enjeux précédemment discutés, soit les risques que les programmes qu'ils utilisent intègrent et amplifient les préjugés ambiants et la discrimination envers les populations les plus vulnérables.

Ces difficultés s'expliquent notamment par le fait que le raisonnement par analogie employé par les juristes est difficilement traduisible de manière neutre en algorithme27. Effectivement, la capacité de l'IA à comparer des cas semblables est limitée dans le domaine juridique puisque l'IA ne prend pas toujours en compte les facteurs non juridiques, tels que la morale, l'économie, la politique et d'autres facteurs humains qui échappent aux capacités des algorithmes, du moins pour l'instant28.

Ainsi, l'utilisation de l'IA pourrait affecter l'indépendance du jugement professionnel de l'avocat si celui-ci s'appuie en grande partie sur les informations fournies par l'IA et les algorithmes intégrés, initialement développés par d'autres êtres humains. Il y a donc un risque que certains juristes n'exercent pas leur jugement de manière indépendante en se fiant aux résultats de l'IA sans les vérifier.

Il sera donc nécessaire que les avocats confirment l'exactitude et la fiabilité des informations fournies par la technologie de l'IA. Ils devraient d'ailleurs utiliser les résultats de l'IA uniquement comme point de départ à leur réflexion et appliquer ensuite leur propre jugement afin de fournir aux clients des conseils pertinents, indépendants et en fonction de leur cas spécifique. Pour tout dire, l'IA peut être utilisée afin de guider les avocats dans la bonne direction, mais c'est à l'avocat que revient la décision quant à la manière dont il procédera.29

D'ailleurs, le 23 juin 2023, la Cour du Banc du Roi du Manitoba a émis une directive visant à assurer un certain contrôle quant à l'utilisation de l'intelligence artificielle devant les tribunaux :

Compte tenu de développement récent mais rapide de l'intelligence artificielle, il semble que celle-ci puisse servir à l'élaboration des documents présentés aux tribunaux. Bien qu'il soit impossible pour le moment de prévoir entièrement et précisément la façon dont l'intelligence artificielle se développera ou de définir exactement l'utilisation responsable de l'intelligence artificielle dans les affaires judiciaires, des préoccupations légitimes sont soulevées quant à la fiabilité et à l'exactitude des renseignements produite par son utilisation. Pour tenir compte de ces préoccupations, les documents déposés auprès du tribunal doivent indiquer, le cas échéant, comment l'intelligence artificielle a été utilisée dans leur préparation30.

En outre, le recours aux travaux nord-américains, dominants dans les systèmes d'informatique juridique et dans les bases de données, représente un obstacle supplémentaire à l'utilisation éthique de l'IA dans la pratique juridique au Canada, puisque cela pourrait mener à l'américanisation du droit canadien.31

Rappelons que le droit au Québec, soit le droit civil, et le droit dans le reste du Canada, soit la common law, sont parfois assez différents du droit américain. Ainsi, encore une fois, ce facteur démontre l'importance que les données sur lesquelles se base l'IA utilisée par les cabinets d'avocats soient autant diversifiées que possible, qu'elles soient vérifiées et vérifiables, mais aussi fondées sur le droit applicable dans la juridiction visée.

Conclusion

En conclusion, l'éthique de l'IA soulève les mêmes questions éthiques, morales et sociales que celles que nous voyons au sein de la société en général. Parmi celles-ci, les biais discriminatoires doivent être au cœur des préoccupations. Il sera donc essentiel de considérer ces questions dès la conception des algorithmes, notamment lors de la sélection de données utilisées. Cela dit, l'IA pourrait également permettre d'aider à contrer la discrimination si elle est bien utilisée.

Quant aux avocats, l'usage qu'ils font de l'IA devrait toujours inclure une réflexion et du jugement, pour s'assurer de ne pas automatiser des prises de décisions uniquement influencées par l'IA.

Footnotes

1. Gouvernement du Canada (2015). Qu'est-ce que l'éthique? Canada.ca, en ligne.

2. Intelligence artificielle : définition et utilisation | Actualité | Parlement européen (europa.eu)

3. Clémence Maquet (2021). « Intelligence artificielle : quelle approche des biais algorithmiques? » Siècle Digital, en ligne.

4. Patrice Bertail, David Bounie, Stephan Clémençon et Patrick Waelbroeck (2019). « Algorithmes : biais, discrimination et équité » Télécom ParisTech, en ligne.

5. Lorsque seules les informations et données confirmant certaines opinions et hypothèses sont utilisées.

6. Lorsque des informations sont tenues pour avérées à force d'être répétées, même lorsqu'elles sont fausses.

7. Lorsque des affirmations sont issues de préjugés envers certains groupes d'une population.

8. Patricia Gautrin (2021). « [ANALYSE] Que reprocher à un algorithme biaisé? », CScience, en ligne.

9. Lorsque les données utilisées ne sont pas représentatives de la population.

10. Lorsque les données utilisées sont tout simplement inexactes.

11. Lorsque certaines variables affectant la réalité ont été omises.

12 .Statistique Canada. (2023). « Statistique 101 : biais statistique [Vidéo] », YouTube, en ligne.

13. Julia Angwin, Jeff Larson, Surya Mattu et Lauren Kirchner (20160. « There's software used across the country to predict future criminals. And it's biased against blacks. », ProPublicaen ligne.

14. Ibid.

15. DataScientest (2020). « Intelligence artificielle et discrimination : Tout savoir sur ces sujets », en ligne.

16. Agence France-Presse (2020). « Un homme noir arrêté à tort à cause de la technologie de reconnaissance faciale », Radio-Canada, en ligne.

17. Patrick Grother, Mei Ngan et Kayee Hanaoka (2019). Face Recognition Vendor Test, Part 3: Demographic Effects, National Institute of Standard and Technology, U.S. Department of Commerce, en ligne.

18. Ibid.

19. Ibid.

20. « Mission, Team and Story », The Algorithmic Justice League, en ligne.

21. « Ravel Law ». SourceForge, en ligne.

22. Anne-Isabelle Cloutier et Katarina Daniels (2019). « La discrimination systémique à l'aube de l'intelligence artificielle », Blogue du CRL, en ligne.

23. UNESCO Bibliothèque numérique (2021). « Recommandation sur l'éthique de l'intelligence artificielle », en ligne.

24. Benjamin Weiser (27 mai 2023). « Here's What Happens When Your Lawyer Uses ChatGPT », The New York Timesen ligne; Dan Milmo (23 juin 2023). « Two US lawyers fined for submitting fake court citations from ChatGPT », The Gardianen ligne.

25. Katia Gagnon (25 mai 2023). « Examen du Barreau ChatGPT recalé », La Presseen ligne.

26. Arnaud Billion et Mathieu Guillermin (2019). Intelligence artificielle juridique : enjeux épistémiques et éthiques. Droit, Sciences et Technologies, 9, 131-147, en ligne.

27. Ibid.

28. Michael A Patterson et Rachel P. Dunaway (2019). « Understanding the Ethical Obligations of Using Artificial intelligence », Long Law Firm, en ligne.

29. Ibid.

30. Cour du Banc du Roi du Manitoba (23 juin 2023). « Directive de pratique », en ligne.

31. Arnaud Billion et Mathieu Guillermin (2019). « Intelligence artificielle juridique : enjeux épistémiques et éthiques ». Cahiers Droit, Sciences et Technologies, Vol. 8, p. 131-147, en ligne.

The content of this article is intended to provide a general guide to the subject matter. Specialist advice should be sought about your specific circumstances.