Publications Retour au bulletin

Droit à l’explication de l’intelligence artificielle – Un regard transatlantique

Droit à l’explication de l’intelligence artificielle – Un regard transatlantique

Jules Gaudin[1] et Élisabeth Lesage-Bigras [2]
ROBIC, S.E.N.C.R.L.
Avocats, agents de brevets et de marques de commerce

En juin dernier, la société IBM annonçait qu’elle cessait toutes recherches portant sur les logiciels de reconnaissance faciale en évoquant les dangers présentés par la surveillance de masse et les violations possibles des droits de l’Homme[3]. Cette décision fait assurément écho à une confiance parfois défaillante des utilisateurs et un mouvement toujours grandissant qui revendique un meilleur encadrement des questions éthiques entourant l’usage de l’intelligence artificielle (« IA »)[4].

L’intégration massive de l’IA dans tous les secteurs et aspects de notre société souligne à quel point la question de la confiance dans l’IA, et particulièrement les systèmes décisionnels sous-jacents, est nécessaire pour permettre leur utilisation. C’est avec cet enjeu en tête que l’on a pu voir apparaître le concept d’explicabilité de l’IA (ou « explainability »). L’objectif de ce concept est de chercher la mise en place de méthodes, concepts et principes qui permettraient d’expliquer en des termes humainement compréhensibles les mécanismes sous-jacents à une prise de décision par une IA (facteurs, ratio d’importance, données utilisées, etc.)[5].

Avec l’adoption des nouvelles réglementations en matière de vie privée, telles que le RGPD, et considérant la complexité des processus d’IA, la notion de droit à l’explication soulève un débat important parmi les experts. Concept relativement nouveau, il semble encore être difficile à mettre en œuvre à un niveau législatif. Ainsi, comment le Canada et l’Europe font-ils face au dilemme éthique de l’IA, et surtout, quelle est leur position sur le droit à l’explication?

1. « Explainability » au niveau canadien

Le régime canadien ne prévoit aucune loi traitant de façon explicite et claire du concept d’« explainability ». Ni le régime interne, ni les obligations découlant d’accords internationaux, tels que l’Accord Canada–États-Unis-Mexique (« ACEUM ») ou l’Accord de Partenariat transpacifique global et progressiste (« PTTP »), ne semblent imposer au Canada une certaine forme de droit à l’explication en matière d’IA[6].

Toutefois, quelques initiatives gouvernementales ont été prises afin de commencer à intégrer ce principe. Dans cette optique, le gouvernement canadien a ainsi instauré la Directive sur la prise de décision automatisée (« DPDA ») afin d’encadrer les systèmes décisionnels automatisés utilisés par les ministères et leurs fournisseurs de service[7]. Cette directive exige de la part du gouvernement et de ses fournisseurs qu’ils fournissent une explication dite « significative » de la méthode et des raisons ayant mené à la décision prise aux personnes qui en font l’objet[8].

La DPDA respecte ainsi les Principes directeurs en matière d’IA (« Principes »), créés en 2018[9] à la suite de plusieurs consultations d’experts, institutions et organismes, et plus particulièrement, le Principe no3 assurant que le gouvernement veillera à « fournir des explications claires sur le processus décisionnel en matière d’IA tout en offrant des occasions d’examiner les résultats et de remettre en question les décisions »[10]. En d’autres mots, sans avoir une loi explicite, le gouvernement fédéral semble être tenu de respecter une certaine forme d’« explainability » lors de l’usage de systèmes décisionnels faisant appel à l’IA.

Mais ce n’est pas tout. En mai 2019, dans le cadre de la Charte canadienne du numérique, le Gouvernement fédéral a proposé plusieurs pistes pour moderniser la Loi sur la protection des renseignements personnels et documents électroniques[11] (« LPRDPÉ ») dans son rapport Renforcer la protection de la vie privée dans l’ère numérique : Proposition pour moderniser la Loi sur la protection des renseignements personnels et des documents électroniques.

Au sein de ce rapport, le Gouvernement arrive notamment à la conclusion qu’il serait pertinent de redéfinir le concept de transparence de la LPRPDÉ afin d’imposer une obligation visant à informer toute personne non seulement de l’utilisation des processus automatisés et des facteurs influant la décision, mais aussi de ses effets et de la logique derrière celle-ci[12].

Dans le contexte de cette recommandation, le Commissariat à la protection de la vie privée du Canada (« CPVP ») a mis en place une consultation d’experts, les conclusions ayant été rendues le 13 mars dernier, s’intitulant Consultation sur les propositions du Commissariat visant à assurer une réglementation adéquate de l’intelligence artificielle. Dans ce rapport, le CPVP propose d’octroyer un droit à l’explication et une meilleure transparence lors des interactions avec les traitements automatisés[13]. Jugeant la présente conception de la notion de transparence inadéquate face à la complexité de plus en plus grandissante des systèmes d’intelligence artificielle, le CPVP souhaite ainsi élargir celle-ci afin d’inclure un droit d’explication qui fournirait aux individus non seulement le raisonnement derrière ce type de processus, mais aussi les conséquences de ces derniers, notamment sur leurs droits[14].

Dès lors, si certains proposent l’application des concepts de responsabilité civile aux systèmes d’IA, l’état de droit de l’« explainability » demeure au Canada, ambigu et incertain[15].

2. « Explainability » au niveau européen

A contrario, la question de l’« explainability » fait l’objet d’un débat plus polarisé en Europe. Ce dernier porte sur la question de savoir si le concept d’« explainability » au sein du Règlement général sur la protection des données[16] (« RGPD ») implique de fournir des informations quant au fonctionnement du système[17] ou plutôt sur le processus ayant mené à la décision[18]. La division semble ainsi porter sur le niveau requis d’« explainability » dans le RGPD[19].

Aucun article du RGPD ne traite d’un droit à l’explication, qu’il s’agisse de l’article 15 sur le droit d’accès ou l’article 22 sur les décisions automatisées, ce n’est qu’au sein du considérant 71 que l’on retrouve une certaine mention de la notion. Toutefois, comme le considérant ne fait pas partie du texte du RGPD et ne bénéficie pas d’une force contraignante, il appert que le débat entourant le niveau d’information découle plutôt de l’article 15(1)(h) RGPD qui donne à la personne concernée le droit d’obtenir « des informations utiles concernant la logique sous-jacente, ainsi que l’importance et les conséquences prévues de ce traitement pour la personne concernée » dans le cadre d’une prise de décision automatisée, y compris un profilage, dans les limites prévues par l’article 22(1) RGPD, [20].

En dehors de ce débat, la Commission européenne a adopté une position claire quant à l’inclusion de la notion d’« explainability » en publiant le 8 avril 2019, les Lignes directrices en matière d’éthique pour une IA digne de confiance (« Lignes directrices »). Cadre non contraignant, ayant pour but de garantir une IA éthique pour tous les acteurs œuvrant dans le domaine, les Lignes directrices prévoient, comme principe, l’explicabilité[21]. Ceci implique donc, de façon similaire à la position canadienne, qu’il doit y avoir une certaine transparence dans les processus décisionnels tant au niveau des capacités que des finalités des systèmes qui doivent, pour leur part, être communiquées et les décisions doivent aussi pouvoir être expliquées aux personnes concernées, que ce soit directement ou indirectement[22].

Il appert ainsi que l’état de droit européen quant à la réelle signification du concept d’« explainability » est tout autant incertain que celui du Canada.

3. Conclusion

Bien que la réglementation entourant l’« explainability » demeure une question ouverte au Canada et en Europe, il est à noter que plusieurs auteurs et membres de l’industrie demandent aux gouvernements d’intervenir pour clarifier la situation, et ce, non seulement au niveau de la protection des renseignements personnels, mais aussi au niveau du droit de la concurrence, de la responsabilité civile, du droit contractuel et même des droits de propriété intellectuelle[23]. Toutefois, il semble que cette clarification tant attendue ne soient pas aussi proches que souhaitée et que le manque de définition légale rend, selon les experts, le statut de l’« explainability » quelque peu incertain[24].

C’est dans ce flou que l’on voit parfois réapparaître le débat technique sur les différences entre le concept d’interprétabilité de l’IA et le concept d’explicabilité de l’IA pour tenter de déterminer si l’un système serait plus simple, moins coûteux ou plus pertinent à mettre en œuvre qu’un autre. Si l’explicabilité de l’IA tente de proposer un modèle permettant de comprendre et d’expliquer les mécanismes internes de fonctionnement d’un système en des termes humains, l’interprétabilité propose plutôt la mise en œuvre de mécanismes permettant de discerner les mécanismes sans pour autant comprendre le pourquoi de ceux-ci, ce second concept demandant une connaissance technique moindre.

L’un dans l’autre, ce débat comme l’incertitude des législateurs sur la mise en œuvre de ces concepts dans la loi illustre bien l’un des enjeux auquel le secteur de l’IA doit faire face et répondre rapidement : arriver à gagner et maintenir la confiance du public pour lui permettre une implémentation et une intégration toujours plus large et éthique.


© CIPS, 2020.

[1] Jules Gaudin est avocat chez ROBIC, S.E.N.C.R.L., un cabinet multidisciplinaire d’avocats et d’agents de brevets et de marques de commerce.

[2] Élisabeth Lesage-Bigras est stagiaire au Barreau du Québec chez ROBIC, S.E.N.C.R.L., un cabinet multidisciplinaire d’avocats et d’agents de brevets et de marques de commerce.

[3] Ina Fried, « IBM is exiting the face recognition business », Axios.com, 8 juin 2020.

[4] Shira OVIDE, « A case for Banning Facial Recognition », The New York Times, 9 juin 2020.

[5] Alejandro Barredo Arrieta et al., « Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI », Information fusion, 23 octobre 2019, p. 2.

[6] Mark ROBBINS, « AI Explainability : Regulations and Responsibilities », Transports Canada, Innovation Center, Septembre 2019, p. 3.

[7] DPDA, art. 4, 4.1 et 5.1.

[8] DPDA, art. 6.2.3

[9] Voir Secrétariat du Conseil du Trésor du Canada, « Assurer l’utilisation responsable de l’intelligence artificielle pour améliorer les services du gouvernement aux Canadiens », Communiqué de presse, 4 mars 2019.

[10] Principe no3.

[11] L.C. 2000, ch. 5.

[12] Innovation, Sciences et Développement économique Canada, Renforcer la protection de la vie privée dans l’ère numérique : Proposition pour moderniser la Loi sur la protection des renseignements personnels et des documents électroniques, Partie 1 A. « Options possibles ».

[13] Commissariat à la protection de la vie privée du Canada, Consultation sur les propositions du Commissariat visant à assurer une réglementation adéquate de l’intelligence artificielle, proposition no4.

[14] Id.

[15] M. ROBBINS, préc., note ††, p. 3 et 4.

[16] Règlement (UE) 2016/679 du Parlement Européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données et abrogeant la directive 95/46/CE (règlement général sur la protection des données)

[17] Voir à cet effet, Sandra WATCHER, « Towards accountable AI in Europe? » The Alan Turing Institute, 18 juillet 2017.

[18] Janet WAGNER, « GDPR and Explainable AI », Zylotech.com, 19 mars 2019; voir aussi Andrew BURT, « Is there a ‘right to explanation’ for machine learning in the GDPR? », iapp.com, 20 juin 2017.

[19] Voir à ce sujet, Conseil des technologies de l’information et des communications, « L’Ère de demain : la main-d’œuvre amplifiée par l’intelligence artificielle du Canada », CTIC, 7 avril 2020, p. 48.

[20] Philipp HACKER et al., « Explainable AI under contract and tort law : legal incentives and technical challenges », Springer.com, 19 janvier 2020, p. 4.

[21] Commission européenne, Lignes directrices en matière d’éthique pour une IA digne de confiance, p. 7 et 16, par. 19 et 53.

[22] Id., p. 16, par. 53.

[23] Id., p.5; Adam GOLDENBURG et Michael SCHERMAN, « Automation not Domination : Legal and Regulatory Framework for AI », Chambre de Commerce du Canada, juin 2019, p. 3,5 et 6 et M. ROBBINS, préc., note ††, p. 4.

[24] Danny TOBEY, « Explainability :where AI and liability meet », DLA Piper.com, 25 février 2019.