Bienvenue à la 27e réunion du Comité permanent de l'accès à l'information, de la protection des renseignements personnels et de l'éthique de la Chambre des communes. Conformément à l'alinéa 108(3)h) du Règlement et à la motion adoptée par le Comité le lundi 13 décembre 2021, le Comité reprend son étude sur l'utilisation et les impacts de la technologie de reconnaissance faciale.
J'aimerais maintenant souhaiter la bienvenue à nos témoins.
Nous accueillons, de l'American Civil Liberties Union, Esha Bhandari; et de la Clinique d'intérêt public et de politique d'Internet du Canada Samuelson-Glushko, Tamir Israel, avocat-conseil à l'interne.
Veuillez nous excuser pour ce démarrage tardif. Ce n'est pas rare à cette époque de l'année, mais c'est encore une fois le calendrier des votes à la Chambre des communes qui en est la cause. Nous avions prévu une réunion d'une heure, de 15 h 30 à 16 h 30, et nous allons quand même aller de l'avant pour l'heure complète, à partir de maintenant.
Sur ce, je vais demander à Mme Bhandari de commencer.
Vous avez la parole pour un maximum de cinq minutes.
:
Merci beaucoup, monsieur le président.
Je remercie le Comité de m'avoir invitée.
Je m'appelle Esha Bhandari et je suis directrice adjointe du Speech, Privacy, and Technology Project de l'American Civil Liberties Union, à New York. Je suis originaire de Saint John, au Nouveau-Brunswick.
J'aimerais parler au Comité des dangers associés aux identificateurs biométriques, et plus particulièrement de la reconnaissance faciale.
Étant donné que les identificateurs biométriques permettent d'identifier une personne et sont généralement immuables, les technologies biométriques — y compris la reconnaissance faciale — menacent gravement les droits civils et les libertés civiles parce qu'elles permettent les atteintes à la vie privée, notamment la perte de l'anonymat dans des contextes où les gens s'y attendaient traditionnellement, le suivi permanent des mouvements et des activités, et l'usurpation d'identité.
En outre, les failles dans l'utilisation ou le fonctionnement des technologies biométriques peuvent entraîner d'importantes violations des droits civils, notamment des arrestations injustifiées et le refus d'accès aux avantages, aux biens et aux services, ainsi que la discrimination en matière d'emploi. Il a été démontré que tous ces problèmes affectent de manière disproportionnée les communautés racisées.
Mais qu'est‑ce qu'on entend exactement par biométrie?
Avant l'ère numérique, recueillir quelques données biométriques, comme les empreintes digitales, était laborieux et prenait du temps. Aujourd'hui, nous avons la possibilité de recueillir presque instantanément des données biométriques, y compris les empreintes faciales. Nous disposons de capacités d'apprentissage automatique et de technologies de réseau de l'ère numérique. Toutes ces avancées technologiques combinées rendent la menace de la collecte de données biométriques encore plus grande que par le passé.
La reconnaissance faciale en est un exemple, bien sûr, mais je tiens à souligner que la reconnaissance vocale, la lecture de l'iris ou de la rétine, la collecte d'ADN, la reconnaissance de la démarche et de la frappe au clavier sont également des exemples de technologies biométriques qui ont des effets sur les libertés civiles.
La reconnaissance faciale permet l'identification instantanée à distance, sans que la personne identifiée et suivie le sache ou y consente. Même dans le passé, les éléments d'identification qui devaient être capturés au su de la personne, comme les empreintes digitales, peuvent maintenant être collectés à son insu, et cela inclut l'ADN qu'elle répand dans son quotidien. La numérisation de l'iris peut se faire à distance, tout comme la reconnaissance faciale et la prise d'empreintes faciales, et ce, sans que la personne dont les données biométriques sont collectées le sache ou y consente.
La reconnaissance faciale est particulièrement sujette aux failles de la biométrie, entre autres les défauts de conception et les limitations matérielles. De multiples études ont montré que les algorithmes de reconnaissance faciale présentent des taux d'erreur d'identification nettement plus élevés pour les personnes de couleur, notamment les Noirs, et pour les enfants et les personnes âgées. Il y a de nombreuses raisons à cela. Je n'entrerai pas dans les détails, mais c'est en partie à cause des ensembles de données utilisés, mais aussi des lacunes observées dans des conditions réelles.
Je tiens également à souligner que les taux d'erreur constatés dans des conditions de test sont souvent exacerbés dans des conditions réelles, souvent pires que les conditions de test — par exemple, lorsqu'un outil de reconnaissance faciale est utilisé sur des images de surveillance de mauvaise qualité.
La technologie de reconnaissance faciale présente également d'autres risques lorsqu'elle est combinée à d'autres technologies pour déduire une émotion, un état cognitif ou une intention. Nous constatons que les entreprises privées font de plus en plus la promotion de produits censés détecter les émotions ou les états d'âme, tels que les détecteurs d'agressivité, à partir de tics faciaux ou d'autres mouvements détectés par cette technologie.
Les psychologues qui étudient les émotions s'accordent à dire que ce projet repose sur une science erronée, car il n'existe pas de lien universel entre les états émotionnels et les expressions faciales observables. Néanmoins, ces analyses vidéo se multiplient et prétendent détecter les comportements suspects ou déceler les mensonges. Lorsqu'elles sont déployées dans certains contextes, elles peuvent causer de véritables préjudices, notamment en matière de discrimination à l'embauche, si une entreprise privée utilise ces outils pour analyser le visage d'une personne lors d'un entretien afin de lire ses émotions ou sa sincérité et décide de lui refuser un emploi sur la base de cette technologie.
Bien sûr, je parle des défauts de la technologie et des taux d'erreur qui y sont associés et qui, je le répète, pèsent de manière disproportionnée sur certaines communautés marginalisées, mais il y a, bien sûr, des problèmes même lorsque la technologie de reconnaissance faciale fonctionne et donne des résultats précis.
Par exemple, la capacité des forces de l'ordre de suivre systématiquement les personnes et leurs déplacements dans le temps constitue une menace pour la liberté et les libertés civiles. Il est possible de détecter les allées et venues privées, qu'il s'agisse de personnes se rendant à des manifestations, dans des établissements médicaux ou dans d'autres lieux confidentiels. Sachant les dangers liés à l'utilisation de ces technologies par les forces de l'ordre, au moins 23 administrations aux États-Unis, de Boston à Minneapolis, en passant par San Francisco et Jackson, dans le Mississippi, ont adopté des lois qui interdisent le recours à la technologie de reconnaissance faciale par les forces de l'ordre ou le gouvernement.
Je tiens également à souligner l'utilisation de cette technologie par le secteur privé. Là encore, on observe désormais, par exemple, que les propriétaires utilisent la technologie de reconnaissance faciale dans les immeubles, ce qui leur permet de suivre les allées et venues de leurs locataires, mais aussi de leurs invités — partenaires romantiques et autres — dans l'immeuble. Nous voyons également cette utilisation dans les centres commerciaux privés et dans d'autres contextes...
:
Bonjour, monsieur le président, mesdames et messieurs les membres du Comité.
Je m'appelle Tamir Israel et je suis avocat à la Clinique d'intérêt public et de politique d'Internet du Canada Samuelson-Glushko de l'Université d'Ottawa, qui se trouve sur le territoire traditionnel non cédé des Algonquins Anishinaabe.
Je tiens à vous remercier de m'avoir invité à participer à cette importante étude sur les systèmes de reconnaissance faciale.
Comme le Comité l'a entendu, la technologie de reconnaissance faciale est polyvalente et constitue une menace insidieuse pour la vie privée et l'anonymat, en plus de miner l'égalité réelle. Elle exige une réponse sociétale différente, plus proactive, que pour les autres formes de technologie de surveillance.
Actuellement, la reconnaissance faciale se distingue par sa capacité de fonctionner discrètement et à distance. Des bases de données d'images préalablement authentifiées peuvent également être compilées sans la participation d'individus, ce qui a fait de la reconnaissance faciale la biométrie de choix pour accomplir toute une série de tâches. Dans son état actuel de développement, la technologie est suffisamment précise pour inspirer confiance à ses utilisateurs, mais suffisamment sujette à l'erreur pour avoir des conséquences potentiellement dévastatrices.
Nous reconnaissons depuis longtemps, par exemple, que les étalements de photos peuvent amener la police à concentrer à tort son attention sur certains suspects. Le biais de l'automatisation aggrave ce problème de manière exponentielle. Lorsque des agents qui utilisent une application telle que celle de Clearview AI ou qui effectuent des recherches dans une base de données de photos d'identité judiciaire se font présenter une galerie générée par un algorithme de 25 suspects potentiels correspondant à une image granuleuse prise par une caméra de vidéosurveillance, la tendance est de s'en remettre à la technologie et de présumer qu'ils ont trouvé la bonne personne. Inclure simplement une supervision humaine ne suffira donc jamais à atténuer pleinement les méfaits de cette technologie.
Bien entendu, les préjugés raciaux restent un problème important pour les systèmes de reconnaissance faciale. Même pour les algorithmes les mieux notés, les fausses correspondances peuvent être 20 fois plus élevées pour les femmes noires, 50 fois plus élevées pour les Autochtones de sexe masculin et 120 fois plus élevées pour les Autochtones de sexe féminin, par rapport aux hommes blancs.
À cause des préjugés raciaux persistants, même les utilisations les plus banales de la reconnaissance faciale peuvent devenir très problématiques. Par exemple, un site Web du gouvernement britannique utilise la détection du visage pour vérifier la qualité des photos de passeport, ce qui constitue un mécanisme efficace pour le renouvellement des passeports en ligne. Cependant, l'algorithme de détection du visage échoue souvent pour les personnes de couleur, ce qui aliène des individus déjà marginalisés en les privant de certaines commodités accessibles à d'autres.
Comme l'a dit mon amie, Mme Bhandari, la reconnaissance faciale reste profondément problématique, même si elle est débarrassée de ses préjugés et de ses erreurs. Les systèmes de reconnaissance faciale utilisent des renseignements biométriques très critiques et fournissent une puissante capacité d'identification qui, comme nous l'avons vu avec d'autres outils d'enquête tels que les contrôles de routine, sera utilisée de manière disproportionnée contre les communautés marginalisées, notamment les communautés autochtones et noires.
Jusqu'à présent, la police canadienne utilise, parce qu'elle le peut, des systèmes de reconnaissance faciale sur l'appareil mobile d'un suspect arrêté, sur l'album photo d'un appareil, sur des images de télévision en circuit fermé dans le voisinage général des crimes et sur des photos de surveillance prises par la police dans des lieux publics.
À nos frontières, la reconnaissance faciale est au cœur d'un effort visant à créer des identités numériques sophistiquées. Nous entendons trop souvent le refrain « Votre visage sera votre passeport ». La technologie permet également d'associer ces identités établies par des moyens sophistiqués et d'autres profils numériques aux individus, ce qui engendre un degré d'automatisation sans précédent.
À toutes les étapes, la transparence pose problème, car les agences gouvernementales en particulier sont en mesure d'adopter subrepticement des systèmes de reconnaissance faciale et d'en faire un usage nouveau. Elles misent à cette fin sur des pouvoirs légaux douteux et ne disposent d'aucune autorisation publique préalable.
Nous joignons nos voix à celles de nombreux collègues qui demandent un moratoire sur les utilisations de la reconnaissance faciale liées à la sécurité publique et nationale et sur les nouvelles utilisations à nos frontières. En l'absence d'un moratoire, nous recommandons de modifier le Code criminel pour limiter l'utilisation de cette technologie par les forces de l'ordre dans le cadre d'enquêtes sur des crimes graves et en l'absence de motifs raisonnables de croire à une infraction. Il serait aussi bon d'interdire de façon permanente l'utilisation de la reconnaissance biométrique automatisée en direct par la police dans les lieux publics, et nous recommandons également d'explorer une interdiction plus générale de l'adoption de nouvelles capacités de reconnaissance faciale par les organismes fédéraux en l'absence d'une forme d'approbation législative ou réglementaire explicite.
Une réforme en profondeur de nos deux principales lois fédérales sur la protection de la vie privée est également nécessaire. Le projet de loi a été déposé ce matin. Il s'agit d'une loi édictant entre autres la Loi sur l'intelligence artificielle et les données et réformant les dispositions relatives au secteur privé, et la LPRPDE fédérale. Ces réformes sont en cours et feront l'objet de discussions, mais outre les modifications prévues par le projet de loi C‑27, il faut modifier la LPRPDE et la Loi sur la protection des renseignements personnels afin que les renseignements biométriques soient explicitement codés comme critiques, qu'ils nécessitent une plus grande protection dans tous les contextes et, en vertu de la LPRPDE, qu'ils nécessitent un consentement explicite dans tous les contextes.
La LPRPDE et la Loi sur la protection des renseignements personnels devraient également être modifiées de sorte que les entreprises et les organismes gouvernementaux soient légalement tenus de déposer des évaluations des répercussions auprès du commissaire à la protection de la vie privée avant d'adopter des technologies intrusives. Enfin, le commissaire devrait être habilité à examiner les technologies intrusives dans le cadre d'un processus réglementaire public et à mettre en place des restrictions d'utilisation, voire des moratoires, au besoin.
C'est tout pour ma déclaration liminaire. Je remercie le Comité de m'avoir accordé ce temps, et je me ferai un plaisir de répondre à vos questions.
Je m'adresserai maintenant à Mme Bhandari, si vous me le permettez.
J'aimerais aborder un sujet que, malheureusement, nous n'avons pas suffisamment abordé dans cette étude, à savoir les technologies de localisation utilisées dans les lieux commerciaux et de vente au détail. Par exemple, Cadillac Fairview est un grand propriétaire de centres commerciaux ici, au Canada. D'après ce que je comprends, il y a souvent des caméras et d'autres technologies dans ses centres commerciaux.
On parle beaucoup de légiférer la relation entre les entreprises privées et les forces de l'ordre. Je commencerai par vous, madame Bhandari, et je sonderai peut-être aussi M. Israel.
Comment pensez-vous que nous devrions légiférer la relation privée ou commerciale lorsque ce genre de technologie est utilisé, dans un monde idéal, s'il y avait un moratoire et que nous avions le temps d'y réfléchir?
:
J'espère que c'est mieux.
Pour répondre à la question sur l'utilisation de ces technologies dans le secteur privé, les préjudices sont réels. Je vais vous en donner quelques exemples.
Dans le Michigan, par exemple, les responsables d'une patinoire utilisaient un outil de reconnaissance faciale pour identifier les clients qui entraient et sortaient. Une jeune fille noire de 14 ans a été expulsée de la patinoire après que le système de reconnaissance faciale l'ait associée à tort à la photo d'une personne soupçonnée d'avoir déjà perturbé les activités de la patinoire.
Nous voyons des entreprises privées utiliser ce type de technologie, dans des salles de concert, des stades ou des installations sportives, pour identifier les personnes figurant sur une liste noire, c'est‑à‑dire les clients qu'elles ne veulent pas laisser entrer pour une raison quelconque. Encore une fois, le risque d'erreur et d'atteinte à la dignité que cela implique, le déni de service, sont bien réels. Il y a aussi le fait que ces données sont maintenant potentiellement entre les mains de sociétés privées qui peuvent avoir des règles de sécurité très variables.
Il y a par ailleurs des atteintes à la sécurité qui ont été observées, des cas où de grandes bases de données de reconnaissance faciale détenues par des gouvernements ou des entreprises privées ont été révélées au public. Comme les empreintes faciales sont immuables — ce n'est pas comme un numéro de carte de crédit qu'on peut changer —, une fois que les données biométriques d'une personne sont rendues publiques et potentiellement utilisées à des fins d'identification, il y a un risque.
De même, on voit des entreprises, comme Walgreens, aux États-Unis, déployer une technologie de reconnaissance faciale permettant de détecter l'âge et le sexe d'un client pour lui montrer des publicités ou des produits ciblés. Il s'agit d'une autre tactique invasive qui pourrait susciter des inquiétudes quant au fait que les acheteurs et les consommateurs sont orientés vers des remises ou des produits en fonction de stéréotypes de genre, ce qui pourrait aggraver la ségrégation dans la société.
Pire encore, cette technologie est utilisée par des employeurs...
:
Nous nous préoccupons justement de l'utilisation croissante de la reconnaissance faciale et d'autres technologies biométriques dans les aéroports. Nous ne nous sommes pas penchés sur les activités de Nexus, en particulier, mais le même principe s'applique, par exemple, au système d'entrée global aux États-Unis.
Le problème, bien sûr, c'est que lorsque les gens sont obligés de fournir des empreintes faciales ou de se soumettre à un balayage de l'iris pour accéder à des services essentiels — aller à l'aéroport, traverser la frontière, entrer dans un bâtiment gouvernemental —, cela facilite le travail des sociétés de contrôle comme jamais auparavant. Ce ne sont pas des contextes auxquels les gens peuvent facilement se soustraire, donc la réglementation pourrait prévoir de véritables solutions de rechange en cas de refus. Ainsi, si l'on ne veut pas prouver son identité au moyen d'un balayage de l'iris, on aurait la possibilité de le faire d'une autre manière, avec le passeport, par exemple, ou une carte Nexus.
À l'aéroport ou à la frontière, parce que c'est un environnement tellement coercitif, les gens ne peuvent pas simplement choisir de s'en aller, donc c'est une grande préoccupation.
:
Il s'agit certainement d'une inquiétude valable et pertinente.
La liste des personnes interdites de vol représente un problème de longue date. On a proposé de créer des listes fondées sur la reconnaissance faciale avec des objectifs comparables. En fait, l'ASFC a dirigé un tel projet pilote pendant un certain temps, mais l'Agence a décidé de ne pas le mettre en œuvre tout de suite, je pense. Mais cela reste un projet pilote que l'Agence a dirigé, et c'est très problématique.
La réponse de l'ASFC est préoccupante. Par exemple, dans le cadre d'un reportage, CBC a tenté d'examiner les préjugés raciaux de l'un de ces systèmes de reconnaissance faciale. Lorsque CBC a demandé une ventilation plus détaillée des taux d'erreurs et des taux de préjugés raciaux… D'abord par l'entremise de demandes d'accès à l'information, il est apparu que l'ASFC ne savait pas, au moment de l'adoption de cette technologie, que ces problèmes étaient réels. Plus tard, l'Agence a répondu que la divulgation de ce type de données sur les erreurs posait des problèmes de sécurité nationale, ce qui n'est tout simplement pas le cas… En effet, dans d'autres pays, ces données sont accessibles au public et la loi exige même que ce soit le cas. Ce n'est donc pas une bonne approche.
Plus récemment, la situation a évolué, c'est‑à‑dire que l'ASFC a annoncé qu'elle tenterait de mettre en place un centre d'études biométriques au sein de son infrastructure, mais nous n'avons encore rien vu de concret.
:
Je vous remercie, monsieur le président.
J'aimerais saluer les autres membres du Comité qui sont ici aujourd'hui.
Nous abordons un sujet très important. Un grand nombre de Canadiens ont des préoccupations réelles et sincères à cet égard. Pendant que notre monde continue d'évoluer à un rythme effréné et que nous constatons que les préoccupations relatives à la protection de la vie privée ne cessent de s'accroître — tout en tenant compte du besoin d'assurer la sécurité des populations —, je pense que les Canadiens veulent avoir l'assurance que toutes les mesures de protection nécessaires sont mises en place pour protéger leurs droits individuels et leur droit à la vie privée.
Monsieur Israel, j'aimerais vous poser ma première question. Dans votre rapport, vous formulez plusieurs recommandations intéressantes quant à ce que vous souhaiteriez voir dans un cadre législatif relatif à la technologie de reconnaissance faciale — un cadre dont nous ne disposons pas actuellement. Dans votre rapport, vous indiquez que la nécessité d'un soutien législatif concerne les utilisations aux contrôles à la frontière qui s'appuient sur une forme de consentement, comme l'option de donner son consentement ou de le refuser.
Pensez-vous que toute utilisation de la technologie de reconnaissance faciale par les services de contrôle à la frontière devrait offrir l'option de donner son consentement ou de le refuser?
:
L'un des principaux avantages, c'est que cette loi nous a permis de tenir une entreprise comme Clearview responsable de la création d'une base de données contenant des centaines de millions d'empreintes faciales de personnes obtenues sans leur consentement et de la vente de cette base de données à des entreprises privées et à des organismes d'application de la loi à toutes sortes de fins.
Nous avons plaidé pour que d'autres États adoptent des lois sur la confidentialité des données biométriques et, en particulier, qu'ils y apportent des modifications, car la loi de l'Illinois est maintenant assez ancienne, et nous avons davantage de connaissances sur cette technologie et les risques qu'elle pose.
Parmi les recommandations que nous formulons à l'intention des États qui souhaitent adopter une loi comme la BIPA de l'Illinois, nous recommandons d'exiger clairement que les entreprises obtiennent un avis et un consentement écrit avant de collecter, d'utiliser ou de divulguer des renseignements qui permettent d'identifier une personne, et d'interdire aux entreprises de refuser des services aux personnes qui choisissent de ne pas donner leur consentement, afin d'éviter qu'elles doivent choisir entre accéder à un service ou ne pas y accéder si elles ne sont pas prêtes à fournir leurs renseignements biométriques.
Nous encourageons aussi fortement les législateurs à faire en sorte que toutes ces lois obligent les entreprises à supprimer les identifiants biométriques un an après la dernière interaction de la personne avec l'entreprise. Par exemple, si une personne a donné son consentement à la collecte de ses données biométriques pour accéder à un service, mais qu'elle n'interagit plus avec l'entreprise, cette entreprise ne devrait pas pouvoir conserver et accumuler une base de données constituée de ces données biométriques de nature délicate. Comme l'a mentionné M. Israel, il y a un risque d'atteinte à la vie privée. Nous en avons vu des exemples, et il n'est pas nécessaire que ces entreprises privées conservent ces données. Nous préconisons donc l'adoption d'une loi comme la BIPA de l'Illinois, mais aussi d'une version mise à jour.
Je suis très préoccupé. Le programme pilote a été un peu interrompu par la pandémie, et je ne sais pas avec quelle vigueur il progresse à l'heure actuelle. Je suis très préoccupé par l'idée d'utiliser la localisation de l'expérience de voyage pour encourager les gens à s'inscrire et à créer ce type de profils, sachant que ce sera ensuite utilisé contre eux, non seulement dans le cadre des contrôles aux frontières, où de nombreuses communautés marginalisées sont déjà très désavantagées, mais aussi ici et à l'étranger, dans d'autres pays qui finissent par mettre en oeuvre le même système. Ce système est destiné à être mondial. L'idée est également que ces systèmes soient ensuite utilisés par le secteur privé pour détecter les fraudes ou gérer l'identité dans les interactions avec les entreprises privées.
La reconnaissance faciale est un élément important. Toutes les erreurs qui sont commises vont, encore une fois, frapper plus lourdement les minorités visibles et les membres des communautés marginalisées. Ensuite, les autres mécanismes d'évaluation et de classement social qui sont inclus dans ce programme de vérification d'identité, qui se trouveront sur votre appareil et seront liés à votre reconnaissance faciale, ont également tendance à peser très lourdement et de manière disproportionnée sur les membres des communautés marginalisées.
En ce qui me concerne, je ne pense pas que c'est la voie à suivre.
:
Merci, monsieur le président.
Par votre entremise, j'aimerais vraiment remercier ces deux témoins. Ils ont été remarquables et je leur suis réellement reconnaissant de leurs réflexions.
Pour les deux témoins, si vous ne savez pas comment fonctionnent les comités à la Chambre des communes, nous devons en fait recevoir un témoignage écrit ou verbal pour pouvoir formuler des recommandations. Nous devons entendre des déclarations sur le sujet avant de pouvoir aller de l'avant.
J'aimerais aborder la question sous un angle différent. Je vais poser la question suivante aux deux témoins aujourd'hui.
Monsieur Israel, en réponse à M. Kurek, vous parliez de la transparence — ou plutôt de l'opacité — de ces systèmes de technologie de reconnaissance faciale, ou TRF, et de la façon dont ils prennent subrepticement des photos et identifient les gens. Je suppose que ma question est la suivante: l'un d'entre vous sait‑il s'il existe un registre des entreprises qui utilisent la technologie de reconnaissance faciale? Existe‑t‑il une liste quelque part d'entreprises, de gouvernements ou d'agences gouvernementales qui se livrent à la saisie d'images à des fins de TRF?