:
La séance est ouverte. Bienvenue à la 15
e séance du Comité permanent de l'accès à l'information, de la protection des renseignements personnels et de l'éthique de la Chambre des communes.
Conformément à l'alinéa 108(3)h) du Règlement et à la motion adoptée le lundi 13 décembre 2021, le Comité reprend son étude sur l'utilisation et les impacts de la technologie de reconnaissance faciale.
La réunion d'aujourd'hui se déroulera en mode hybride, conformément à l'ordre de la Chambre du 25 novembre 2021. Les députés sont présents en personne dans la salle et à distance par Zoom. Conformément à la directive du Bureau de régie interne du 10 mars 2022, toutes les personnes ici présentes doivent porter un masque, sauf lorsqu'elles sont assises à leur place pendant les délibérations.
Aux participants par vidéoconférence, veuillez cliquer sur l'icône du microphone pour activer votre micro. Veuillez le désactiver lorsque vous ne parlez pas.
Aux témoins qui participent pour la première fois, sachez que nous offrons des services d'interprétation. Au bas de votre écran, vous pouvez sélectionner l'option parquet, qui vous permet d'écouter dans les deux langues, ou l'une des options français ou anglais. Ceux qui sont dans la salle peuvent utiliser l'oreillette et sélectionner le canal qu'ils préfèrent.
Je rappelle à tous que les commentaires doivent être adressés à la présidence.
Les députés qui sont dans la salle sont invités à lever la main pour demander la parole. Ceux qui sont sur Zoom sont priés d'utiliser la fonction « lever la main ». La greffière et moi-même ferons de notre mieux pour gérer l'ordre des interventions. Nous vous remercions de votre patience et de votre compréhension.
Je souhaite la bienvenue à tous nos témoins. Nous accueillons ce matin quatre témoins, à savoir le professeur Rob Jenkins, de l'Université de York, M. Sanjay Khanna, conseiller stratégique et expert en prospective, Mme Angelina Wang, chercheuse diplômée en informatique, de l'Université Princeton, et Mme Elizabeth Anne Watkins, attachée de recherche au niveau postdoctoral, de l'Université de Princeton.
Nous allons commencer par M. Jenkins.
Vous avez cinq minutes pour votre exposé préliminaire.
Merci, monsieur le président et distingués membres du Comité.
Je m'appelle Rob Jenkins. Je suis professeur de psychologie à l'Université de York, au Royaume-Uni, et je vais aborder la question de la reconnaissance faciale du point de vue des sciences cognitives.
Je vais commencer par vous parler de ce qu'on attend de la reconnaissance faciale et de son exactitude et de la mesure dans laquelle les résultats réels sont à la hauteur de ces attentes.
Nos attentes sont principalement fondées sur notre expérience de la reconnaissance faciale dans la vie de tous les jours, et cette expérience peut être très trompeuse quand il est question de sécurité et de médecine légale.
Les visages que nous voyons la plupart du temps sont des visages familiers, c'est‑à‑dire les visages de personnes que nous connaissons et que nous voyons souvent, dont nos amis, les membres de notre famille et nos collègues. Les êtres humains savent très bien identifier des visages familiers. Nous les reconnaissons sans effort et avec précision, même dans de mauvaises conditions de visibilité ou sur des images de mauvaise qualité. Le fait que nous sachions reconnaître des visages dans notre vie sociale peut nous inciter à généraliser et à supposer que les êtres humains savent reconnaître des visages en général. Ce n'est pas le cas.
La reconnaissance faciale appliquée, employée, par exemple, dans les dépositions de témoins, la sécurité et la surveillance, et la comparaison de visages à des fins médicolégales, porte presque toujours sur des visages non familiers, c'est‑à‑dire des visages de personnes que nous ne connaissons pas et que nous n'avons jamais vues auparavant.
Les êtres humains sont étonnamment peu aptes à identifier des visages non familiers. C'est une tâche difficile caractérisée par de nombreuses erreurs, même dans des conditions de visibilité excellentes et sur des images de haute qualité. C'est ce que l'on constate non seulement parmi des personnes ordinaires choisies au hasard, mais aussi parmi des professionnels dûment formés qui ont de nombreuses années d'expérience dans ce genre de rôle, par exemple des douaniers et des policiers.
Il est impératif d'évaluer la technologie de reconnaissance faciale, ou TRF, dans le contexte de la reconnaissance de visages non familiers. Cela s'explique en partie par le fait que l'infrastructure actuelle de reconnaissance faciale repose sur la reconnaissance de visages non familiers par les êtres humains, faisant de la performance humaine un comparatif relatif, et en partie par le fait que, dans la pratique, la TRF est intégrée aux flux de tâches de reconnaissance faciale comprenant des opérateurs humains.
La reconnaissance de visages non familiers par les êtres humains, dont on sait qu'elle est source d'erreurs, demeure une partie intégrante des systèmes de reconnaissance faciale automatisés. Pour vous donner un exemple, dans de nombreuses applications de la TRF au domaine de la sécurité et au domaine médicolégal, une recherche automatisée dans la base de données permet d'obtenir une liste de candidats, mais ce sont des opérateurs humains qui, au final, choisissent les visages de la liste qu'ils vont comparer à la cible recherchée.
Selon le « Surveillance Camera Code of Practice » du Royaume-Uni, l'utilisation de la TRF devrait toujours être accompagnée d'une intervention humaine avant que soient prises des décisions susceptibles de nuire à l'intéressé. Le gouvernement fédéral australien a publiquement adopté un principe semblable de surveillance humaine, estimant que les décisions qui servent à identifier une personne ne devront jamais être prises uniquement par la technologie.
La surveillance humaine fournit des garanties importantes et un mécanisme d'imputabilité, mais elle impose également un seuil maximal à l'exactitude que les systèmes de reconnaissance faciale pourraient atteindre en principe. La technologie de reconnaissance faciale ne donne pas de résultats exacts à 100 %, mais, quand bien même elle le ferait, la surveillance humaine introduit l'erreur humaine dans le système. L'erreur humaine est courante dans ces tâches, mais il y a des façons de l'atténuer. Il faut déployer des mesures délibérées, par un recrutement ciblé ou par une formation fondée sur des données probantes, pour s'assurer que les personnes qui prennent part aux décisions liées à la reconnaissance faciale soient hautement qualifiées.
L'utilisation de la TRF dans les systèmes juridiques devrait être accompagnée d'une divulgation transparente des qualités, des limites et du fonctionnement de cette technologie.
Si la TRF doit être adoptée dans la pratique médicolégale, on aura besoin de nouveaux types de praticiens experts et de chercheurs pour concevoir, évaluer, superviser et expliquer les systèmes qui s'ensuivront. Comme ces systèmes intégreront la prise de décision humaine et un processus décisionnel s'appuyant sur l'intelligence artificielle, on aura besoin de toute une gamme d'expertises.
Merci.
:
Monsieur le président, merci beaucoup de me donner l'occasion de m'adresser à vous et aux membres du Comité. Je vais vous parler de la technologie de reconnaissance faciale du point de vue du sujet, de la société numérique et du gouvernement.
Je suis consultant en prospective stratégique, en planification de scénarios et en changement global, et professeur auxiliaire dans le cadre du programme de maîtrise en politique publique dans la société numérique de l'Université McMaster.
La planification de scénarios est une importante méthode prévisionnelle dans mon travail. Le Canada traverse la période la plus incertaine à laquelle il ait été confronté depuis le début de la période d'après-guerre, et la planification de scénarios peut aider les législateurs à orienter des stratégies et des politiques de résilience. À mon avis, les enjeux suivants sont importants en matière de reconnaissance faciale ou de « TRF ».
Premièrement, les gens sont visés par la TRF sans consentement éclairé ou par des moyens qu'ils ne comprennent pas. Deuxièmement, des sociétés de plus en plus inégalitaires comprennent des populations qui ne sont pas en mesure de défendre leurs intérêts concernant l'utilisation actuelle ou éventuelle de la TRF. Troisièmement, les législateurs seront toujours en retard sur l'actualité s'ils ne prennent pas le temps d'envisager les avenirs plausibles de la société numérique et d'examiner le rôle de nouvelles technologies comme la TRF.
Je vais parler de ces enjeux du point de vue du sujet, de la société et du gouvernement.
Du point de vue du sujet, le visage peut nous ouvrir des portes et nous en fermer. Nous avons des préjugés négatifs et positifs, implicites et explicites, selon toute une gamme de nuances en fonction de la façon dont nos visages sont perçus et d'autres facteurs liés à notre apparence. Cette réalité fondamentale façonne nos vies.
Dans un monde régi par la TRF, que signifierait être reconnu par des systèmes techniques dans lesquels la TRAF est intégrée?
Que se passerait‑il si la TRF était combinée à une analyse des sentiments permettant d'identifier rapidement les sentiments à des moments vulnérables où une personne pourrait être influencée ou touchée par une manipulation commerciale, sociale ou politique?
Que se passerait‑il si la TRF intégrée aux robots de sécurité permettait d'identifier quelqu'un comme représentant une menace sociale, politique ou de sécurité publique?
Que se passerait‑il si la TRF intégrée aux jeux de hasard ou à des services commerciaux permettait de viser quelqu'un comme une occasion d'affaires ou un passif transactionnel?
Les technologies associées à la TRF, comme les mégadonnées, l'apprentissage machine et l'intelligence artificielle, amplifient les risques et les possibilités liés à la TRF et à d'autres technologies biométriques. Certains accueillent favorablement la TRF, mais beaucoup de gens craignent d'être visés et surveillés. Si des droits sont violés, les gens ne sauront peut-être jamais comment ni pourquoi, les entreprises pourront décider de ne pas révéler les réponses, et il pourrait ne pas y avoir de consentement éclairé.
Dans ce cas, les personnes victimes de violation de leurs droits commerciaux, juridiques ou humains n'auraient pas de recours.
Du point de vue social, la société canadienne fait face à des défis sans précédent en matière numérique. Les inégalités sociales et raciales croissantes dans notre pays ont été accentuées par la pandémie. Les Canadiens subissent un stress chronique, et leur santé physique et mentale se détériore. La résilience sociale est compromise par la désinformation. Le Canada affronte des difficultés nouvelles et des menaces à l'ordre d'après-guerre. La crise climatique est un multiplicateur de menaces cooccurrent.
Malgré ces enjeux, les grandes entreprises de technologie profitent des occasions qui se présentent dans un contexte de risque sans précédent, ce qui leur a permis d'accroître leur influence sur le gouvernement et sur notre société numérique. C'est ainsi que quelques entreprises ont acquis un pouvoir considérable grâce à des valorisations de billions de dollars et plus, à une forte influence économique et au verrouillage de l'apprentissage machine et de l'expertise en intelligence artificielle.
Au moment où je vous parle, les grandes entreprises de technologie imaginent les prochaines utilisations de la TRF, notamment dans les entreprises, au gouvernement et dans le secteur industriel. Certaines d'entre elles examinent les menaces et les situations qui justifieraient une utilisation peut-être illégale aujourd'hui, mais susceptible d'être viable dans de nouvelles circonstances, comme un changement de gouvernement, une alerte de sécurité majeure ou des changements dans les lois du travail.
Du point de vue du gouvernement, une société confrontée à des perturbations constantes n'est pas considérée comme une société sûre pour les Canadiens. Les préjudices réels et éventuels pour les personnes et les risques et possibilités pour les entreprises et le gouvernement mettent l'accent sur l'importance d'une gouvernance efficace. À une époque où les risques sont sans précédent, les parlementaires ont la responsabilité de donner un sens à la transformation sociétale et d'envisager les avenirs plausibles de la TRF dans le contexte des systèmes de surveillance sophistiqués utilisés par des villes « intelligentes », de la croissance de la richesse et de l'inégalité des revenus, et des menaces contre les droits des enfants et des groupes marginalisés.
L'élaboration d'une loi et d'une politique efficaces en matière de TRF devra tenir compte des avenirs plausibles.
Je suis conscient du fait que pour vous, législateurs, c'est une tâche difficile, compte tenu des horizons souvent à court terme des élus et des partis. Cependant, une réflexion prospective en complément de l'élaboration d'une loi permettra de tenir compte des conséquences nouvelles et souvent imprévues de technologies aussi puissantes que la TRF, qui est inextricablement liée aux progrès de la vision informatique, aux mégadonnées, à l'interaction entre les ordinateurs et les êtres humains, à l'apprentissage machine, à l'intelligence artificielle et à la robotique.
:
Bonjour. Je m'appelle Angelina Wang et je suis chercheuse au département d'informatique de l'Université Princeton. Je vous remercie de m'avoir invitée à témoigner aujourd'hui.
Je vais vous donner un aperçu de la technologie de reconnaissance faciale et vous décrire quelques problèmes techniques parmi les plus convaincants justifiant le non-déploiement de cette technologie.
Aujourd'hui, diverses tâches de reconnaissance faciale sont couramment exécutées par un modèle qui a été entraîné à l'apprentissage automatique. Cela veut dire qu'au lieu d'appliquer des règles à programmation manuelle — comme celle qui dit que deux personnes ont plus de chance d'être une même personne si elles ont les yeux de la même couleur —, on fournit au modèle un vaste ensemble de données de visages annotées à partir desquelles on lui demande d'apprendre. Les annotations comprennent notamment des étiquettes qui indiquent que les images représentent la même personne ainsi que l'emplacement du visage dans chaque image. Ces données sont généralement recueillies sur des plateformes de production participative comme Amazon Mechanical Turk, connue pour faire appel à des groupes de travailleurs homogènes et pour offrir des conditions de travail désavantageuses. L'ordre de grandeur de ces ensembles de données est très vaste, variant entre quelque 10 000 images jusqu'à plusieurs millions. La plupart de ces ensembles de données de visages proviennent simplement d'Internet, notamment de sites comme Flickr. Les personnes dont le visage se retrouve dans les ensembles de données ne sont généralement pas au courant que leur image est utilisée à cette fin, et peuvent considérer qu'il s'agit là d'une violation de leur vie privée. Le modèle utilise ces ensembles de données massifs pour apprendre automatiquement comment exécuter des tâches de reconnaissance faciale.
Il convient de souligner qu'on fait beaucoup appel à la pseudoscience pour d'autres tâches de reconnaissance faciale, notamment pour détecter le genre, les émotions et même l'orientation sexuelle et la criminalité. Ce travail a été largement critiqué, à juste titre, parce qu'il s'agit de caractéristiques qui ne sont pas visuellement perceptibles.
Quant aux utilisations de la reconnaissance faciale qui pourraient sembler plus légitimes, il a été largement démontré que ces modèles faisaient une discrimination raciale et sexiste. L'ouvrage le plus notoire à avoir fait la lumière sur ces pratiques est celui de Joy Buolamwini et Timnit Getru intitulé Gender Shades. Les autrices ont fait une recherche sur la prédiction du genre à partir du visage, une tâche qui ne devrait normalement pas être exécutée, et ont relevé des lacunes très graves dans ces systèmes. Elles ont démontré que derrière le taux élevé d'exactitude du modèle se cachaient des mesures de rendement très différentes d'un groupe démographique à l'autre. En fait, l'écart le plus important est une marge de 34,4 % entre des femmes à peau foncée et des hommes à peau plus claire. Le rapport démontre que de nombreux modèles de reconnaissance faciale produisaient de moins bons résultats pour les personnes à peau foncée, ce qui explique les nombreuses erreurs d'identification d'hommes noirs aux États-Unis qui ont mené à des arrestations injustifiées.
Il existe des solutions pour corriger ces problèmes de distorsion, par exemple la collecte d'ensembles de données plus diversifiées et plus inclusives et la conduite d'analyses désagrégées pour déterminer les taux d'exactitude entre les divers groupes démographiques, plutôt que le taux d'exactitude de l'ensemble des données. La collecte de ces divers ensembles de données est en soi une forme d'exploitation des groupes marginalisés. La collecte de leurs données biométriques constitue une violation de leur vie privée.
Même s'il est possible, en théorie, d'éliminer ces distorsions au moyen de la technologie actuelle, il existe deux problèmes de taille que la science actuelle ne peut encore résoudre. Ces problèmes sont liés à la fragilité et aux possibilités d'interprétation des modèles. Par fragilité, je veux parler des moyens connus permettant à des utilisateurs malveillants d'altérer les actuels modèles de reconnaissance faciale pour les contourner et en fausser les résultats. Les cyberattaques en sont un exemple. Elles permettent à quelqu'un de manipuler le visage présenté à un modèle pour que celui‑ci ne soit plus capable de l'identifier ou pour qu'il le confonde avec celui d'une personne tout à fait différente. Des recherches ont démontré que le simple fait de mettre une paire de lunettes sur un visage pouvait tromper le modèle et l'amener à penser qu'il s'agit d'une personne tout à fait différente.
L'autre problème en est un d'interprétation. Comme je l'ai déjà dit, ces modèles apprennent leurs propres ensembles de caractéristiques et de règles à partir des ensembles de données qui leur sont proposés. Il est extrêmement difficile de découvrir l'ensemble précis de règles sur lesquelles s'appuie le modèle pour prendre ses décisions; l'ingénieur qui a construit le modèle est même souvent incapable de comprendre pourquoi son modèle fait certaines classifications. Cela veut dire que si un modèle de reconnaissance faciale classifie mal une personne, il n'existe pas de moyens efficaces pour contester cette décision et pour savoir sur quoi elle est fondée. Les modèles s'appuient souvent sur ce qu'on appelle des « corrélations fallacieuses », par exemple lorsqu'un modèle utilise une corrélation qui ne correspond à aucune donnée pour faire une classification. À titre d'exemple, les modèles de diagnostics médicaux peuvent faire une classification en s'appuyant sur un artefact d'image produit par un appareil à rayons X, au lieu de s'appuyer sur le contenu précis de l'image. Je crois qu'il est dangereux de déployer des modèles dont nous ne comprenons pas bien le fonctionnement interne dans des contextes aussi délicats que la reconnaissance faciale.
En terminant, je tiens à souligner que les technologies de reconnaissance faciale sont des dispositifs de surveillance qui peuvent être déployés à un coût extrêmement bas et leur prolifération rapide les rend d'autant plus dangereux. Notre visage est un élément central de notre identité et il ne change généralement pas au fil des années. Ce type de surveillance est donc très préoccupant. Je ne vous ai présenté que quelques objections d'ordre technique à l'égard de la technologie de reconnaissance faciale. À l'instar de nombreux autres détracteurs de cette technologie, je crois que les énormes risques qu'elle pose sont de loin supérieurs aux avantages que nous pourrions en tirer.
Je vous remercie.
:
Je vous remercie de me donner l'occasion de m'exprimer aujourd'hui.
Je m'appelle Elizabeth Anne Watkins et je suis titulaire d'une bourse de recherche postdoctorale au Center for Information Technology. Je fais également partie du groupe d'interaction humain-ordinateur de l'Université Princeton, et je suis affiliée à l'institut de recherche Data & Society de New York.
Je témoigne aujourd'hui à titre personnel pour vous faire part de mes inquiétudes concernant l'utilisation, par le secteur privé, de la technologie de vérification faciale auprès de travailleurs. Ces inquiétudes découlent de la recherche que j'ai effectuée, en tant que spécialiste des sciences sociales, sur les répercussions de l'IA dans des contextes de travail.
Mes observations ont un double objectif: premièrement, je veux sensibiliser le Comité à une technologie de reconnaissance faciale qui a une fonction distincte, la vérification faciale. Deuxièmement, je veux l'inciter à réfléchir au problème que pose l'intégration de ces deux technologies dans des contextes sociotechniques, soit le fait d'appliquer ces outils à des êtres humains et à des situations du monde réel, et à réfléchir aussi aux importantes répercussions de cette intégration sur la vie privée et la sécurité de gens.
Je vais commencer par définir et décrire la vérification faciale. Alors que la reconnaissance faciale est un système 1:n, ce qui veut dire qu'il trouve et identifie des personnes à partir de flux de données provenant de caméras représentant un grand nombre de visages, souvent à l'insu des personnes photographiées, la vérification faciale, bien qu'elle découle de la technologie de reconnaissance faciale, est utilisée de manière différente. Il s'agit d'un système de jumelage 1:1, beaucoup plus intrusif et rapproché, où le visage d'une personne placée directement devant la caméra est apparié à celui qui est déjà intégré à l'appareil ou au compte numérique auquel la personne veut avoir accès. Si le système voit votre visage et détecte une correspondance avec le visage déjà intégré à l'appareil ou au compte, l'accès vous est alors accordé. Si la correspondance ne peut être vérifiée, l'accès ne sera pas déverrouillé. Si vous utilisez le système Face ID ou un iPhone, par exemple, vous savez déjà ce qu'est la vérification faciale.
Je vais maintenant m'attarder au contexte sociotechnique et vous expliquer où cette technologie est intégrée, comment et par qui. Je vais surtout parler du contexte de travail. La vérification faciale est de plus en plus utilisée dans les milieux de travail, en particulier dans celui du travail à la demande et du travail précaire. Dans de nombreux États américains, les livreurs d'Amazon, les chauffeurs d'Uber et les préposés aux soins à domicile sont déjà obligés de se soumettre à la vérification faciale pour prouver leur identité et être autorisés à travailler. Cela veut dire que la personne doit s'assurer que son visage sera visible et correspondra à la photo associée au compte. En général, les travailleurs doivent se prêter à cet exercice non pas une seule fois, mais à répétition.
Le Comité a déjà été informé des distorsions, des échecs et des injustices intrinsèques de la reconnaissance faciale. Je suis ici pour l'exhorter à réfléchir également aux préjudices causés par l'utilisation de la vérification faciale au travail.
Dans le cadre de ma recherche, j'ai recueilli des données auprès de travailleurs qui m'ont décrit un éventail de préjudices. Ils se demandent avec inquiétude combien de temps et où leur photo sera stockée et à qui elle sera communiquée. Dans certains cas, des travailleurs sont forcés de prendre de multiples photos d'eux-mêmes avant que le système trouve la correspondance. Dans d'autres, on leur interdit, par erreur, d'avoir accès à leur compte parce que le système ne trouve pas de correspondance. Ils doivent trouver du temps pour se rendre aux centres de service à la clientèle et attendre des heures ou des jours qu'une vraie personne corrige ces erreurs. Des travailleurs m'ont raconté qu'ils devaient parfois sortir de leur automobile dans des stationnements non éclairés et s'accroupir devant les phares de leur auto pour que le système ait assez de lumière pour les voir. En cas de panne du système de vérification faciale, il incombe alors aux travailleurs de créer et de maintenir les conditions requises pour que le système puisse produire un résultat.
L'utilisation de la reconnaissance faciale par des organismes étatiques comme les services de police fait l'objet d'une surveillance croissante, mais l'utilisation de la vérification faciale par des entreprises privées à l'endroit de leurs travailleurs n'est pas réglementée. J'implore le Comité de réfléchir à ces questions préoccupantes et à des mesures susceptibles de protéger les travailleurs contre tout préjugé, échec et menace à leur sécurité, que ce soit par le biais d'une réglementation de la biométrie, d'une réglementation de l'IA, du droit du travail ou d'une combinaison de ces moyens.
Je suis d'accord avec Cynthia Khoo, que vous avez entendue récemment, pour dire qu'on ne peut pas demander à la technologie de reconnaissance faciale d'assumer les responsabilités légales et morales que les humains sont déjà en train de lui refiler à l'égard de la vie des personnes vulnérables. Un moratoire est la seule réponse réglementaire moralement acceptable.
D'ici à ce que cet objectif soit atteint, il y a lieu d'imposer des mesures en matière de responsabilité et de transparence à l'égard non seulement de ces outils, mais également des entreprises qui prétendent vouloir se protéger contre les personnes frauduleuses et malveillantes. Une intervention réglementaire pourrait obliger ces entreprises à produire des données à l'appui de leurs prétentions aux fins d'examen public et les obliger à évaluer l'incidence algorithmique. Il faudrait notamment consulter des travailleurs de groupes marginalisés pour savoir comment ils sont touchés. D'autres mesures pourraient également obliger les entreprises à fournir aux travailleurs l'accès à de multiples formes de vérification d'identité pour faire en sorte que les personnes dont le corps ou l'environnement ne peut être reconnu par les systèmes de vérification faciale puissent quand même avoir accès à leur gagne-pain.
Sincèrement, ces technologies soulèvent de nombreuses questions: qui est protégé, à quoi devrait ressembler la sécurité et à qui incombe la responsabilité d'atteindre cet objectif.
Je vous remercie.
:
Merci beaucoup, monsieur le président.
Merci à tous les témoins d'être là. Je leur en suis reconnaissant.
Comme j'ai des questions à poser à plusieurs témoins, je les invite à être concis et directs.
Monsieur Jenkins, mon collègue, M. Williams, vous a demandé de comparer les empreintes digitales à la reconnaissance faciale. D'après ce que vous avez dit, vous, Mme Wang et d'autres témoins, ce n'est pas tout à fait la même chose.
Pouvez-vous comparer les deux sous l'angle de l'exactitude? Comment la technologie de reconnaissance faciale est-elle utilisée, par opposition aux empreintes digitales? Je présume qu'il s'agit au fond d'essayer de trouver une correspondance entre deux ensembles de données. Est‑ce exact?
Madame Wang, merci beaucoup de votre exposé. Si je peux me permettre, vous n'avez présenté au Comité que quelques-uns des problèmes que vos recherches ont permis de déceler. Y en a‑t‑il d'autres dont vous voudriez entretenir le Comité? Nous disons souvent entre nous que nous ne pouvons pas faire rapport de ce que nous n'entendons pas ou ne lisons pas. Nous vous saurions gré de bien vouloir nous faire parvenir, si vous en avez le temps, d'autres exemples de ce que vous considérez comme les limites de la reconnaissance faciale.
Je reviens aux deux grands problèmes que vous avez cernés, soit la fragilité et les possibilités d'interprétation.
Pourriez-vous nous en dire un peu plus sur la fragilité du système? Des gens malveillants pourraient le contourner, mais il y a aussi la vulnérabilité des gens qui n'ont pas l'intention de le contourner, mais qui sont quand même victimes de distorsions. Vous avez parlé de l'apprentissage automatique et du fait que cela ne fait qu'atténuer les préjugés qui existeraient dans la société en général.
Ai‑je raison?
:
Merci beaucoup. J'ai trois principales recommandations.
La première serait de décréter un moratoire. La technologie est trop peu fiable, vu la responsabilité à assumer à l’égard de l’avenir et des moyens de subsistance d’êtres humains.
Mes deux autres recommandations portent sur la responsabilité et la transparence.
Nous devons mieux comprendre comment ces outils sont utilisés, où les données sont stockées, comment les décisions sont prises en fonction de celles‑ci, si des humains sont impliqués ou non, et comment ces décisions sont intégrées dans les structures organisationnelles bureaucratiques plus vastes entourant la prise de décisions. Il serait fort utile de disposer de documents qui nous donneraient un aperçu de ces processus, comme les évaluations d'impact algorithmique.
De plus, nous avons besoin de certaines interventions réglementaires pour assurer la reddition de comptes et établir le genre de relations entre le gouvernement, les intervenants privés et l'intérêt public qui permettraient de répondre aux besoins des plus vulnérables.
Madame Watkins, dans un rapport intitulé Now you see me : Advancing data protection and privacy for Police Use of Facial Recognition in Canada, j'ai relevé que la députée libérale danoise Karen Melchior avait déclaré, au cours de débats parlementaires, que le profilage prédictif, l'évaluation des risques liés à l'intelligence artificielle et les systèmes automatisés de prise de décisions sont des « armes de destruction mathématiques », car ils sont aussi dangereux pour notre démocratie que les bombes nucléaires le sont pour les créatures vivantes et pour la vie.
Compte tenu de l'utilisation de l'expression « armes de destruction mathématiques », vous avez souligné qu'il y aura une reddition de comptes importante dans le secteur privé. Je remarque qu'un premier syndicat vient d'être créé chez Amazon. J'espère qu'il y aura des discussions à ce sujet.
Quelles mesures de protection devrions-nous imposer au secteur privé pour veiller à ce que ces « armes de destruction mathématiques » ne soient pas utilisées contre la classe ouvrière?
:
C'est une excellente question. Le secteur privé est souvent sous-réglementé lorsqu'il s'agit de ce genre de technologies.
La Biometric Information Privacy Act de l'État de l'Illinois est un modèle très intéressant. On a établi que, plutôt que d'avoir un formulaire d'avis et de consentement, où les utilisateurs doivent refuser que leurs renseignements soient utilisés, on doit obtenir le consentement des utilisateurs avant d'utiliser quelque renseignement biométrique que ce soit.
La définition des renseignements biométriques dans le libellé de cette loi est très vague. De mémoire, je dirais qu'elle comprend les empreintes faciales et vocales. Cette loi a été utilisée pour engager des poursuites contre des entreprises privées comme Facebook, par exemple, pour avoir utilisé la reconnaissance faciale dans leurs processus d'identification avec photo.
Il serait donc très avantageux d'examiner ce genre de loi, qui remet le contrôle des renseignements biométriques entre les mains des utilisateurs dès le départ, lorsque viendra le temps de prendre des mesures de protection à l'égard du secteur privé.
Bien que l'intelligence artificielle, l'apprentissage automatique et les technologies algorithmiques semblent être très futuristes, très novatrices et tout à fait nouvelles, elles sont fondées sur des données qui ont été recueillies au fil des ans et des décennies, reflétant des choses comme les préjugés, le racisme et le sexisme institutionnels.
Ces données n'ont pas été inventées. Elles proviennent des institutions qui ont exercé une surveillance excessive de certaines collectivités, par exemple. Ce type de processus produit ensuite des ensembles de données qui donnent un certain portrait d'un criminel, alors que nous savons que cela ne reflète pas la réalité. C'est ainsi que les institutions perçoivent les populations.
Ensuite, l'intelligence artificielle et l'apprentissage machine utilisent ces ensembles de données pour apprendre et pour découvrir le monde. Ainsi, plutôt que d'être innovants et futuristes, l'IA, l'apprentissage automatique et les processus algorithmiques sont en fait très conservateurs et profondément archaïques, et ils perpétuent les préjugés dont nous, en tant que société, devrions nous débarrasser et aller de l'avant.
Je remercie les témoins de nous faire profiter de leur expertise. Permettez-moi d'abord un bref commentaire. Comme l'ont souligné plusieurs de mes collègues, selon les procédures de ce comité, seules les preuves présentées peuvent se retrouver dans le rapport. Donc, si vous avez d'autres documents, réflexions ou preuves que vous jugez utiles pour le comité, y compris vos recommandations, n'hésitez pas à nous les faire parvenir. Cela devient incroyablement utile lorsque nous préparons nos rapports. Cette offre s'adresse à tout le monde, si vous désirez aller plus loin que vos réponses aux questions que nous vous posons aujourd'hui.
Pour faire suite à une question posée par M. Green, monsieur Khanna, êtes-vous en faveur de l'imposition d'un moratoire sur le TRAF jusqu'à ce qu'il y ait un cadre en place?
:
D'accord. Je voulais simplement connaître votre point de vue à ce sujet. Je vous remercie.
Je pense que le Comité, dans le cadre de cette étude et d'autres, a beaucoup entendu parler du concept de consentement. Lorsque vous utilisez la reconnaissance faciale sur un iPhone, un appareil Android ou un ordinateur, vous consentez à ce que votre photo soit utilisée pour ouvrir une session et ainsi de suite. C'est très, très différent de l'utilisation répandue de la recherche d'images sur Internet et la prise de décisions par les forces de l'ordre. C'est une différence importante.
Monsieur Khanna, en 2016, on a rapporté que le gouvernement fédéral avait testé la reconnaissance faciale sur des millions de voyageurs à l'aéroport international Pearson de Toronto. Quelles pourraient être les conséquences négatives pour ces quelques millions de voyageurs qui ont franchi la frontière à l'aérogare 3 de Pearson entre les mois de juillet et décembre 2016, lorsque ce projet pilote était en cours? Pourriez-vous nous décrire certaines de ces préoccupations à l'aide d'un exemple très concret?
Dans le même ordre d'idées, Mme Watkins a mentionné les avantages de la vérification individuelle du visage, par opposition à la reconnaissance faciale générale. Il y a donc un certain avantage à utiliser ces technologies. Comme M. Khanna l'a mentionné, en tant que parlementaires, nous devons être conscients du fait que nous prenons du retard. Nous n'arrivons pas à suivre les avancées technologiques. Malgré cela, y a‑t‑il moyen d'établir des barrières législatives fondamentales à ce stade‑ci, qu'elles visent à protéger la vie privée ou à empêcher le moissonnage de plateformes ouvertes, qui constitueraient un filet de sécurité, pour commencer? Nous aurons constamment à nous pencher sur des technologies émergentes et novatrices, mais y a‑t‑il des principes clés que nous devrions envisager d'introduire dans une loi de protection?
Je me demande si M. Khanna ou Mme Watkins ont des suggestions à faire.
Par votre entremise, monsieur le président, je voudrais poser une autre question ouverte.
On parle beaucoup de moratoire. À mes yeux, la principale question porte sur la façon de le mettre en œuvre. Ce qui me préoccupe le plus, c'est le rapport entre les mesures d'application privées et publiques, le fait qu'il y a des contrats établis avec de tierces parties et qu'il existe actuellement une échappatoire.
Je vous demande, madame Watkins, monsieur Khanna ou monsieur Jenkins, quelles seraient les principales barrières à établir dans un moratoire?
:
Merci, monsieur le président.
Je tiens à remercier nos témoins de leur temps et de l'expertise qu'ils apportent à cette importante étude que nous entreprenons.
Je voudrais poser aux quatre témoins une question qui fait suite à celle de M. Green.
Si vous prenez l'intelligence artificielle et l'apprentissage automatique, puis les associez à la technologie de la reconnaissance faciale et son éventuelle application dans le système de justice pénale, est‑ce que cela ne compromettrait pas sérieusement nos droits constitutionnels, les libertés garanties par la Charte au Canada, pour peu qu'on s'en serve comme outil d'application du Code criminel?
Je vais commencer avec Mme Wang.
À mesure que nous avançons et que nous entendons clairement les recommandations concernant la reddition de comptes, la transparence, la mise en place d’un moratoire jusqu’à ce que nous ayons une loi en place, comment allons-nous, en tant que parlementaires, mettre de l'avant les mesures de protection appropriées pour s’assurer que la reconnaissance faciale est utilisée correctement, que les préjugés sont éliminés, que la discrimination est éliminée ou, à tout le moins, minimisée, afin que nous puissions inscrire dans le Code criminel, la Loi sur la protection des renseignements personnels, la LPRPDE, les garde-fous nécessaires pour nous assurer de ne pas trop compter sur la technologie de reconnaissance faciale, tout en gardant à l’esprit qu’il y aura toujours des problèmes liés à la sécurité publique et à la sécurité nationale?
Je vais commencer par M. Khanna.
Je pense que chaque modèle est élaboré dans le contexte de l'étude sur laquelle il repose, et les modèles développés en Asie ont donc également beaucoup de biais. Il s’agit simplement de biais différents de ceux des modèles élaborés par des Canadiens ou des Américains.
Par exemple, beaucoup d’outils de reconnaissance d’objets ont démontré qu’ils ne sont pas aussi bons pour reconnaître les mêmes objets — par exemple, le savon — provenant d’un pays différent de celui d’où vient l’ensemble de données.
Il y a des façons de contourner ce problème, mais il faut beaucoup de gens différents qui ont des points de vue différents, parce qu’il n’y a tout simplement pas de point de vue universel. Je pense qu’il n’est jamais possible d’éliminer tous les préjugés dans le modèle, parce que les préjugés sont eux-mêmes très liés à un contexte sociétal particulier.
:
Merci, monsieur le président.
Je vais enchaîner sur certaines des questions de ma collègue, Mme Hepfner.
Monsieur Jenkins, encore une fois, vous avez écrit au sujet du « other-race effect », qui est une théorie selon laquelle on se souvient mieux des visages de sa propre race que des visages d’autres races. Nous savons que la technologie de reconnaissance faciale est très précise pour les visages blancs, mais que sa précision diminue pour les autres couleurs de peau.
Cela pourrait‑il être dû à l’effet de ce biais sur les programmeurs, essentiellement une équipe de programmation majoritairement blanche créant une IA qui reconnaît mieux les visages blancs? Le même biais s’appliquerait‑il à une IA de reconnaissance faciale développée par une équipe de programmation majoritairement noire, par exemple? Que révèlent vos recherches et que constatez-vous dans vos études?
:
Merci, monsieur le président.
Merci à tous nos témoins d’avoir pris le temps de venir nous rencontrer aujourd’hui.
Ma question s'adresse à qui voudra y répondre.
D’après les réponses que vous avez données à la question précédente de M. Green, il semble qu’il faille beaucoup de lois avant que la TRF soit largement utilisée.
Mes questions viennent de Richmond, en Colombie-Britannique. On y trouve une forte population d’Asie du Sud et d’Asie. Nous avons appris, d’un autre expert qui s’est joint à nous, que le SPV utilise la TRF sans beaucoup de supervision.
Savez-vous si des organismes d’application de la loi de la Colombie-Britannique utilisent la TRF?
Monsieur Khanna, êtes-vous au courant de cela?
:
Merci. Essentiellement, dans ce cas‑ci, les lois sur la protection des renseignements personnels et de la vie privée sont en jeu, et rien n'est noir ou blanc, on ne peut plus choisir d'en faire partie ou non. Notre image est là, toute cuite, comme vous l'avez dit, monsieur Jenkins.
Dans ce cas, nous voyons que les entreprises de médias sociaux, par exemple, ou d'autres plateformes intègrent ces algorithmes, cette intelligence artificielle, pour faciliter le magasinage. Elles achètent des ensembles de données pour que les entreprises puissent acheter leurs clients, en quelque sorte, afin d'affiner leur publicité. Serait‑il possible, selon vous, d'ajouter des règles dans une éventuelle déclaration des droits pour protéger les Canadiens de la vente de leurs données à ces entreprises?
Est‑ce que l'un de vous voudrait répondre? Pardonnez-moi, je ne sais pas à qui m'adresser. C'est une question complexe.
:
Ce serait très apprécié.
J'ai une question à poser. Dans les exemples présentés aujourd'hui, je suppose que l'utilisation la plus « bénigne », si l'on peut dire, de la technologie de reconnaissance faciale, ou l'une des utilisations les plus bénignes dont on a parlé, est celle que beaucoup d'entre nous connaissent. C'est la reconnaissance faciale utilisée pour déverrouiller un iPhone ou un appareil mobile. La personne consentit à cette utilisation en fournissant une photo d'elle-même à la sécurité biométrique de son téléphone. Personnellement, je trouve qu'une empreinte digitale est beaucoup plus pratique, plus facile à utiliser et plus fiable qu'une photo, si l'appareil le permet.
Si nous avons là une utilisation que ce groupe et les membres du Comité n'hésitent pas à appuyer, voyez-vous des problèmes émerger, même à ce niveau, si le consommateur consent facilement, ou du moins relativement facilement, à ce type d'utilisation?
Je vais demander à chacun de nos témoins de présenter brièvement son opinion à ce sujet. Serait‑ce une utilisation acceptable de cette technologie? Inclurait‑on cela dans les moratoires que certains demandent?
Je vais demander d'abord à Mme Watkins de répondre brièvement.