:
Bienvenue à la 12
e séance du Comité permanent de l'accès à l'information, de la protection des renseignements personnels et de l'éthique de la Chambre des communes.
Conformément à l'alinéa 108(3)h) du Règlement et à la motion adoptée par le Comité le lundi 13 décembre 2021, le Comité poursuit son étude sur l'utilisation et les impacts de la technologie de reconnaissance faciale.
La réunion d'aujourd'hui se tient suivant une formule hybride, conformément à l'ordre de la Chambre adopté par le 25 novembre 2021. Des députés sont présents sur place et d'autres participent à distance au moyen de l'application Zoom. Sachez que la diffusion Web montrera toujours la personne qui parle, et non l'ensemble du Comité.
Je rappelle aux députés qui sont dans la salle que les règles habituelles de santé publique continuent de s'appliquer. Comme vous les avez entendues à plusieurs reprises, je ne vais pas les répéter, mais je vous invite néanmoins à les respecter.
Je vous rappelle également que vous ne pouvez pas faire de capture d'écran ni de photo de votre écran. Quand vous avez la parole, ralentissez le débit et articulez bien pour que les interprètes puissent vous suivre. Si vous n'avez pas la parole, mettez votre microphone en sourdine. Enfin, je demanderais aux députés et aux témoins de toujours s'adresser à la présidence.
J'aimerais maintenant souhaiter la bienvenue à nos témoins d'aujourd'hui. Nous recevons Mme Alex LaPlante, directrice principale, Engagement produit et commercial, de Borealis AI. Nous accueillons également Mme Brenda McPhail, directrice du Programme de la vie privée, de technologie et de surveillance au sein de l'Association canadienne des libertés civiles. Il y a ensuite M. Françoys Labonté, président-directeur général du Centre de recherche informatique de Montréal. Enfin, nous accueillons M. Tim McSorley, coordinateur national de la Coalition pour la surveillance internationale des libertés civiles.
Avant de céder la parole aux témoins, pour la gouverne des membres du Comité, j'ai décidé de réunir les témoins en seul groupe afin de réduire le plus possible le temps que nous perdons à passer d'un groupe à l'autre. Nous suivrons l'ordre habituel pour les séries de questions, et il y aura des tours supplémentaires, si le temps le permet, selon la formule prescrite pour l'ordre et la durée des interventions.
Sur ce, je donne la parole à nos premiers témoins, de Borealis AI.
Madame LaPlante, allez‑y.
:
Je vous remercie, monsieur le président.
Je tiens à remercier le Comité de m'avoir invitée à témoigner au sujet de l'utilisation et des impacts de la technologie de reconnaissance faciale.
Je m'appelle donc Alex LaPlante. J'occupe le poste de directrice principale chez Borealis AI, qui est le laboratoire de recherche et de développement de RBC pour l'intelligence artificielle. Les opinions que je m'apprête à exprimer aujourd'hui n'engagent que moi et ne reflètent pas le point de vue de Borealis AI, de RBC ou de toute autre institution à laquelle je suis affiliée.
J'ai passé les 15 dernières années à élaborer et à mettre en œuvre des solutions d'analyse avancée et d'intelligence artificielle à des fins universitaires et commerciales, et j'ai vu les résultats positifs que l'intelligence artificielle peut produire. Toutefois, je suis également très consciente d'une chose: si nous ne prenons pas soin d'évaluer correctement l'application, le développement et la gouvernance de l'intelligence artificielle, celle‑ci peut avoir des effets négatifs sur les utilisateurs finaux, perpétuer et même amplifier la discrimination et les préjugés envers les communautés racisées et les femmes, et conduire à une utilisation non éthique des données et à des atteintes au droit à la vie privée.
Je me concentrerai principalement sur deux aspects: d'abord, la protection des données et, ensuite, la qualité des données et la performance algorithmique. Je conclurai en faisant des recommandations sur la gouvernance de cette technologie.
Les données biométriques font partie des données les plus sensibles qui existent. Le respect de la vie privée est donc primordial quand vient le temps de les recueillir, de les utiliser et de les entreposer en toute sécurité. Or, dans plusieurs cas, des données biométriques ont été recueillies et utilisées sans le consentement des personnes ou à leur insu. Songeons notamment à Clearview AI, qui a bafoué le droit à la vie privée des gens en mettant ces derniers à la merci de systèmes d'intelligence artificielle non réglementés et non validés. Cette situation est particulièrement préoccupante dans les cas d'utilisation à haut risque comme l'identification des criminels. Il y a également eu des cas de détournement d'usage, c'est‑à‑dire lorsque des entreprises obtiennent le consentement pour recueillir des données biométriques pour un usage particulier, mais qu'elles les utilisent ensuite à d'autres fins que celles initialement prévues.
Les meilleurs systèmes de reconnaissance faciale peuvent atteindre des taux de précision de 99,9 % et donner des résultats uniformes auprès de tous les groupes démographiques. Cependant, tous les algorithmes ne sont pas égaux et, dans certains cas, les taux de faux positifs peuvent varier par des facteurs de 10 jusqu'à même 100 pour les populations racisées et les femmes. Cet écart au chapitre de la performance est directement lié au manque de données représentatives et de haute qualité.
Parmi les domaines de recherche en matière d'intelligence artificielle, il y en a un qui mérite d'être souligné dans le contexte de la technologie de reconnaissance faciale: la robustesse antagoniste. C'est la pierre angulaire de pratiques comme le camouflage, c'est‑à‑dire des procédés qui visent à déjouer les technologies de reconnaissance faciale. Cela peut se faire par des manipulations physiques comme l'obscurcissement des traits du visage ou, de façon plus discrète, par des modifications apportées aux photos de visages, modifications qui sont indiscernables à l'œil humain, mais qui font en sorte que les photos ne sont plus identifiables.
Les organismes d'application de la loi au Canada et à l'étranger ont utilisé des technologies fondées sur des données non vérifiées, extraites du Web, qui peuvent être facilement manipulées de manière indétectable, sans aucun accès direct aux données sources. En l'absence d'une surveillance et d'une réglementation appropriées, ces entreprises peuvent facilement manipuler leurs données pour définir qui peut ou ne peut pas être identifié au moyen de leurs systèmes.
Au‑delà des problèmes de qualité des données, la technologie de reconnaissance faciale, comme tout système d'intelligence artificielle à haut risque, devrait faire l'objet d'une validation approfondie afin que ses limites soient bien comprises et prises en compte lorsqu'elle est transposée dans le monde réel. Malheureusement, bon nombre des outils de reconnaissance faciale qui se trouvent sur le marché aujourd'hui sont de véritables boîtes noires et ne se prêtent pas à la validation ou à la vérification.
Bien que mes observations portent surtout sur les risques de la technologie de reconnaissance faciale, je crois tout de même que cette technologie est d'une grande valeur. Nous devons élaborer avec soin des règlements qui permettront d'utiliser la technologie de reconnaissance faciale en toute sécurité dans divers contextes et qui comblent les principales lacunes dans la législation canadienne, en plus de remédier aux préoccupations concernant les droits de la personne et la protection de la vie privée. Dans le cadre de mon travail dans le secteur financier, qui est hautement réglementé, j'ai participé à la gouvernance efficace de systèmes d'intelligence artificielle à haut risque, et il s'agit d'évaluer et d'étayer de manière exhaustive des questions comme la protection de la vie privée, l'utilisation, les répercussions et la validation algorithmique. Selon moi, des approches similaires peuvent répondre à bon nombre des principales préoccupations que soulève cette technologie.
Les règlements doivent fournir aux développeurs, aux personnes chargées de la mise en œuvre et aux utilisateurs de la technologie de reconnaissance faciale des exigences et obligations claires concernant les utilisations précises de cette technologie. Cela devrait comprendre l'obligation d'obtenir un consentement explicite pour la collecte et l'utilisation de données biométriques, ainsi que la limitation de la finalité pour éviter le détournement d'usage. Les mesures législatives sur la technologie de reconnaissance faciale devraient s'appuyer sur les principes de nécessité et de proportionnalité en matière de protection de la vie privée, notamment dans le contexte des pratiques portant atteinte à la vie privée.
En outre, les exigences en matière de gouvernance doivent être proportionnelles à l'importance du risque. Les évaluations d'impact devraient être une pratique courante, et il devrait y avoir une surveillance contextuelle de questions comme la robustesse et la sécurité techniques, la protection de la vie privée et la gouvernance des données, la non-discrimination, l'équité et la responsabilisation. Cette surveillance ne devrait pas s'arrêter une fois qu'un système est en production, mais plutôt se poursuivre pendant toute la durée de vie du système, ce qui nécessite un suivi, des tests et une validation réguliers de la performance.
Enfin, il faut des cadres de responsabilisation plus clairs pour les développeurs et les utilisateurs finaux de la technologie de reconnaissance faciale, ce qui exigera une formulation législative transparente du poids des droits de la personne par rapport aux intérêts commerciaux.
Cela dit, ces règlements devraient chercher à adopter une approche équilibrée qui réduit, dans la mesure possible, les charges administratives et financières pour les entités publiques et privées.
Merci beaucoup. J'ai hâte de répondre à vos questions.
:
Je remercie le président et le Comité d'avoir invité l'Association canadienne des libertés civiles à comparaître devant vous aujourd'hui.
La reconnaissance faciale — ou l'empreinte faciale, comme nous l'appelons souvent au sein de notre association, pour faire un parallèle avec un autre identificateur biométrique de nature sensible — est une technologie controversée. Dans le cadre de cette étude, vous entendrez des témoignages qui vantent ses avantages potentiels et d'autres qui mettent en garde contre les conséquences désastreuses pour la société, conséquences qui pourraient découler de certains cas d'utilisation, en particulier dans le contexte du maintien de l'ordre et de la sécurité publique. Les deux côtés du débat sont valables, ce qui rend votre travail en l'occurrence particulièrement difficile et extrêmement important. Je vous suis reconnaissante d'avoir entrepris cette étude.
L'Association canadienne des libertés civiles examine cette technologie sous l'angle des droits. Cette optique révèle que ce ne sont pas seulement les droits individuels et collectifs à la vie privée qui sont menacés par les diverses utilisations de la technologie de surveillance et d'analyse du visage dans les secteurs public et privé, mais aussi un large éventail d'autres droits. Je sais que vous avez entendu parler, dans des témoignages précédents, du grave risque pour les droits à l'égalité que présentent les versions défectueuses de cette technologie qui fonctionnent moins bien sur les visages noirs, bruns, autochtones, asiatiques, féminins ou jeunes — en somme, les visages non blancs et non masculins.
J'ajouterais à cette discussion la mise en garde suivante: si la technologie est corrigée et si elle devient plus précise pour tous les visages, quel que soit le sexe ou la race, elle risque de devenir encore plus dangereuse. Pourquoi? Parce que nous savons que, dans le contexte des forces de l'ordre, ces mêmes personnes sont surveillées de manière disproportionnée. Nous savons qui est souvent victime de discrimination dans les applications du secteur privé. Là encore, ce sont ces mêmes personnes. Dans les deux cas, une identification parfaite de ces groupes ou des membres de ces groupes, qui subissent déjà une discrimination systémique en raison de leur apparence, risque de faciliter des actes discriminatoires plus parfaitement ciblés.
Outre les droits à l'égalité, les outils permettant une identification omniprésente auraient des répercussions négatives sur toute une série de droits protégés par la Charte canadienne des droits et libertés et d'autres lois, notamment la liberté d'association et de réunion, la liberté d'expression, le droit à la protection contre les fouilles, les perquisitions et les saisies abusives par l'État, la présomption d'innocence — si le visage de chacun, comme dans le cas de la technologie de Clearview AI, est soumis à une séance d'identification perpétuelle — et, enfin, les droits à la liberté et à la sécurité de la personne. Les enjeux sont donc énormes.
Il est également important de comprendre que cette technologie s'insinue dans la vie quotidienne d'une manière qui devient banale. Nous ne devons pas permettre à cette familiarité croissante d'engendrer un sentiment d'inévitabilité. Par exemple, beaucoup d'entre nous déverrouillent probablement leur téléphone à l'aide de leur visage. C'est pratique et, moyennant les bonnes protections intégrées, une telle fonctionnalité peut comporter relativement peu de risques pour la vie privée. D'ailleurs, le Parti libéral du Canada a récemment utilisé un outil similaire de reconnaissance faciale à correspondance biunivoque dans le cadre de son processus de vote pour l'investiture avant les dernières élections fédérales. En l'occurrence, il s'agissait d'une utilisation beaucoup plus risquée d'une technologie potentiellement défectueuse et discriminatoire, car c'était dans le contexte d'un processus qui est au cœur de la démocratie populaire.
La même fonctionnalité, utilisée dans des contextes très différents, soulève des risques différents. Voilà qui fait ressortir la nécessité d'accorder une attention particulière non seulement aux protections techniques de la vie privée, comme dans les exemples du téléphone et de l'application de vote, mais aussi aux protections contextuelles pertinentes pour l'ensemble des droits mis en cause par cette technologie.
Quelle est la voie à suivre? J'espère que cette étude examinera si — et pas seulement quand et comment — la reconnaissance faciale peut être utilisée au Canada, en tenant compte de ces questions contextuelles. L'Association canadienne des libertés civiles croit, comme la témoin précédente, qu'une réglementation s'impose pour les utilisations que les Canadiens jugent, en fin de compte, appropriées dans un État démocratique libre et équitable.
La reconnaissance faciale à des fins de surveillance de masse devrait être interdite. En ce qui concerne les utilisations plus ciblées, l'Association canadienne des libertés civiles continue, pour l'instant, à réclamer un moratoire, surtout dans le contexte policier, en l'absence d'une mesure législative complète et efficace qui fournit un cadre juridique clair pour son utilisation, qui contient des dispositions rigoureuses en matière de responsabilisation et de transparence, qui exige une surveillance indépendante et qui prévoit des mesures de coercition efficaces en cas de non-respect.
Il faut une loi intersectorielle sur la protection des données, qui s'appuie globalement sur le cadre des droits de la personne, surtout parce que les secteurs public et privé utilisent les mêmes technologies, mais sont actuellement soumis à des exigences juridiques différentes. Mieux encore, des lois ciblées régissant la biométrie ou les technologies algorithmiques à forte intensité de données pourraient être encore plus adaptées aux besoins. Il existe plusieurs exemples de pays où de telles mesures législatives ont été adoptées récemment ou sont à l'étude. Nous devrions nous en inspirer pour créer des lois canadiennes qui mettent en place des mécanismes de protection appropriés pour assurer l'utilisation potentiellement bénéfique de la technologie de reconnaissance faciale et protéger les gens partout au Canada contre un usage impropre ou abusif.
Merci. Je me ferai un plaisir de répondre à vos questions.
:
Mesdames et messieurs les députés membres du Comité, cela me fait plaisir de participer à cette importante étude.
Je commence par me présenter brièvement. Je suis Françoys Labonté, président-directeur général du CRIM, soit le Centre de recherche informatique de Montréal. J'ai une formation technique, en l'occurrence un doctorat spécialisé en vision par ordinateur de l'École polytechnique de Montréal. En 2010, je me suis joint au CRIM, pour en devenir le PDG en 2015. Le CRIM est un organisme qui travaille en intelligence artificielle depuis de nombreuses années, soit presque depuis sa création, et qui a eu l'occasion, de façon très pratique, de travailler à l'évolution des technologies de la reconnaissance de la parole dans les années 2000 et de la reconnaissance faciale dans les années 2010.
À l'image du CRIM, ma présentation se veut très pragmatique. D'entrée de jeu, il est essentiel de comprendre qu'à la base, les technologies de reconnaissance faciale ne requièrent et n'impliquent aucun renseignement personnel. Ces technologies se limitent à indiquer si une nouvelle image d'un visage qui n'a jamais été présentée auparavant à un système correspond à un visage qui a déjà été présenté à ce système.
Dans le contexte de votre étude, je comprends qu'on désire déterminer dans quel contexte il est acceptable ou non d'associer des renseignements personnels à un visage et de permettre ainsi d'identifier un individu à partir d'une ou de plusieurs images de son visage. Un des grands défis auxquels votre comité fait face est de trouver un juste équilibre entre les préoccupations relatives au respect de la vie privée, l'acceptation sociale et les avantages pour la société.
Nous faisons face à un phénomène un peu paradoxal: pour un nombre important de Canadiens, une ou plusieurs images de leur visage auxquelles leur nom est directement associé, sans compter d'autres renseignements personnels qui peuvent parfois y être associés, se trouvent déjà dans le domaine public, que ce soit dans des réseaux sociaux, dans des médias numériques ou dans d'autres applications numériques. Souvent, ces images ont été fournies par les gens alors qu'ils avaient une utilisation précise en tête, mais ces derniers ont accepté des clauses de consentement de portée très large et des droits d'utilisation très étendus. Même si une personne fournit une image de son visage dans l'intention, par exemple, de bonifier son profil d'utilisateur dans une application numérique, en pratique, il est relativement facile pour des tierces parties d'accéder à cette image et aux autres données qui y sont associées et de les utiliser à diverses autres fins en toute impunité, tellement les consentements obtenus sont vastes. De façon pratique, il est quasi impossible de renverser cette situation et de faire disparaître d'Internet ces images, ou même de dissocier les renseignements personnels qui y sont associés.
Voici une question sur laquelle votre comité devrait se pencher: étant donné que des images du visage de la plupart des Canadiens, auxquelles sont associés leurs renseignements personnels, sont accessibles dans le domaine public, quelles utilisations de ces images impliquant la reconnaissance faciale devraient être proscrites ou strictement encadrées?
Il y a probablement un fort consensus dans la population canadienne quant à l'interdiction d'utiliser les technologies de reconnaissance faciale dans un contexte à la Big Brother, où des bases de données d'images du visage de l'ensemble des citoyens seraient utilisées et où des caméras de surveillance publique feraient des suivis arbitraires des déplacements ou des comportements des citoyens. De même, utiliser la reconnaissance faciale en conjonction avec des drones dans un contexte militaire, pour des assassinats ciblés, va certainement à l'encontre de toutes les initiatives visant à promouvoir une utilisation éthique de l'intelligence artificielle.
Je veux délibérément vous amener à voir les choses un peu différemment dans un contexte d'utilisation où les réponses sont probablement plus floues et où la technologie de reconnaissance faciale ne fait que remplacer d'autres technologies existantes ou se substituer à celles-ci.
Prenons l'exemple de l'utilisation de la reconnaissance faciale pour des personnes qui se trouvent dans un commerce de détail ou un centre commercial. On peut facilement faire un parallèle avec le commerce en ligne, qui, sans nécessairement faire l'unanimité, jouit tout de même d'une grande acceptation sociale. Lorsqu'on magasine en ligne d'une façon qu'on qualifie d'anonyme, c'est-à-dire en n'étant pas connecté au moyen d'un compte d'utilisateur, des témoins de connexion laissent quand même des traces de notre passage sur le Web. Ces traces sont par la suite utilisées pour nous pousser de la publicité ciblée en fonction de nos préférences. Cela est-il très différent d'un système de reconnaissance faciale dans un centre commercial qui, sans connaître explicitement votre identité, pourrait, en fonction d'éléments pouvant facilement être inférés à partir de votre visage ou de vos comportements, vous pousser de la publicité ciblée?
Toujours dans la même logique, quand on magasine en ligne, mais cette fois-ci au moyen d'un compte d'utilisateur pour lequel on fournit des informations...
:
Monsieur le président, mesdames et messieurs les membres du Comité, merci beaucoup de m'avoir invité à comparaître devant vous aujourd'hui.
Je suis très heureux de vous parler aujourd'hui au nom de la Coalition pour la surveillance internationale des libertés civiles. Nous sommes une coalition de 45 organisations de la société civile canadienne qui se consacrent à la protection des libertés civiles au Canada et à l'étranger dans le contexte des activités canadiennes en matière de lutte contre le terrorisme et de sécurité nationale.
Compte tenu de notre mandat, nous nous intéressons particulièrement à la technologie de la reconnaissance faciale en raison de son utilisation par les organismes d'application de la loi et les services de renseignement, surtout au niveau fédéral. Nous avons fait état de l'augmentation rapide et continue de la surveillance étatique au Canada et à l'étranger au cours des deux dernières décennies. Ces activités de surveillance, qui présentent des risques importants, ont brimé les droits des gens au Canada et dans le monde.
La technologie de reconnaissance faciale est particulièrement inquiétante en raison des risques inouïs qu'elle présente pour la vie privée et parce qu'elle allie la surveillance biométrique à la surveillance algorithmique. Notre coalition a dégagé trois raisons particulières qui suscitent des inquiétudes.
Premièrement, comme l'ont souligné d'autres témoins aujourd'hui et plus tôt cette semaine, de nombreuses études ont révélé que certaines des technologies de reconnaissance faciale les plus utilisées reposent sur des algorithmes qui sont biaisés et inexacts. C'est particulièrement vrai pour les images faciales des femmes et des personnes de couleur, qui font déjà l'objet d'un degré accru de surveillance et de profilage par les organismes d'application de la loi et les services de renseignement au Canada.
Cette situation est particulièrement préoccupante dans le domaine de la sécurité nationale et de la lutte contre le terrorisme, où l'on a déjà recensé de nombreux cas de racisme systémique et de profilage racial. Une technologie inexacte ou biaisée ne fait que renforcer et aggraver ce problème, puisque les gens courent ainsi le risque d'être faussement associés au terrorisme et à des menaces pour la sécurité nationale. Comme beaucoup d'entre vous le savent, même une seule allégation de la sorte peut stigmatiser la personne accusée de façon profonde et durable.
Deuxièmement, la reconnaissance faciale permet une surveillance de masse sans discernement et sans mandat. Même si on réglait les graves problèmes de partialité et de précision, les systèmes de surveillance par reconnaissance faciale continueraient à soumettre les gens à une surveillance intrusive et sans discernement. Ce constat est vrai, que ces systèmes soient utilisés pour surveiller les voyageurs dans un aéroport, les piétons sur une place publique ou les activistes lors d'une manifestation.
Même si les forces de l'ordre doivent obligatoirement demander une autorisation judiciaire pour surveiller des individus en ligne ou dans des lieux publics, les lois actuelles comportent des lacunes puisqu'il n'est pas clair si elles s'appliquent à la surveillance ou à la désanonymisation au moyen de la technologie de reconnaissance faciale. À cause de ces lacunes, les forces de l'ordre peuvent soumettre tous les passants à une surveillance de masse injustifiée dans l'espoir de pouvoir identifier une seule personne d'intérêt, en temps réel ou après coup.
Troisièmement, il y a un manque de réglementation de la technologie et un manque de transparence et de responsabilisation de la part des organismes d'application de la loi et des services de renseignement au Canada. Le cadre juridique actuel régissant la technologie de reconnaissance faciale est tout à fait inadéquat. L'ensemble disparate de règles en matière de protection de la vie privée à l'échelle provinciale, territoriale et fédérale ne garantit pas que les forces de l'ordre utilisent la technologie de reconnaissance faciale dans le respect des droits fondamentaux. De plus, le manque de transparence et de responsabilisation signifie que cette technologie est adoptée à l'insu du public, en l'absence de débat public ou de surveillance indépendante.
Nous en avons vu des exemples patents au cours des deux dernières années.
Voici le premier exemple, et c'est aussi le plus connu: l'absence de réglementation a permis à la GRC d'utiliser le logiciel de reconnaissance faciale de Clearview AI pendant des mois à l'insu du public, puis de mentir à ce sujet avant d'être forcée d'admettre la vérité. De plus, nous savons maintenant que la GRC a utilisé une forme ou une autre de reconnaissance faciale au cours des 20 dernières années sans que le public en soit informé et sans qu'il y ait de débat ou de surveillance claire. Le commissaire à la protection de la vie privée du Canada a conclu que l'utilisation de l'outil de Clearview AI par la GRC était illégale, mais la GRC a rejeté cette conclusion, arguant qu'elle ne peut être tenue responsable de la légalité des services fournis par des tiers. Cela lui permet, en gros, de continuer à passer des contrats avec d'autres services qui enfreignent la loi canadienne.
Ce que l'on sait moins, c'est que la GRC a également passé un contrat pour l'utilisation d'un système américain privé de « reconnaissance faciale des terroristes », connu sous le nom d'IntelCenter. Cette entreprise prétend offrir un accès à des outils de reconnaissance faciale et à une base de données de plus de 700 000 images de personnes associées au terrorisme. Au dire de l'entreprise, ces images sont extraites du Web, tout comme celles de Clearview AI. La stigmatisation qui accompagne le fait d'être associé à une soi-disant base de données de reconnaissance faciale des terroristes ne fait qu'accroître les préjugés et les répercussions sur les droits qui s'y rattachent.
Comme dernier exemple, je me contenterai de dire que le Service canadien du renseignement de sécurité, ou SCRS, a refusé de confirmer s'il utilise ou non la technologie de reconnaissance faciale dans le cadre de son travail, en déclarant qu'il n'a aucune obligation de le faire.
Compte tenu de toutes ces préoccupations, nous formulons trois grandes recommandations: premièrement, que le gouvernement fédéral interdise immédiatement l'utilisation de la surveillance par reconnaissance faciale et qu'il entreprenne des consultations sur l'utilisation et la réglementation de la technologie de reconnaissance faciale en général; deuxièmement, à partir de ces consultations, que le gouvernement procède à la réforme des lois sur la protection des renseignements personnels dans les secteurs privé et public afin de combler les lacunes relatives à la reconnaissance faciale et à d'autres formes de surveillance biométrique; enfin, que le commissaire à la protection de la vie privée se voie accorder plus de pouvoirs coercitifs en ce qui concerne les violations des lois canadiennes sur la protection des renseignements personnels dans les secteurs public et privé.
Merci, et j'ai hâte aux discussions et aux questions.
Permettez-moi de commencer par faire une demande à tous nos témoins. Tout d'abord, je vous remercie de l'expertise et des renseignements que vous nous avez fournis aujourd'hui. C'est très précieux. Chose certaine, alors que je me préparais pour cette réunion... Je vous suis très reconnaissant d'être venus nous faire part de ces renseignements aujourd'hui. Je sais qu'un certain nombre d'entre vous ont formulé des recommandations, et cela s'avère très utile, d'un point de vue pratique, pour le travail que le Comité accomplira en prévision du rapport.
Pour en revenir à ma demande, au‑delà des questions que je compte poser dans un instant, voici ce que je propose: puisque le temps est limité, si vous avez d'autres recommandations ou renseignements, n'hésitez pas à les transmettre aux membres du Comité afin que nous puissions les inclure dans le rapport que nous préparerons dans les mois à venir. Considérez cela comme une invitation ouverte, car votre expertise est d'une très grande utilité.
Madame LaPlante et monsieur McSorley, vous nous avez donné quelques exemples. Clearview AI est l'un des exemples les plus évidents.
Commençons par Mme LaPlante.
Y a‑t‑il d'autres exemples dont vous pourriez parler brièvement et qui mettent en évidence certains des défis posés par ces systèmes?
Madame McPhail, j'ai bien aimé votre observation lorsque vous avez dit, et je vais vous paraphraser, que l'amélioration de la technologie ne résout pas vraiment le problème. C'est un message très important qu'il fallait entendre ici.
Notre travail au sein du Comité nous a permis de constater l'importance d'intégrer et de définir le consentement et de prévoir des fonctions que la population comprend bien, comme les dispositions d'adhésion et de retrait.
Aujourd'hui, à l'ère des médias sociaux et en raison de la présence de caméras presque partout, comment pouvons-nous, en tant que législateurs, protéger les Canadiens de certains des défis associés à la reconnaissance faciale et à l'intelligence artificielle dans le contexte dont nous discutons ici aujourd'hui?
:
Merci beaucoup, monsieur le président.
En quelque sorte, je comprends la situation de mon collègue M. Kurek. C'est un dossier très épineux et nous avons de nombreuses questions à poser aux témoins. Je dois admettre que je fais de plus en plus de recherches sur ce dossier, et chaque jour mes lectures soulèvent d'autres questions.
Tout d'abord, j'aimerais parler d'un élément que Mme LaPlante a mentionné au début, et je pense que Mme McPhail l'a soulevé aussi. Il semble que la technologie de reconnaissance faciale soit juste une partie de l'usage de l'intelligence artificielle qui nous préoccupe. Certains algorithmes vont analyser non seulement notre visage, mais également nos comportements, les choses que nous disons, notre voix et notre façon de bouger.
Pour ce qui est de la reconnaissance faciale, en tant que Canadien noir, je sais bien que nos appareils photographiques n'offrent pas la même qualité de photographie pour des gens au teint basané, pour des femmes ou pour des jeunes, comparativement aux hommes de race blanche. Il semble donc exister un problème systémique.
Êtes-vous d'accord que l'appareil photographique en soi peut porter un grand préjudice à certaines personnes parce que l'appareil n'a pas été créé pour elles?
Nous pouvons commencer par Mme LaPlante.
:
Merci beaucoup, monsieur le président.
Je suis très content que la connexion soit rétablie, car je voulais poser l'essentiel de mes questions à M. Labonté.
Monsieur Labonté, nous savons que le fait d'avoir plus d'informations nous permet souvent de prendre de meilleures décisions. Néanmoins, à plusieurs moments de notre histoire, nous avons décidé de restreindre notre capacité à aller chercher de l'information. J'ai en tête, par exemple, la question des perquisitions sans mandat. Nous avons empêché les policiers de faire des perquisitions sans mandat.
Je me demande si nous sommes, encore aujourd'hui, dans ce grand type de questionnement sociétal et si les technologies de reconnaissance faciale ont ce potentiel de mettre fin presque complètement à notre liberté réelle et à l'existence de la vie privée.
Qu'est-ce que vous en pensez?
:
Merci, monsieur le président.
Monsieur Labonté, je vais répéter la question que j'ai posée tout à l'heure.
Une plus grande collecte d'informations permet de prendre de bonnes décisions. Néanmoins, à certains moments de notre histoire, pour des raisons de vie privée et de droits individuels, nous avons décidé de restreindre cette collecte d'informations. À titre d'exemple, les perquisitions policières sans mandat sont maintenant interdites.
Je me demande si la possibilité est grande qu'un jour les outils de reconnaissance faciale, s'ils sont utilisés à grande échelle et incorrectement, réduisent considérablement notre liberté et notre vie privée, voire qu'ils y mettent fin. C'est une question un peu philosophique, mais j'aimerais entendre votre opinion là-dessus.
:
Généralement, les gens ne consentent pas à laisser leurs données à une entreprise pour qu'elle en fasse ce que bon lui semblera. Par exemple, s'il est important pour une personne que les gens la suivent dans les réseaux sociaux, elle va consentir à rendre son visage disponible à cette fin uniquement, mais elle ne consentira pas à ce que de tierces parties l'utilisent pour faire du profilage ou concevoir des produits commerciaux.
Ce volet est mis en évidence dans les règlements en cours de préparation ou entrés en vigueur récemment, mais il est encore très difficile de donner un consentement éclairé. Au CRIM, en tant que centre de recherche, quand nous travaillons sur des projets avec un comité d'éthique et que nous demandons un consentement à des sujets, il s'agit d'un consentement très précis, clair, à une fin donnée et souvent pour une période limitée.
Dans le monde dans lequel nous vivons, à la vitesse où vont les choses, il est difficile pour le moment de donner un consentement éclairé. Par exemple, quand les gens téléchargent une application, ils ne lisent même pas le texte de consentement qui l'accompagne ou ne comprennent pas ce que cela implique.
Effectivement, consentir de façon éclairée...
Bienvenue à tous les invités.
Monsieur McSorley, dans mes recherches préliminaires sur la fragilité et les incohérences de la technologie de reconnaissance faciale, j'ai constaté qu'on la qualifiait de phrénologie des temps modernes. Luke Stark compare la reconnaissance faciale au plutonium de l'intelligence artificielle. Il affirme que:
[...] les technologies de reconnaissance faciale, de par leur mode de fonctionnement d'un point de vue technique, ont des défauts insurmontables liés à la façon dont elles schématisent les visages humains. Ces défauts créent et renforcent des catégorisations discréditées fondées sur le sexe et la race, ce qui a des effets toxiques sur le plan social. Le deuxième [point], c'est qu'à la lumière de ces défauts fondamentaux, les risques de ces technologies dépassent largement les avantages, d'une manière qui n'est pas sans nous rappeler le danger des technologies nucléaires.
On utilise cette métaphore pour dire que ces technologies, « par le simple fait de leur conception et de leur construction, sont intrinsèquement toxiques sur le plan social, quelles que soient les intentions de leurs créateurs ».
En juillet 2020, la Coalition pour la surveillance internationale des libertés civiles a cosigné une lettre avec OpenMedia pour demander au gouvernement fédéral d'interdire aux organismes fédéraux de renseignement et d'application de la loi de recourir à la surveillance par reconnaissance faciale.
Par votre entremise, monsieur le président, j'aimerais poser la question suivante à M. McSorley: compte tenu des incohérences, de la fragilité et du capitalisme de surveillance des tiers...
:
Nous serions tout à fait d'accord avec votre description des dangers que présente la technologie de reconnaissance faciale. Une inquiétude en amène toujours une autre.
Comme d'autres témoins l'ont mentionné aujourd'hui, en particulier Mme McPhail, la précision de la technologie amène un problème après l'autre. En l'absence d'une réglementation appropriée et en ayant autant d'entreprises qui proposent leur technologie aux organismes d'application de la loi, on se demande s'ils utiliseront la technologie la plus précise, ou s'ils utiliseront la plus accessible, celle qui est davantage ciblée et commercialisée pour les organismes d'application de la loi. Il y a en outre toute la question du recours par les organismes d'application de la loi et de renseignement à des entrepreneurs externes et de la manière dont cela se déroule, le manque de transparence à cet égard, et les problèmes de partialité et de précision de la technologie qui peut leur être proposée.
Même si ces problèmes devaient être résolus, comme cela a été mentionné, le ciblage des communautés de couleur est déjà bien connu. Ce problème ne peut pas être résolu simplement en améliorant la technologie, mais plutôt, comme l'a dit Mme McPhail, cela peut même l'exacerber, parce que tout à coup, on dispose de cet outil formidable pour mieux surveiller les populations qui font déjà l'objet d'une surveillance excessive par la police. Il faut être extrêmement...
:
Tout d'abord, nous pensons que nous avons besoin d'une consultation plus large pour décider quelles sont les utilisations interdites. Comme nous l'avons dit, nous pensons que l'utilisation de la reconnaissance faciale pour la surveillance de masse en ferait clairement partie. Outre cela, il faut une surveillance pour s'assurer que lorsque les organismes d'application de la loi et les services de renseignement adoptent de nouvelles technologies, elles sont examinées au préalable, avant d'être mises en place, afin de s'assurer qu'elles respectent les normes établies par les lois canadiennes en matière de protection des renseignements personnels.
À l'heure actuelle, il revient essentiellement aux organismes d'application de la loi eux-mêmes, comme nous l'avons vu pour le choix de Clearview AI, de prendre ces décisions. Il n'était pas clair si le savait dans quelle mesure la GRC utilisait la technologie de reconnaissance faciale de Clearview AI. Ce qui est inquiétant, c'est que cette technologie est adoptée sans aucune forme de surveillance politique ou autre.
L'Office de surveillance des activités en matière de sécurité nationale et de renseignement entreprend actuellement un examen de l'utilisation de la surveillance biométrique par les organismes de sécurité nationale du Canada, mais cela pourrait prendre, encore une fois, quelques années avant que le tout soit rendu public. Nous avons besoin que le agisse dès maintenant afin de s'assurer que les organismes d'application de la loi n'adoptent pas ces technologies en secret et qu'ils disent publiquement, dans le cadre des évaluations des facteurs relatifs à la vie privée, quelles seront, selon eux, les répercussions sur la vie privée, et il faut qu'il y ait un débat clair et approfondi sur la question.
:
Notre expertise se situe principalement du côté du secteur public, alors je vais me concentrer sur ce secteur.
Encore une fois, il convient d'établir clairement les utilisations interdites, par exemple, en ce qui concerne la surveillance de masse des lieux publics. Il faut aussi qu'il y ait des règles claires concernant la publication des évaluations des facteurs relatifs à la vie privée.
Nous pensons qu'il serait utile de prévoir un examen obligatoire par un tiers indépendant des outils algorithmiques de surveillance et des outils de surveillance biométrique utilisés par les forces de l'ordre, afin qu'ils soient évalués du point de vue de leurs répercussions sur les droits de la personne, de leur précision et de leur partialité.
Nous pensons qu'il serait également utile qu'une agence gouvernementale soit chargée expressément d'examiner l'utilisation, par les agences fédérales, des outils algorithmiques et biométriques en général, mais surtout en matière de surveillance, ainsi que d'effectuer un suivi et de créer un répertoire à cette fin.
:
Je vous remercie, monsieur le président, et je remercie tous nos invités d'être avec nous aujourd'hui.
Mes questions émanent de Richmond, en Colombie-Britannique. L'utilisation de l'intelligence artificielle m'inquiète. Comme vous le savez, en Colombie-Britannique, nous avons une grande communauté autochtone, noire et de couleur, principalement asiatique et sud-asiatique. Un témoin nous a signalé l'autre jour que le service de police de Vancouver utilise l'intelligence artificielle.
Ma question s'adresse à Mme McPhail. Le chef de la police de Vancouver, Adam Palmer, a assuré à la commission de police en avril 2021 que ses agents n'utiliseront pas la technologie de reconnaissance faciale pour les enquêtes tant qu'une politique n'aura pas été mise en place.
Savez-vous si une politique a été présentée à la commission de police à ce sujet?
:
Il est trop tard pour réglementer la collecte des données, car on ne peut pas reculer dans le temps. Par contre, on peut réglementer l'utilisation des technologies.
Ce que les gens ne comprennent pas toujours très clairement, c'est que l'idée derrière les nouvelles approches d'intelligence artificielle qui donnent lieu aux technologies dont nous parlons, c'est d'obtenir un nombre considérable de données et de les utiliser pour faire l'entraînement des systèmes. Le résultat attendu, c'est la reconnaissance faciale, c'est-à-dire la capacité d'identifier s'il s'agit de tel ou tel individu. Ce qui se crée, c'est un modèle explicite. Dans le domaine des technologies ou de l'ingénierie, on a habituellement des entrées de données dont on procède au traitement pour avoir des résultats. Or, on n'est plus dans ces modèles. Maintenant, on crée des modèles implicites qui, à partir de l'observation, du traitement et de l'analyse de plusieurs jeux de données, vont fournir les résultats auxquels on s'attend. Les joueurs qui ont réussi à faire cela, en collectant plein de données au cours des 10 dernières années, ont maintenant un avantage compétitif, comparativement à ces modèles. C'est quelque chose de très difficile à reproduire. Ce sont des boîtes noires opaques.
À mon avis, ce sera extrêmement difficile, puisque l'on ne peut pas reculer dans le temps.
:
Je vais concentrer mes commentaires sur la réglementation de l'intelligence artificielle en général. À l'heure actuelle, au Canada, nous n'avons pas de réglementation de bout en bout, et plusieurs changements s'imposent. Je vais vous mentionner à cette fin un cadre récemment publié par la Commission européenne — il s'agit d'un projet de cadre, mais il est très probable qu'il entrera en vigueur en 2022 — qui porte sur les questions liées à l'intelligence artificielle et aux risques qui y sont associés, qu'il s'agisse de la vie privée et des droits de la personne ou de concepts très techniques liés à la robustesse et à la stabilité.
En définitive, chaque fois que nous concevons l'un de ces systèmes, nous devrions procéder à une évaluation des répercussions. Comme je l'ai indiqué dans mes remarques, la surveillance de ces systèmes devrait être basée sur la matérialité des risques, soit les systèmes à très haut risque. Il devrait y avoir un certain niveau d'examen des exigences relatives à leur utilisation et aux tests. Les tests couvrent un très large éventail de concepts techniques, comme la robustesse, la stabilité, la partialité et l'équité, et des seuils doivent être établis. Il est vrai que ces derniers dépendent du contexte et qu'ils doivent être mis en place par les développeurs pour que nous puissions garantir la responsabilisation.
Je noterai également — et je pense que c'est quelque chose qui est souvent oublié — que ces systèmes sont stochastiques. Cela signifie que lorsque nous les mettons en production, nous pouvons avoir une très bonne idée de la façon dont ils se comporteront aujourd'hui, mais qu'au fur et à mesure que nos données changent, nous devons nous assurer de les surveiller continuellement pour garantir qu'ils fonctionnent comme nous l'avions initialement prévu. S'ils ne fonctionnent plus de cette manière, ils doivent être retirés de la production et réévalués avant d'être remis en service. Cela est particulièrement vrai dans les cas d'utilisation à haut risque comme l'identification des criminels.
:
Merci, monsieur le président.
Je tiens à remercier les témoins. Vos interventions sont très instructives et révélatrices pour nous tous, compte tenu de ce qui est en jeu.
Je vais revenir sur la première question de M. Green.
Avec mes antécédents dans le domaine de la défense et de la sécurité nationales, je n'avais même pas pensé à la façon dont la technologie de reconnaissance faciale est utilisée pour porter atteinte aux droits garantis par la Charte, et même enfreindre le Code criminel et la Loi sur la défense nationale, qui stipulent que l'on ne peut pas espionner quelqu'un, directement ou indirectement, à moins qu'un mandat n'ait été lancé ou que, dans le cas d'une menace imminente, une autorisation ministérielle n'ait été donnée. Il existe des freins et des contrepoids dans l'ensemble de ce processus.
Lorsque l'on commence à étudier la collecte et la surveillance de masse à l'aide de la technologie de reconnaissance faciale, comment peut‑on même déterminer que l'utilisation de cette technologie est possible quand on sait que le Code criminel, la Charte et la Loi sur la défense nationale telle qu'elle s'applique au CST sont censés imposer tous ces freins et contrepoids ? Il suffit de penser au SCRS et à l'Agence des services frontaliers du Canada, sans parler de la GRC, de la Police provinciale de l'Ontario et de toutes les autres organisations policières qui existent.
J'aimerais que M. McSorley et Mme McPhail s'expriment brièvement à ce sujet.
:
Oui, monsieur le président, je le crois.
Notre régime législatif actuel présente des lacunes importantes qui semblent être exploitées, à l'heure actuelle, pour permettre des utilisations de cette technologie qui n'ont pas encore été évaluées ou examinées devant un juge. Cela se produira probablement dans un avenir proche ici au Canada, mais nous pouvons agir de façon préventive si nous nous asseyons et réfléchissons très attentivement à la question de savoir s'il existe des moyens d'utiliser cette technologie en toute sécurité.
Dans certains cas, la réponse sera négative. L'Association canadienne des libertés civiles soutient une interdiction complète de l'utilisation de cette technologie pour la surveillance de masse.
Dans certains cas, comme pour ce qui est de l'utilisation actuellement faite par la police de la technologie de reconnaissance faciale en conjonction avec les bases de données de photos signalétiques, par exemple, même ces utilisations peuvent prêter à controverse. Nous n'y avons tout simplement pas pensé. L'utilisation par la police de la technologie de reconnaissance faciale dans les bases de données de photos signalétiques est effectuée sur des bases de données existantes qui présentent leurs propres problèmes de partialité et de discrimination, que nous connaissons depuis très longtemps.
Je pense qu'il ne s'agit pas seulement des aspects liés à la surveillance de masse, mais aussi des aspects plus ciblés auxquels nous n'avons pas encore réfléchi.
:
Merci, monsieur le président.
Merci à tous les témoins présents aujourd'hui.
Par votre entremise, monsieur le président, j'aimerais d'abord poser une question à Mme McPhail.
De toute évidence, nous avons affaire à des quantités massives de données et à une prolifération massive de l'utilisation de la technologie de reconnaissance faciale et de l'intelligence artificielle. Comme M. Labonté l'a mentionné plus tôt, il existe des zones floues pour ce qui est de son utilisation dans le secteur du commerce de détail. D'autres témoins ont parlé des soins de santé et d'autres utilisations bénéfiques, et nous savons que ce débat est en cours.
Pour ce qui est de la demande de moratoire, ma question est de savoir par où nous devons commencer.
Il existe actuellement des lacunes dans les lois, qui ne visent pas le secteur privé, alors que c'est ce dernier qui fabrique cette technologie. À qui exactement imposons-nous donc un moratoire?
:
Nous n'avons pas beaucoup de temps, mais si nous retournons de nombreuses années en arrière, à l'époque où nous compilions des statistiques, nous concevions généralement des expériences pour veiller à ce que nos échantillons soient représentatifs et obtenir des résultats significatifs sur le plan statistique.
Nous vivons maintenant dans un monde qui compte une abondance de données, et où l'on utilise ce que l'on a et on obtient ce que l'on obtient.
La conception de systèmes basés sur la représentativité des données est une question essentielle. Très souvent, lorsque nous disons que les systèmes sont biaisés, cela signifie simplement que les échantillons de données initiaux ne sont pas égaux ou que leur représentativité n'est pas égale. Voilà la difficulté qui se pose habituellement. Le problème n'est pas la technologie en soi, mais les données qui ont été fournies au système.
Mme LaPlante a mentionné tous les problèmes liés à l'intelligence artificielle. Ceux‑ci indiquent que notre système d'intelligence artificielle pourrait devenir un système essentiel qui devrait être réglementé. Il en va de même lorsque vous concevez des voitures ou des avions; vous devez démontrer toutes ces questions de fiabilité, de reproductibilité et tous ces éléments. Beaucoup de ces questions vont en fait dans ce sens.
L'intelligence artificielle est encore la nouvelle génération...
:
Merci beaucoup, monsieur le président.
Tout d'abord, j'aimerais profiter de cette occasion pour remercier tous les témoins, car cette conversation est très instructive et, je pense, très significative. Je crois que toutes les parties conviendront que le sujet et la substance réelle de ce que nous abordons ici sont très précieux pour notre pays.
Monsieur le président, si vous me le permettez, je vais utiliser ces quelques minutes de mon temps pour présenter la motion pour laquelle j'ai donné un préavis verbal le 3 mars de cette année. Je vais la lire une fois de plus pour qu'elle figure au compte rendu:
Que, conformément à l'article 108(3)h) du Règlement, le Comité entreprenne une étude sur les questions de conflit d'intérêts et la Loi sur le lobbying en ce qui concerne les dépenses liées à la pandémie, à condition que: a) les témoignages et la documentation reçus par le Comité au cours des deux sessions de la 43e législature sur le sujet soient pris en considération par le Comité au cours de la présente session; b) le Comité adopte le rapport intitulé Questions de conflits d'intérêts et de lobbying en relation avec les dépenses liées à la pandémie, initialement adopté comme deuxième rapport du Comité lors de la deuxième session de la 43e législature; c) les opinions dissidentes ou supplémentaires soient soumises par voie électronique dans les deux langues officielles au greffier du comité dans les 48 heures suivant l'adoption de la présente motion; d) le président dépose ce rapport à la Chambre au plus tard le 31 mars 2022.
Monsieur le président, je vais être très bref, car j'espère que les membres du Comité consentiront à ce que nous ne rouvrions pas ce dossier, mais que nous reconnaissions plutôt le travail acharné accompli par les membres du Comité avant l'élection déclenchée l'été dernier, et que nous veillions à ce que les Canadiens aient la possibilité de voir le rapport sur lequel tous les membres de ce comité ont travaillé. Je crois qu'il y a des membres de la plupart des partis qui siègent encore à ce comité depuis la dernière législature.
Sur ce, monsieur le président, je propose cette motion.
:
Je suis un peu bouche bée.
[Traduction]
Je suis étonné qu'au cours d'une discussion particulièrement importante sur la reconnaissance faciale, où tous les partis semblent exprimer de graves inquiétudes quant à cette technologie et quant à la manière dont elle nuit en particulier aux personnes de couleur, aux femmes et aux jeunes, nous jouions à ce jeu et qu'il s'agisse un peu d'un jeu.
Monsieur le président, contrairement à ce qu'a déclaré mon respecté collègue, pour autant que je sache, je suis le seul à avoir siégé au sein du Comité l'année dernière, à l'époque où nous avons mené ce très long débat, puis examiné, je crois, un rapport très substantiel.
Puis-je ajouter, monsieur le président, au profit de tous les autres députés qui ne faisaient pas partie du Comité à l'époque, que chacune des recommandations demandées par le parti du député d'en face a été adoptée dans ce rapport? Le rapport a été présenté à la Chambre, alors j'essaie de comprendre pourquoi, près d'un an plus tard, nous réexaminons cette question.
Nous, les parlementaires, avons fait un excellent travail. Je siège au sein de notre comité et du Comité de la procédure et des affaires de la Chambre. J'ai été impressionné par la bonne volonté des députés qui s'efforcent de mettre de côté leurs intérêts partisans étroits dans l'intérêt des Canadiens et de prendre de très bonnes initiatives.
Cette discussion sur la reconnaissance faciale est en suspens depuis non pas un an, ni deux ans, mais trois ans. Trois années se sont écoulées alors que nous aurions pu prendre des mesures à ce sujet. Au cours de ces trois années, il y a eu encore plus de visages qui ont été extraits du Web et encore plus de personnes qui ont été injustement ciblées par l'utilisation de cette technologie. Et, maintenant, nous allons aborder une question que nous avons passé d'innombrables heures non seulement à débattre, mais aussi à présenter dans un rapport. Le parti de mon collègue a obtenu que toutes ses recommandations figurent dans le rapport sans modification. Allons-nous revenir sur ce sujet? C'est un gaspillage de temps et une déception. Franchement, je dois dire que cela me met très en colère.
Nous avons essayé d'entreprendre cette étude pendant trois ans. Nous avons finalement réussi, et chaque question posée aujourd'hui...
[Français]
Chapeau à tous mes amis ici, autour de la table, pour le sérieux de leurs questions.
Maintenant, on va faire de la politicaillerie au sujet d'un dossier que nous avons réglé il y a un an et qui a déjà été soumis à la Chambre des communes?
Monsieur le président, c'est ridicule et c'est insultant. Cela me dépasse.
[Traduction]
C'est vraiment très décevant.
Merci, monsieur le président.
:
Merci beaucoup, monsieur le président.
Je me fais l'écho des sentiments de mon collègue. Je remercie les témoins d'être venus aujourd'hui et de nous aider à étudier ce projet de loi très important.
Pendant que M. Kurek lisait le contenu de sa motion, j'avais en fait devant moi une copie d'une motion présentée le 13 décembre par M. au même comité. Cette motion était exactement la même, mot pour mot.
Je sais qu'au chapitre 20 de l'ouvrage intitulé « La procédure et les usages de la Chambre des communes », sous la rubrique « Format et recevabilité » des motions, il est écrit ce qui suit:
Une motion au contenu identique à une motion qui a déjà fait l’objet d’une décision au cours de la même session est irrecevable; toutefois, un député peut présenter une motion qui, quoique semblable, s’en distingue suffisamment pour constituer une nouvelle question.
Je remarque effectivement que la seule différence entre la motion que M. Kurek a présentée aujourd'hui et celle que M. a présentée auparavant, c'est une nouvelle section, notamment le paragraphe d), qui ajoute simplement une échéance à un contenu tout à fait identique.
Puis-je humblement vous demander de rendre une décision à ce sujet, à savoir si cette motion est recevable ou non?
:
Exactement. J'aillais en fait expliquer la situation.
Une motion a fait l'objet d'un débat. Le président a jugé la motion recevable, et Mme Khalid conteste la décision de la présidence.
La question est de savoir si la décision que le président a rendue au sujet de la motion de M. Kurek est maintenue.
Si vous pensez que la décision de la présidence, selon laquelle la motion est recevable, est correcte, vous votez oui.
Si vous pensez que la décision de la présidence est incorrecte et que la motion doit être considérée comme irrecevable, vous votez non.
(La décision de la présidence est maintenue par 6 voix contre 5.)
:
Oui, monsieur le président.
Dans ce cas, je commencerai par présenter mes excuses à nos témoins d'aujourd'hui qui ont eu moins de temps pour nous faire part de l'important témoignage qu'ils voulaient apporter au sujet du travail très important que nous réalisons.
Monsieur le président, par votre entremise, je leur demanderais s'il y a d'autres points qu'ils aimeraient voir soulignés compte tenu des questions qui ont été posées aujourd'hui et des propos qu'ils ont entendus les autres intervenants et les députés prononcés aujourd'hui. Le cas échéant, ils pourraient peut-être le faire par écrit. Nous leur serions grandement reconnaissants de ces mémoires. Nous espérons que nous pourrons reprendre cette étude assez rapidement.
Je dirai également, monsieur le président, que je suis très déçue. Comme je l'ai indiqué, la motion contenait littéralement les mêmes mots qui ont déjà fait l'objet d'un vote et qui ont été rejetés le 13 décembre. Comme M. Fergus l'a très clairement souligné, nous avons par la suite étudié des questions beaucoup plus importantes. Cependant, nous sommes désormais de retour à la case départ. Nous allons maintenant passer beaucoup de temps, je pense, à débattre du bien-fondé d'une motion dont nous avons déjà débattu longuement.
J'espérais que le Comité comprendrait l'importance de la raison pour laquelle nous devons passer à cette étude sur la reconnaissance faciale. Notre pays a vraiment besoin de renforcer ses lois sur la protection des renseignements personnels et les lois qui régissent l'industrie qui tire parti des renseignements personnels des Canadiens. Nous avons vraiment besoin de réformer la LPRPDE. Elle a été mise en place bien avant que la reconnaissance faciale et l'intelligence artificielle n'entrent en jeu.
J'espère que nous nous y remettrons et que nous étudierons des questions plus pertinentes que nous n'avons pas déjà rabâchées. Comme l'a dit M. Fergus, cela fait trois ans que nous attendons d'amorcer cette étude. Je ne peux pas souligner à quel point il est important que nous continuions de faire avancer cette étude et que nous proposions des recommandations sérieuses et robustes pour réformer la façon dont l'industrie et les technologies comme l'intelligence artificielle et la reconnaissance faciale doivent être freinées pour faire en sorte que nous trouvions cet équilibre. L'un de nos témoins — je crois que c'était M. Labonté — a parlé de l'équilibre entre la protection des renseignements personnels, l'acceptation sociale et les avantages sociétaux...