:
Je déclare la séance ouverte.
Je vous souhaite la bienvenue à la 19e réunion du Comité permanent de l'accès à l'information, de la protection des renseignements personnels et de l'éthique de la Chambre des communes.
[Traduction]
Conformément à l'alinéa 108(3)h) du Règlement et à la motion adoptée par le Comité le lundi 13 décembre 2021, le Comité reprend son étude sur l'utilisation et les impacts de la technologie de reconnaissance faciale.
La réunion d'aujourd'hui se déroule en format hybride, conformément à l'ordre de la Chambre du 25 novembre 2021. Des membres sont présents en personne et d'autres participent à distance au moyen de l'application Zoom.
J'ai quelques commentaires à faire à l'intention des témoins. Nous avons des témoins dans la salle et des témoins qui participent par Zoom. Veuillez attendre que je vous identifie avant de prendre la parole. Si vous participez par Zoom, cliquez sur l'icône du microphone pour l'activer et mettez‑le en sourdine lorsque vous ne parlez pas. Les participants dans la salle n'ont pas à appuyer sur le bouton, car quelqu'un d'autre assure le contrôle, mais soyez attentifs et assurez-vous que votre micro est allumé avant de parler. Je vous rappelle que vous devez vous adresser à la présidence.
J'aimerais maintenant souhaiter la bienvenue à nos témoins.
De Microsoft, nous accueillons Owen Larter, directeur responsable des politiques publiques en matière d'Intelligence artificielle; et du Conseil national des musulmans canadiens, nous avons Mustafa Farooq, président-directeur général, et Rizwan Mohammad, agent des services d'assistance judiciaire.
Nous allons commencer par M. Larter.
Vous avez un maximum de cinq minutes pour votre déclaration liminaire.
[Français]
Bonjour à tous.
[Traduction]
Je remercie le président et les vice-présidents de me donner l'occasion d'apporter ma contribution aujourd'hui.
Je m'appelle Owen Larter. Je fais partie de l'équipe du Bureau des politiques publiques et de l'intelligence artificielle responsable de Microsoft.
Il y a vraiment trois points que je veux faire valoir dans mes observations aujourd'hui.
Premièrement, la reconnaissance faciale est une technologie nouvelle et puissante qui est déjà utilisée et pour laquelle nous avons maintenant besoin d'une réglementation.
Deuxièmement, il est particulièrement urgent de réglementer l'utilisation de la reconnaissance faciale par la police, étant donné que les décisions de la police ont des conséquences importantes.
Troisièmement, il existe une réelle occasion pour le Canada de montrer la voie à l'échelle mondiale en élaborant une réglementation de la reconnaissance faciale qui protège les droits de la personne et favorise la transparence et la responsabilisation.
Je tiens d'abord à saluer le travail du Comité sur ce sujet très important. Chez Microsoft, nous sommes des fournisseurs de la reconnaissance faciale. Nous sommes convaincus qu'elle peut apporter de réels avantages à la société. Elle peut notamment contribuer à sécuriser les appareils et aider les personnes aveugles ou malvoyantes à accéder à des expériences sociales plus immersives. Dans le contexte de la sécurité publique, elle peut contribuer à la recherche de victimes de la traite de personnes et être utilisée dans le cadre d'enquêtes criminelles.
Toutefois, nous sommes également conscients des risques que cette technologie peut présenter, notamment du risque de biais et de décisions injustes en matière de rendement, y compris dans différents groupes démographiques; du potentiel de nouvelles intrusions dans la vie privée des gens; et des menaces possibles pour les libertés démocratiques et les droits de la personne.
En réponse à cela, nous avons développé ces dernières années un certain nombre de mesures de protection internes chez Microsoft, dont nos principes de reconnaissance faciale. Ils comprennent la création de notre note sur la transparence pour l'interface de programme des applications FACE. Cette note sur la transparence explique, dans un langage destiné à un public non technique, comment fonctionne notre reconnaissance faciale, quelles en sont les capacités et les limites et quels sont les facteurs qui influent sur les performances, le tout dans le but d'aider les clients à comprendre comment l'utiliser de manière responsable.
Le travail sur la reconnaissance faciale s'appuie sur le programme plus étendu de responsabilisation en matière d'intelligence artificielle de Microsoft. Il s'agit d'un programme qui garantit que les collègues conçoivent et déploient l'intelligence artificielle d'une manière conforme à nos principes. Le programme comprend l'équipe de gouvernance de l'intelligence artificielle de l'entreprise et notre norme d'intelligence artificielle responsable, qui est une série d'exigences auxquelles les collègues qui conçoivent et déploient l'intelligence artificielle doivent se conformer. Il comprend également notre processus d'examen des utilisations délicates de l'intelligence artificielle.
Outre ces mesures de protection internes, nous pensons également que des dispositions réglementaires sont nécessaires. Ce besoin est particulièrement aigu dans le contexte de l'application de la loi, comme je l'ai mentionné. Nous pensons vraiment que l'importance du travail de ce comité ne peut être surestimée. Nous saluons la manière dont il réunit les parties prenantes de toute la société, y compris le gouvernement, la société civile, l'industrie et le monde universitaire, pour discuter de ce à quoi un cadre réglementaire devrait ressembler.
Nous soulignons qu'en effet, des avancées positives ont eu lieu dans des endroits comme l'État de Washington aux États-Unis, et que d'importantes discussions sont en cours dans l'Union européenne et ailleurs. Nous croyons cependant que le Canada a l'occasion de jouer un rôle de premier plan dans la création d'une réglementation en la matière.
Nous pensons que ce type de réglementation doit accomplir trois choses. Elle doit protéger les droits de la personne, favoriser la transparence et la responsabilisation, et assurer la mise à l'essai des systèmes de reconnaissance faciale de manière à démontrer qu'ils fonctionnent correctement.
En matière d'application de la loi, les dispositions réglementaires doivent prendre en compte d'importants aspects de la protection des droits de la personne, notamment l'interdiction d'utiliser la reconnaissance faciale pour la surveillance de masse sans discernement et l'interdiction de l'utiliser sur la base de la race, du sexe, de l'orientation sexuelle ou d'autres caractéristiques protégées d'une personne. Les dispositions réglementaires doivent également veiller à ce que l'utilisation de la reconnaissance faciale ne porte pas atteinte à des libertés importantes, telles que la liberté de réunion.
En ce qui concerne la transparence et la responsabilité, nous pensons que les organismes chargés de l'application de la loi devraient adopter une politique d'utilisation publique définissant la manière dont ils utiliseront la reconnaissance faciale; les bases de données dans lesquelles ils effectueront des recherches; et la manière dont ils désigneront et formeront les personnes chargées d'utiliser le système de sorte qu'elles le fassent convenablement et qu'un examen soit réalisé par un humain. Nous pensons également que les fournisseurs doivent donner de l'information sur le fonctionnement de leurs systèmes et sur les facteurs qui affecteront les performances.
Il est important que les systèmes soient également soumis à des tests garantissant l'exactitude des résultats. Nous recommandons aux fournisseurs de reconnaissance faciale comme Microsoft de soumettre leurs systèmes à des tests raisonnables réalisés par des tiers et de mettre en place des plans d'atténuation pour tout écart de performance, notamment parmi les groupes démographiques.
Nous pensons également que les organismes qui déploient la reconnaissance faciale doivent tester les systèmes dans des conditions opérationnelles, étant donné les effets que les facteurs environnementaux comme l'éclairage et le fond de scène ont sur les performances. Dans un contexte commercial, nous pensons que la réglementation devrait exiger un avis bien visible et un consentement explicite pour tout suivi.
Je vais conclure en disant que nous faisons l'éloge de nombreux éléments des recommandations que les commissaires provinciaux et fédéral à la protection de la vie privée ont formulées plus tôt cette semaine et qui établissent des éléments importants du cadre juridique de la reconnaissance faciale.
Je vous remercie beaucoup.
:
Merci, monsieur le président, mesdames et messieurs les membres du Comité, de nous donner l'occasion de vous faire part de nos réflexions dans le contexte de cette étude.
Je m'appelle Rizwan Mohammad et je suis agent des services d'assistance judiciaire au Conseil national des musulmans canadiens, le CNMC. Je suis accompagné aujourd'hui par le président-directeur général du CNMC, Mustafa Farooq. Je tiens également à remercier Hisham Fazail, stagiaire au CNMC, d'avoir travaillé à la rédaction de notre mémoire.
Aujourd'hui, nous voulons nous pencher sur le cœur du problème de la technologie de reconnaissance faciale, ou TRF. Divers organismes de sécurité nationale et de maintien de l'ordre ainsi que d'autres organismes gouvernementaux sont venus témoigner devant votre comité pour vous dire à quel point la TRF est un outil important qui a un grand potentiel d'utilisation au sein du gouvernement. On vous a dit que la TRF peut contribuer à éviter les problèmes de cognition humaine et de partialité.
Je vais vous donner des noms que vous connaissez tous, des noms associés à des moments où ces mêmes organismes vous ont dit que la surveillance se ferait d'une manière conforme à la Constitution et équilibrée. Il s'agit de Maher Arar, Abdullah Almalki et Mohamedou Ould Slahi.
Les mêmes organismes qui ont menti à la population canadienne au sujet de la surveillance des communautés musulmanes se présentent maintenant devant vous pour affirmer que, même si la surveillance de masse n'aura pas lieu, la TRF peut et doit être utilisée de manière responsable. Le commissaire à la protection de la vie privée a déjà établi que ces organismes, dont la GRC, ont enfreint la loi en ce qui concerne la TRF.
Nous formulons donc les deux recommandations suivantes, et nous tenons à préciser que nos observations se limitent à l'exploration de la TRF dans un cadre autre que celui de la consommation.
Premièrement, nous recommandons au gouvernement d'adopter une loi claire et sans équivoque sur la protection de la vie privée qui limite rigoureusement la façon dont la TRF peut être utilisée dans un contexte autre que celui de la consommation, et qui ne permet que des exceptions approuvées par les tribunaux dans le contexte de la surveillance.
Deuxièmement, nous recommandons au gouvernement d'établir des sanctions claires pour les organismes qui violent les règles relatives à la protection de la vie privée et à la TRF.
Commençons par la première recommandation, qui demande une interdiction générale du recours à la TRF sans autorisation judiciaire à l'échelle du gouvernement, dans le contexte de tous les organismes de sécurité nationale, notamment, la GRC, le SCRS et l'ASFC. Vous en connaissez déjà les raisons. Un rapport de 2018 au Royaume-Uni a révélé de nouvelles données montrant que le logiciel de reconnaissance faciale utilisé par la police métropolitaine du Royaume-Uni produisait des correspondances incorrectes dans 98 % des cas. Une autre étude de 2019, fondée sur une méthodologie différente, a montré que la police métropolitaine fournissait un taux de correspondances incorrectes, ou un taux de faux positifs, de 38 %.
Nous sommes bien conscients que la TRF fonctionne différemment, et avec des degrés de précision différents, selon la technologie, mais nous reconnaissons tous qu'il existe des biais algorithmiques en matière de TRF. Compte tenu de ce que nous savons, des risques pour la vie privée que pose la TRF et des préoccupations exprimées par des Canadiens, y compris des membres d'autres comités de la Chambre, au sujet du racisme systémique dans les services de police, nous sommes d'accord avec d'autres témoins qui ont comparu devant ce comité pour demander un moratoire immédiat sur toute utilisation de la TRF dans le contexte de la sécurité nationale, notamment à la GRC, et ce, jusqu'à ce que soient rédigées des lignes directrices législatives.
Simultanément, nous recommandons l'adoption d'un seuil très élevé dans l'élaboration des lignes directrices législatives, notamment en ce qui concerne l'autorisation judiciaire, la surveillance et les délais.
Deuxièmement, nous sommes choqués par la désinvolture de la GRC dans sa façon d'aborder la question de l'utilisation de Clearview AI. La GRC a d'abord nié avoir utilisé Clearview AI, puis a confirmé avoir utilisé le logiciel après que la liste des clients de la société a été piratée. Elle a prétexté que l'utilisation de la TRF n'était pas largement connue au sein de la GRC. Elle a donné au commissaire à la protection de la vie privée une explication totalement inacceptable, aussi crédible que l'excuse du chien qui a mangé le devoir.
À la suite des conclusions formulées par le commissaire à la protection de la vie privée dans son rapport, la GRC a eu l'audace de déclarer qu'elle n'était pas nécessairement d'accord avec ces conclusions. La GRC a certes pris certaines mesures pour apaiser les préoccupations soulevées, mais tout manquement à l'obligation de rendre des comptes, lorsqu'il s'agit d'erreurs manifestes et de déclarations trompeuses, doit entraîner des sanctions claires. Sinon, comment pouvons-nous faire confiance à un tel processus ou à l'engagement d'éviter la surveillance de masse?
Nous encourageons le Comité à recommander que des sanctions sévères soient infligées aux organismes et aux agents qui enfreignent les règles créées en matière de TRF, peut-être par la modification de la Loi sur la GRC. Nous transmettrons au Comité un mémoire plus détaillé en temps voulu.
C'est ce que nous proposons. Vos questions seront bienvenues.
Merci.
:
Je vous remercie beaucoup de votre question.
Il est vrai que nous ne vendons pas la reconnaissance faciale aux services de police locaux des États-Unis. Nous estimons qu'il est très important de mettre en place des dispositions législatives capables de protéger les droits de la personne dans le contexte de la reconnaissance faciale. Je pense que l'un des défis aux États-Unis est qu'il n'y a pas de loi en la matière. Il n'y a pas de loi sur la protection de la vie privée, comme il en existe dans beaucoup d'autres pays, y compris au Canada. Bien sûr, je suis au courant des discussions en cours sur la façon d'améliorer le régime de protection de la vie privée au Canada, et ce sont des discussions importantes à avoir également.
C'est notre position. C'est pourquoi nous nous exprimons de manière proactive, en participant à des discussions comme celle‑ci et en contribuant à des efforts importants comme ceux que vous déployez. Nous voulons nous assurer de la mise en place d'une réglementation solide concernant l'utilisation de la reconnaissance faciale, en priorité pour la police, et nous souhaitons plus généralement veiller à ce que la technologie soit utilisée d'une manière transparente, responsable et respectueuse des droits.
:
Nous avons notre programme plus général de responsabilisation en matière d'intelligence artificielle, que nous avons développé au cours des dernières années. Il comporte quelques éléments. Nous avons une équipe de gouvernance de l'intelligence artificielle à l'échelle de l'entreprise. Cette équipe regroupe de multiples parties prenantes et certains de nos chercheurs Microsoft. Il s'agit de chercheurs de renommée mondiale du domaine de l'intelligence artificielle qui partagent leurs connaissances sur l'état actuel de la technologie et sur son évolution. Ils collaborent à la supervision du programme général avec des personnes chargées des questions juridiques et politiques et des personnes qui ont une formation d'ingénieur.
En ce qui concerne les autres composantes, nous disposons également d'une norme d'intelligence artificielle responsable. C'est un ensemble d'exigences liées à nos six principes de l'intelligence artificielle — je pourrai vous les présenter en détail — qui garantissent que toutes les équipes chargées de concevoir ou de déployer des systèmes d'intelligence artificielle le font d'une manière conforme à nos principes.
Le dernier élément est également un processus d'examen des utilisations délicates. Ce processus entre en jeu lorsque la conception ou le déploiement éventuel d'un système répond à l'un des trois éléments déclencheurs potentiels. Chaque fois qu'un système est utilisé d'une façon qui affecte les perspectives juridiques ou le statut juridique d'une personne, chaque fois qu'il y a un risque de préjudice psychologique ou physique, ou chaque fois qu'il y a risque d'atteinte aux droits de la personne, l'équipe de gouvernance que j'ai mentionnée se réunit et vérifie si nous pouvons aller de l'avant avec le déploiement ou la conception d'une forme d'intelligence artificielle particulière, et veille ainsi à ce que cela se fasse de manière responsable.
Vous pouvez imaginer que ces discussions se tiennent pour tous nos systèmes, y compris les discussions que nous avons sur la reconnaissance faciale.
:
Nous pensons que c'est une partie très importante de la réflexion, et ce, pour plusieurs raisons.
La précision de la reconnaissance faciale s'est nettement améliorée ces dernières années. De très bonnes recherches sont menées par le National Institute of Standards and Technology aux États-Unis, ou NIST. Elles montrent que la précision s'est nettement améliorée ces dernières années pour les systèmes les plus performants. Il existe toutefois un écart très important entre les systèmes les plus performants et les systèmes les moins performants, et les systèmes les moins précis ont tendance à être plus discriminatoires également. C'est la raison pour laquelle nous pensons que les tests sont vraiment importants.
Il y a deux composantes à cela. Nous pensons que des fournisseurs tels que Microsoft devraient permettre que leurs systèmes soient testés de manière raisonnable par des tiers indépendants, ce que nous permettons actuellement au moyen d'une IPA, ou interface de programme des applications. Une tierce partie peut tester notre système pour voir s'il est précis. Nous pensons que les fournisseurs devraient être tenus de répondre à tout test et de corriger tout écart de performance important, y compris sur le plan démographique. Donc, les fournisseurs doivent agir sur le plan des tests.
Nous pensons aussi qu'il est vraiment très important que les organisations qui déploient un service de reconnaissance faciale le testent dans des conditions opérationnelles. Si vous êtes un client de la police et que vous utilisez un système de reconnaissance faciale, vous ne devez pas vous contenter de croire sur parole le fournisseur qui vous dit que le système sera précis dans l'abstrait; vous devez également le tester dans des conditions opérationnelles. En effet, les facteurs environnementaux tels que la qualité de l'image ou la position de la caméra ont une incidence considérable sur la précision.
Vous pouvez imaginer que si vous avez une caméra qui fixe le dessus de la tête d'une personne et qu'il y a des saletés sur l'objectif, ou que des images de mauvaise qualité entrent dans le système en général, les performances en seront très réduites. Par conséquent, les organisations qui déploient la reconnaissance faciale devraient également être tenues de procéder à des tests garantissant que le système fonctionne correctement dans l'environnement où il sera utilisé.
Je remercie tous les témoins de leur présence parmi nous aujourd'hui. J'aimerais également commencer par vous, monsieur Larter.
J'ai lu un article écrit en 2018 par Brad Smith, de Microsoft. Il aborde beaucoup de questions semblables à celles dont vous parlez aujourd'hui. La technologie de reconnaissance faciale était mise au point, et Microsoft demandait au gouvernement de réglementer l'industrie.
Je me demande si vous pouvez parler de la façon dont cela fonctionne lorsque des géants de la technologie mettent au point cette technologie et demandent ensuite aux gouvernements de la réglementer. Est‑ce la bonne façon de procéder? Y a‑t‑il de meilleurs moyens pour faire participer les gouvernements lorsque la technologie est mise au point?
J'aimerais juste que vous en parliez un peu.
:
C'est une question très importante, et nous sommes convaincus que le gouvernement doit jouer un rôle de premier plan dans la création d'un cadre réglementaire pour la technologie en général, y compris des technologies comme la reconnaissance faciale.
Nous avons essayé deux ou trois choses au cours des dernières années. Nous avons d'abord pris des mesures internes de protection, pour apporter notre contribution en tant que vendeur de systèmes de reconnaissance faciale afin que la technologie soit utilisée de manière responsable. J'ai parlé de notre programme de responsabilisation en matière d'intelligence artificielle. Nous avons aussi notre note sur la transparence pour l'interface de programme des applications FACE. Je crois que c'est un aspect très important de la discussion pour répondre au besoin de transparence quant à la façon dont la reconnaissance faciale est mise au point et élaborée.
La note sur la transparence est un document que nous avons rendu public, et il indique clairement le fonctionnement d'un système pour ce qui est de certaines capacités de la technologie, les limites de la technologie ainsi que les usages à proscrire et les facteurs qui nuisent au rendement, pour que le client qui se sert de la technologie soit bien informé et en mesure de prendre des décisions éclairées et responsables relativement à son déploiement.
C'est une partie de ce que nous faisons à l'interne. Nous croyons également qu'un cadre réglementaire est nécessaire, car il est très important d'instaurer la confiance dans la technologie en général et plus particulièrement dans la reconnaissance faciale, compte tenu de certains risques qu'elle peut présenter et dont j'ai parlé dans mes observations.
Nous tenons à appuyer ces discussions. C'est la raison pour laquelle nous sommes ravis de prendre part à des discussions comme celle‑ci. Nous voulons vraiment mettre à contribution nos connaissances sur le fonctionnement et l'orientation de la technologie pour pouvoir créer, sous la direction des gouvernements et en collaboration avec d'autres intervenants comme la société civile, un cadre réglementaire solide pour la technologie afin de pouvoir tirer parti des avantages de cette technologie puissante tout en s'attaquant à certains des problèmes qu'elle présente.
:
C'est une très bonne question. Je dirais qu'on s'en sert de plus en plus. C'est une technologie qui peut présenter de nombreux avantages, et je pense que les gens et les organisations s'en rendent compte.
Il y a quelques applications différentes. Elles sont souvent liées à la sécurité, comme la vérification de l'identité à l'aide de la reconnaissance faciale. Par exemple, lorsqu'on ouvre une session sur son téléphone ou son ordinateur, c'est maintenant souvent à l'aide d'un outil de reconnaissance faciale. L'enregistrement aisé et sans contact à l'aéroport est un autre exemple de la façon dont la reconnaissance faciale est utilisée. Cette utilisation a d'ailleurs été particulièrement importante au cours des dernières années, dans le pire de la crise attribuable à la COVID, de toute évidence.
Au‑delà de la sécurité, je pense qu'il y a des applications très bénéfiques en matière d'accessibilité. Un certain nombre d'organisations font des travaux de recherche très intéressants sur la façon d'utiliser la reconnaissance faciale pour aider les personnes aveugles ou malvoyantes à mieux comprendre le monde qui les entoure et à mieux interagir. Nous avons le projet Tokyo, dans lequel on a recours à la reconnaissance faciale. Une personne aveugle équipée d'un casque d'écoute peut balayer la pièce — disons une cafétéria ou un espace ouvert au travail — et être en mesure d'identifier les personnes qui ont accepté de faire partie de son système de reconnaissance faciale, ce qui lui permettra de prendre les devants et d'entamer une conversation, ce qui aurait été très difficile autrement.
Une autre application à laquelle je pense et qui emballe les gens du milieu de l'accessibilité s'adresse aux personnes atteintes d'Alzheimer ou de maladies similaires qui font en sorte qu'il leur est de plus en plus difficile de reconnaître des amis ou des êtres chers. Vous pouvez imaginer la manière dont on se penche sur la reconnaissance faciale pour aider ces personnes à reconnaître leurs amis et leurs proches.
La réponse devient longue, mais je vais terminer en disant qu'il y a aussi des applications utiles dans le contexte de l'application de la loi. Nous pensons que, dans le cadre d'une enquête criminelle, la reconnaissance faciale, de pair avec de solides mesures de protection, peut être un outil utile. On s'en sert aussi pour identifier en ligne des personnes disparues ou victimes de la traite, y compris des enfants, d'une manière qui s'est également avérée très utile.
La technologie procure des avantages concrets, mais, encore une fois, il y a les problèmes dont j'ai aussi parlé. C'est pour cette raison que vous avez besoin d'un cadre réglementaire qui permet de profiter de ces avantages tout en s'attaquant aux problèmes connexes.
:
Nous pensons que la reconnaissance faciale peut avoir des applications dans le domaine de la sécurité et celui de l'application de la loi. Je pense que ce qu'il faut vraiment retenir, c'est que nous utilisons une approche axée sur les risques en ce qui a trait à notre façon de procéder à une évaluation au moyen d'un système et au genre de clients avec lesquels nous travaillons.
Nous avons notre processus d'examen des utilisations délicates dont j'ai parlé, qui compte trois éléments déclencheurs. Chaque fois que nous déployons un système — qu'il s'agisse de la reconnaissance faciale ou d'un autre — d'une façon qui mène à un de ces trois éléments déclencheurs, nous avons recours à un solide processus d'examen des utilisations délicates.
Notre technologie de reconnaissance faciale peut servir à appliquer la loi et à assurer la sécurité. Nous pensons qu'elle a des applications utiles dans ces scénarios, mais il est très important d'avoir de solides mesures de protection liées à cette utilisation, y compris les mesures de protection internes de Microsoft dont j'ai parlé, mais aussi un cadre réglementaire pour qu'il ne plane aucun doute sur la façon dont la technologie est utilisée, pour que nous sachions qu'elle est utilisée de manière fiable et responsable.
:
La présence d'un cadre protège Microsoft, mais pas nécessairement pour les raisons évoquées. De façon générale, nous considérons qu'il est crucial d'établir dans le domaine de la technologie un cadre de réglementation qui engendre la confiance et montre que la technologie est utilisée de manière fiable.
Nous sommes en activité depuis un bon bout de temps maintenant. Notre entreprise a presque 50 ans, et nous comprenons qu'il faut que la technologie inspire la confiance pour que la société en profite et pour que les gens l'utilisent. La réglementation joue un rôle de premier plan dans l'établissement d'un cadre de fiabilité. Voilà ce que nous préconisons en général et, en particulier, ce pour quoi nous investissons du temps pour tenter de préconiser l'établissement de mesures de protection solides au sujet de la reconnaissance faciale, puisqu'il s'agit d'une puissante technologie qui a des applications très bénéfiques, comme je l'ai souligné, mais qui s'accompagne également de défis potentiels.
La création d'un cadre en matière de reconnaissance faciale faisant en sorte que cette dernière puisse être utilisée de façon fiable — et de manière jugée fiable par la population — est très importante pour que la société puisse profiter de ses bienfaits et pour que cette technologie soit utilisée à long terme.
:
C'est une bonne question. Je vous remercie de m'inviter à fournir des documents. Nous serions heureux d'avoir l'occasion de le faire. Nous pensons que les travaux du Comité sont très importants et nous voulons apporter tout le soutien et toute l'aide possible. Je vous remercie de me demander de fournir des documents, et nous vous en enverrons.
En ce qui concerne le métavers, les possibilités qu'il offre suscitent un enthousiasme généralisé, et avec raison, selon moi. La création du métavers mettra à contribution un certain nombre de technologies pour qu'il fonctionne conformément aux attentes des gens et de manière responsable.
Je pense que la reconnaissance faciale fera partie de ces technologies, aux côtés de bien d'autres technologies. Le métavers — que, chez Microsoft, nous appelons « multivers » — offre une myriade de possibilités que notre société commence à peine à explorer. Nous devrons discuter sérieusement de ce que nous voulons qu'il soit et des mesures de protection que nous devrons instaurer pour profiter des avantages de cette technologie et résoudre certains problèmes.
La reconnaissance faciale jouera certainement un rôle de toutes sortes de façons que nous ne pouvons probablement même pas comprendre pleinement à l'heure actuelle.
:
Monsieur Larter, je vais reprendre la parole. Je vous remercie de cette explication. Je vous encourage à écouter le reste des témoignages, car vous pourriez découvrir que dans les faits, nos cadres actuels ne sont pas adéquats au Canada.
Sur ce, je tournerai mon attention vers nos amis du Conseil national des musulmans canadiens et M. Mohammad, qui a, selon moi, soulevé des points fort pertinents dans son allocution d'ouverture.
Monsieur, votre site Web indique que vous avez reçu des centaines de plaintes en matière de droits de la personne de la part de membres du public qui considèrent avoir fait l'objet de discrimination. Au cours de mes questions précédentes, j'ai établi un lien entre l'utilisation de la reconnaissance faciale et le profilage racial, les contrôles de routine et d'autres mesures. À votre avis, cette technologie est-elle utilisée comme méthode de profilage racial?
:
Je vous remercie beaucoup, monsieur le président. Je remercie également nos témoins de comparaître aujourd'hui.
Permettez-moi de commencer, comme je le fais souvent, en invitant les témoins à fournir des documents supplémentaires au Comité s'ils n'ont pas l'occasion de fournir des réponses exhaustives au cours de la séance d'aujourd'hui. Ces documents seraient certainement les bienvenus et nous aideraient.
Monsieur Larter, à titre d'exemple pour préparer le terrain en vue de ma question, lorsque les caméras ont été initialement créées, les produits chimiques utilisés étaient expressément conçus pour capter le visage de personnes blanches, de façon générale. J'ai fait quelques lectures et vu certains documents indiquant que c'était le cas. Il y a donc des limites techniques dans le domaine de la reconnaissance faciale.
Je me demande si vous pourriez nous indiquer si Microsoft en a tenu compte dans le développement de sa technologie de reconnaissance faciale et nous expliquer les implications que ces limites pourraient avoir sur le plan des différentes races, des divers genres, etc.
:
C'est une question vraiment importante. Je vous remercie donc de l'avoir posée.
Comme je l'ai indiqué, je considère qu'un des principaux risques qu'il faut prévenir avec la réglementation est celui de l'utilisation discriminatoire potentielle de la technologie de reconnaissance faciale. Au cours du développement de notre technologie, nous avons pris grand soin d'avoir un ensemble de données représentatif afin de mettre au point la technologie pour qu'elle fonctionne adéquatement, y compris entre les divers groupes démographiques.
Nous dirions que c'est à cet égard que les mises à l'essai sont très importantes et qu'il ne faut pas tout bonnement nous croire sur parole. Selon nous, il importe que les vendeurs fassent tester la technologie de reconnaissance faciale par un tiers indépendant et raisonnable, comme je l'ai indiqué, pour vérifier ce que font les entreprises qui vendent la technologie de reconnaissance faciale au chapitre des algorithmes. Je pense que ce genre de surveillance est cruciale afin d'élever la barre...
:
Pour le dire simplement, c'est très difficile d'engager un dialogue en l'absence de données fondamentales.
Comme le SCRS refuse de répondre à une question fondamentale — une question à laquelle il n'a pas répondu non plus pour le Comité —, à savoir s'il utilise la technologie de reconnaissance faciale, c'est très difficile de croire en la reddition de comptes. C'est aussi très difficile d'avoir une discussion. De plus, comme la GRC ne tient pas les mêmes propos selon qu'elle s'adresse à la population canadienne, au commissaire à la protection de la vie privée ou à notre organisation, c'est très difficile d'avoir une discussion franche et de bonne foi sur ce à quoi pourrait ressembler l'avenir.
Je pense que nous souhaitons tous un avenir où les organismes d'application de la loi utilisent la technologie de reconnaissance faciale de manière responsable. Les gens ont raison d'affirmer que cette technologie peut être utilisée à de bonnes fins, surtout dans des domaines comme la lutte contre la pornographie juvénile. La réalité, c'est que les organismes canadiens ne répondent pas aux attentes de la population, pour toutes les raisons que vous connaissez, qui sont liées au racisme systémique et à nombre d'autres difficultés.
Monsieur le président, je veux m'assurer que la demande que j'ai faite à M. Larter est parfaitement claire.
Monsieur Larter, je vous demande de nous fournir, aux fins de notre étude, une liste de l'ensemble des contrats, actuels et passés, que vous avez conclus avec les organismes canadiens de sécurité publique — les organismes du gouvernement, de l'armée, du domaine de l'application de la loi et de la police —, étant donné que vous n'avez pas été en mesure de fournir ces renseignements au Comité aujourd'hui. Comprenez-vous la demande?
:
Certainement. Je vous remercie pour cette question très importante.
Nous fournirons plus de détails dans notre mémoire, mais ce que je dirais en premier lieu, de façon générale, c'est qu'il faut interdire l'utilisation de la technologie de reconnaissance faciale en temps réel dans des endroits comme les aéroports et les postes frontaliers.
En ce qui concerne les outils d'enquête, nous demandons l'imposition d'un moratoire jusqu'à la mise en place des politiques. À notre avis, le processus devrait ressembler de près à celui que la police doit suivre pour obtenir tout mandat de perquisition: elle doit se présenter devant un juge et lui soumettre son argumentaire, un scénario idéal et des documents clairs; ensuite, le tout est rendu public. Nous fournirons des détails sur les dispositions particulières que nous recommandons de modifier.
:
Je vous remercie, monsieur le président, et je m'excuse de ne pas être avec vous en personne aujourd'hui. Je suis aux prises avec une inondation dans ma circonscription et dans ma propre cour.
Mes premières questions s'adressent à MM. Farooq et Mohammad. Je veux creuser encore plus pour être certain de n'oublier aucune mesure législative dans notre examen de la réglementation.
Vous avez déjà mentionné le SCRS et la GRC. Vous avez aussi parlé des modifications qu'il faudra apporter au Code criminel, ainsi qu'à la Loi sur la protection des renseignements personnels et à la Loi sur la protection des renseignements personnels et les documents électroniques. Je sais que dans le domaine de la défense nationale, le CST surveille principalement les messages envoyés en ligne. Le CST a peut-être la formule qu'il nous faut, car il ne peut pas utiliser des moyens détournés pour faire ce qu'il n'a pas le droit de faire par des moyens directs, comme surveiller tout citoyen canadien ou tout allié du Groupe des cinq. Il doit obtenir des mandats ou des autorisations ministérielles pour toute question liée à la sécurité et à la défense nationales.
Nous recommandez-vous de prendre les mêmes mesures pour protéger les droits des Canadiens garantis par la Charte?
:
Je pense que c'est une question fondamentale dans cette discussion sur la réglementation. Je pense qu'il est très important de déterminer ce qui est une utilisation autorisée et ce qui ne l'est pas.
Nous avons des suggestions à cet égard. Nous sommes d'avis que la surveillance de masse systématique ne devrait pas être autorisée. Nous pensons aussi que toute discrimination fondée sur la race, le sexe, l'orientation sexuelle ou d'autres caractéristiques protégées devrait être interdite.
En outre, la question des libertés démocratiques, dont nous avons discuté aujourd'hui, est très importante, et je suis heureux de constater qu'elle fait partie de la discussion. Il faut aussi veiller à ce que l'utilisation de la technologie ne porte pas atteinte aux libertés fondamentales comme la liberté de réunion. Voilà quelques principes de base que nous suggérons.
Plus particulièrement dans le contexte de l'application de la loi, nous considérons qu'il est important que les résultats de la reconnaissance faciale ne soient pas le seul motif ou le seul élément de preuve dans la prise de décisions importantes, notamment les arrestations.
:
Merci, monsieur le président.
Je pense que dans sa série de questions, Mme Khalid a soulevé un point très important concernant la création d'un cadre juridique, et c'est ce que j'appellerai « l'obligation de franchise » des organismes de sécurité, des services de police, des forces armées et de l'ASFC quant à l'utilisation de ces technologies.
Par votre intermédiaire, monsieur le président, j'aimerais attirer l'attention de M. Farooq sur un reportage du Globe and Mail datant du 31 août 2021 dans lequel on indique que la cour a encore une fois semoncé le SCRS concernant son obligation de franchise. On mentionne aussi d'autres violations liées aux méthodes du SCRS pour obtenir des mandats et surveiller subrepticement des Canadiens, ce qui est illégal, pour parler franchement.
La question est pour M. Farooq, monsieur le président, par votre intermédiaire. Selon votre expérience, dans votre travail de défense des droits — puisque nous parlons maintenant de l'aspect humain de l'utilisation de cet outil —, pourriez-vous parler de cas où nos organismes de sécurité nationale et de sécurité publique pourraient avoir manqué de franchise quant à la surveillance des membres de la communauté musulmane?