[Français]
Je vous souhaite la bienvenue à la 25e réunion du Comité permanent de l'accès à l'information, de la protection des renseignements personnels et de l'éthique de la Chambre des communes.
Conformément à l'alinéa 108(3)(h) du Règlement et à la motion adoptée par le Comité le lundi 13 décembre 2021, le Comité reprend son étude sur l'utilisation et les répercussions de la technologie de reconnaissance faciale.
[Traduction]
J'aimerais souhaiter la bienvenue à nos témoins. Nous accueillons aujourd'hui Nestor Maslej, associé de recherche, Institute for Human-Centred Artificial Intelligence, Stanford University, qui témoignera à titre personnel; et Sharon Polsky, présidente, Conseil du Canada de l'accès et la vie privée.
Monsieur Maslej, vous avez cinq minutes pour faire votre déclaration préliminaire.
:
Bonjour. J'aimerais commencer par remercier le président et les membres du Comité de m'avoir invité à prendre la parole aujourd'hui.
Je m'appelle Nestor Maslej, et je suis actuellement associé de recherche au Stanford Institute for Human-Centered AI. Je suis également co-auteur et chercheur principal de l'AI Index. Bien que mon témoignage d'aujourd'hui s'appuie sur les données de l'AI Index, je témoigne à titre personnel, et mes opinions ne sont pas représentatives de celles du Stanford Institute for Human-Centered AI.
L'AI Index est un rapport annuel, qui, à l'heure actuelle, en est à sa cinquième édition et qui vise à permettre de suivre, de distiller et de visualiser les principales tendances de l'intelligence artificielle. L'index a pour objet d'être la meilleure et la plus fiable source d'information sur les tendances de l'IA. Il vise à apporter aux décideurs politiques comme vous non seulement une compréhension plus approfondie de l'IA, mais aussi une compréhension fondée sur des données empiriques, ce qui est crucial.
C'est surtout ce dernier objectif qui inspire mon témoignage aujourd'hui. Je suis ici pour répondre à la question suivante: Que nous disent les données au sujet de la technologie de reconnaissance faciale (TRF)? Je répondrai à cette question en abordant deux sous-questions. Je vais d'abord parler de la capacité. À ce jour, que peut accomplit la TRF? Ensuite, j'examinerai son utilisation. Qui utilise la TRF — les acteurs publics et privés —, et comment?
En ce qui concerne la capacité, les performances des algorithmes de reconnaissance faciale ont fait d'énormes progrès au cours des cinq dernières années. L'AI Index a examiné les données provenant des Face Recognition Vendor Tests (FRVT) du National Institute for Standards and Technology (NIST), que le Département du Commerce des États-Unis a fournies et qui mesurent le rendement de la TRF dans le cadre de diverses tâches de sécurité intérieure et d'application de la loi, telles que la reconnaissance faciale appliquée à des images de photojournalisme, l'identification des enfants victimes de la traite, la déduplication des passeports et la vérification croisée des images de visa.
En 2017, certains des algorithmes de reconnaissance faciale les plus performants affichaient des taux d'erreur allant d'environ 20 à 50 % selon certains ensembles de données des FRVT. En 2021, aucun n'a affiché un taux d'erreur supérieur à 3 %, les modèles les plus performants enregistrant un taux d'erreur de 0,1 %, ce qui signifie que ces modèles identifient correctement 999 des 1 000 visages analysés.
L'AI Index montre également que les visages masqués réduisent le rendement de la TRF, mais pas de manière trop significative. Plus précisément, le rendement diminue de 5 à 16 points de pourcentage selon l'algorithme de la TRF et les ensembles de données.
En ce qui a trait à l'utilisation, les TRF sont déployées de plus en plus fréquemment dans des contextes publics et privés. En 2021, 18 des 24 organismes du gouvernement américain ont utilisé ces technologies: 16 départements l'ont fait à des fins d'accès numérique ou de cybersécurité, six, à des fins de création de pistes pour des enquêtes criminelles, et cinq, à des fins de sécurité physique. De plus, 10 départements ont signalé qu'ils espéraient élargir leur utilisation. Ces chiffres sont certes centrés sur les États-Unis, mais ils donnent une idée de l'ampleur de l'utilisation de ces outils par les gouvernements et des objectifs poursuivis.
Depuis 2017, un total de 7,5 milliards de dollars américains a également été investi à l'échelle mondiale afin de financer des entreprises en démarrage spécialisées dans la reconnaissance faciale. Cependant, seulement 1,6 de ces 7,5 millions de dollars ont été consacrés à des entreprises canadiennes de TRF en démarrage. Au cours de la même période, le montant investi dans les TRF a augmenté de 105 %, ce qui semble indiquer que l'intérêt des entreprises pour la TRF augmente aussi. Nos estimations montrent également que la TRF est le 12e secteur le plus financé parmi les 25 secteurs d'intérêt de l'IA.
Enfin, un sondage McKinsey mené auprès des plus grands dirigeants d'entreprises, un sondage que nous avons inclus dans l'AI Index, montre que, dans tous les secteurs étudiés, seulement 11 % des entreprises ont intégré la technologie de reconnaissance faciale dans leurs processus organisationnels standard, la TRF étant devancée par l'automatisation de processus robotisés (26 %) et la compréhension de la parole naturelle (14 %) en tant que technologies les plus intégrées dans les entreprises.
En conclusion, j'ai présenté quelques-unes des principales constatations de l'AI Index en ce qui concerne les capacités et l'utilisation actuelles de la TRF. J'espère que les données que je vous ai communiquées éclaireront efficacement les délibérations du Comité au sujet de la réglementation future des technologies de reconnaissance faciale au Canada. Je me ferai un plaisir de répondre à vos questions concernant les données que j'ai présentées et les conséquences qu'elles peuvent avoir.
Merci.
:
Merci beaucoup, monsieur le président. Bonjour chers membres du Comité. Je vous remercie de m'avoir invitée à comparaître devant vous aujourd'hui au nom du Conseil du Canada de l'accès et la vie privée.
Les observations que je formulerai aujourd'hui tiendront compte des tables rondes organisées par le conseil et composées de membres des secteurs public et privé, ainsi que de membres des forces de l'ordre, des membres qui s'entendent pour dire que la reconnaissance faciale est l'un des nombreux outils numériques qui présentent un grand potentiel.
Comme toute technologie, la reconnaissance faciale n'est ni bonne ni mauvaise, mais elle est facile à justifier, surtout lorsqu'elle est étudiée individuellement. La façon dont les gens utilisent la technologie fait toute la différence en ce qui concerne son caractère raisonnable, sa proportionnalité et son incidence sur la vie des gens.
Il y a 34 ans, notre Cour suprême a déclaré que « la notion de vie privée est au coeur de celle de la liberté dans un État moderne », que « la notion de vie privée est essentielle [au bien-être de la personne » et que la vie privée « mériterait une protection constitutionnelle », et j'ose dire qu'elle l'est toujours, sauf qu'aujourd'hui nous luttons pour avoir une quelconque vie privée, chez nous ou ailleurs.
Il est désormais difficile, voire impossible, d'empêcher que nos images faciales soient saisies et analysées et que nos mouvements et nos associations soient calculés et évalués en temps réel. Nous sommes visibles chaque fois que nous sortons dehors, et souvent aussi à l'intérieur, et nos images sont diffusées sur Internet, souvent à notre insu. Nous n'avons pas consenti à ce que ces images soient utilisées, ni à ce que notre démarche, nos frappes ou d'autres données biométriques soient analysées et mises en corrélation avec des bases de données qui contiennent des renseignements sur chacun de nous ayant été amassés.
Nous n'avons pas demandé que des appareils à commande vocale ou les plateformes de messagerie que nos enfants utilisent à l'école ou que nous utilisons au travail analysent nos conversations ou nos émotions, ou que nos téléviseurs nous observent pendant que nous les regardons. Pourtant, c'est désormais chose courante, grâce aux gouvernements et aux entreprises qui ont créé une industrie mondiale de la biométrie non réglementée, dont le chiffre d'affaires devrait atteindre 59 milliards de dollars américains d'ici 2025, tandis que des entreprises technologiques intégrées au secteur public nous incitent à utiliser notre visage pour payer nos courses et obtenir des services publics.
Au cours des 40 années pendant lesquelles les ordinateurs ont fait partie de notre vie quotidienne, aucune sensibilisation aux lois, aux droits ou aux responsabilités concernant la protection de la vie privée ou l'accès à l'information n'a été offerte au Canada. Il n'est donc pas étonnant que les Canadiens croient que les lois elles-mêmes suffisent à protéger la vie privée ou que seulement 14 % d'entre eux considèrent que leur connaissance du droit à la vie privée est « excellente ». Entre-temps, nous avons assisté à la mise en place de technologies automatisées qui portent atteinte à la vie privée et à des investissements de plusieurs millions de dollars dans des technologies de surveillance achetées également par les 86 autres pour cent de la population, des technologies qui visent à créer des collectivités sécuritaires partout au Canada.
Certes, les caméras à reconnaissance faciale installées dans les voitures, les caméras corporelles, les sonnettes et les téléphones cellulaires peuvent aider la police à identifier un suspect ou à élucider un crime, mais même la police admet que les caméras et la reconnaissance faciale ne préviennent pas les crimes et qu'il n'y a guère de corrélation entre le nombre de caméras publiques de télévision en circuit fermé et la criminalité ou la sécurité. Pourtant, leur vente et leur utilisation non réglementées sont une prophétie qui se réalise d’elle-même, car la familiarité engendre le consentement.
Facebook, Cambridge Analytica, Cadillac Fairview et Tim Hortons ne sont que la pointe de l'iceberg. Les entreprises et les gouvernements créent et utilisent des technologies qui violent nos lois sur la protection de la vie privée parce qu'ils le peuvent, parce que le modèle de consentement actuel est une illusion, et parce que Mark Zuckerberg et d'autres savent que le risque de sanction est bien moins important que la récompense liée à la collecte, à la manipulation et à la monétisation des renseignements sur nous.
Nous sommes cependant à un moment où trois changements importants doivent être apportés pour contribuer à protéger nos libertés démocratiques sans entraver l'innovation et pour que les Canadiens puissent retrouver leur confiance dans le gouvernement, la police et le secteur public.
Premièrement, il faut faire de la protection de la vie privée en personne, en ligne et à nos frontières un droit fondamental pour tous les Canadiens.
Deuxièmement, il faut promulguer des lois qui obligent toute personne qui crée, achète ou utilise une technologie à prouver qu'elle a une compréhension claire et correcte de nos lois, nos droits et nos responsabilités en matière de protection de la vie privée.
Troisièmement, de la même manière que les véhicules et les aliments doivent respecter des réglementations gouvernementales strictes avant que leur vente ou leur utilisation soit autorisée au Canada, il faut élaborer des lois qui rendent les créateurs de technologies responsables, en exigeant que leurs technologies fassent l'objet d'un examen indépendant complet visant à évaluer l'intégrité de leurs algorithmes et de leur accès aux renseignements personnels, ainsi que leur impartialité et leur incidence, avant que le produit ou la plateforme puisse être acheté ou utilisé, directement ou indirectement. Il faut aussi s'assurer que les normes sont établies et que les lois sont rédigées sans l'influence ou la contribution directe ou indirecte de l'industrie.
Ce ne sont là que quelques points saillants d'une question très complexe dont je suis impatiente de discuter avec vous.
:
Je m'excuse pour ce problème de micro.
L'indice de l'intelligence artificielle ne traite pas directement du montant des investissements qui existent dans ce domaine, mais il signale que cela devient un sujet de préoccupation croissante dans nombre de domaines. Je vais souligner deux points ici.
Le premier est que dans le cas des données que j'ai fournies relativement au FRVT, le Facial Recognition Vendor Test, du NIST, ce test procède à une vérification un à un. Dans un mémoire que j'ai soumis au Comité, la figure 1.1 montre le taux de succès de différents modèles par rapport à différents ensembles de données. Dans cette figure, l'un des éléments qui ressortent clairement est que le modèle le plus performant est celui qui concerne les photos de visa, et c'est celui pour lequel l'identification était correcte 999 fois sur 1 000, alors que le pire modèle est celui qui concerne les données spontanées.
Les données spontanées sont un ensemble de données qui portent sur des personnes dont le visage peut être partiellement masqué par des ombres ou qui ne regardent pas directement l'objectif de l'appareil photo. Dans ce cas, les modèles les plus performants ont identifié correctement 970 visages sur 1 000. C'est encore très élevé, mais il y a une baisse sensible par rapport aux photos de visa.
Je pense que cela laisse entendre que si les entreprises et les agences veulent utiliser ces technologies et les justifier en disant qu'elles ont été testées en laboratoire et qu'elles avaient un taux de précision très élevé en laboratoire, il faut tenter de préciser la différence entre les environnements dans lesquels ces technologies sont testées et les environnements dans lesquels elles sont utilisées. Je pense que le Comité est conscient de cela, mais l'indice laisse entendre qu'il s'agit d'une préoccupation urgente.
J'ajouterai également que nous citons une recherche qui a été publiée il y a quelques années — et dont le Comité a eu vent, je crois —, sous la forme d'un article paru en 2018 et signé par Timnit Gebru et al, intitulé « Gender Shades », dans lequel on examine le fait que les données de référence pour l'analyse faciale sont en grande majorité des personnes à la peau claire, ce qui entraîne un biais par la suite, et que les systèmes algorithmiques existants classent incorrectement en nombre disproportionné les femmes à la peau foncée, qui constitue de ce fait le groupe le plus incorrectement classé.
Nous y faisons allusion, et je pense que le sentiment général dans la communauté des chercheurs est qu'il aurait dû y avoir plus de travaux de réalisés à ce sujet, mais je ne suis pas en mesure de vous dire le montant exact des investissements réalisés dans ce domaine particulier à l'heure actuelle.
:
Encore une fois, je n'ai pas contribué directement à ce rapport, donc je ne suis pas le mieux placé pour répondre à la question, mais je pense que le problème auquel on fait allusion dans le rapport est sans doute lié au « transfert institutionnel ».
Ces technologies pourraient potentiellement être utilisées par différentes personnes dans différentes conditions. Il est certain qu'être formé pour utiliser ces systèmes peut être important, mais je pense qu'on reconnaît aussi qu'à moins d'avoir une sorte de norme réglementaire établie sur ce qui constitue une référence acceptable ou un cadre acceptable, on pourrait avoir différentes autorités qui utilisent ces technologies de différentes manières. Quant à la question de savoir quelle est cette référence acceptable, encore une fois, cela ne relève pas de mon domaine d'expertise. Je vous laisse le soin, à vous, décideurs, de répondre à cette question.
Je pense que ce que l'on veut dire, c'est que sans seuil, il est beaucoup plus probable que les agences fassent alors ces affirmations. Certaines pourraient, pour diverses raisons, favoriser des seuils plus bas ou plus élevés, et cela peut mener potentiellement à une mauvaise utilisation de certaines de ces technologies.
:
Merci, monsieur le président.
Je remercie les témoins de leur présence.
Madame Polsky, si on définit la compréhension comme étant la capacité de saisir l'ensemble de ce qui est en jeu, de votre propos, je conclus qu'il y a une grande incompréhension de la part de la population, des gouvernements et des utilisateurs, bref de tout le monde qui est impliqué de près ou de loin dans la reconnaissance faciale.
J'ai trois questions à vous poser, madame Polsky.
En réalité, le consentement que l'on donne en cliquant sur « J'accepte » n'est pas un choix. On n'a pas le choix d'y consentir. Est-ce exact?
:
Il y avait beaucoup... Je suis non seulement présidente du Conseil du Canada de l'accès et la vie privée, mais depuis environ 30 ans, je réalise aussi des évaluations des facteurs relatifs à la vie privée et je suis consultante en matière de protection de la vie privée, au privé. Grâce à cela, j'ai été invitée à aller partout: des gouvernements et organismes publics aux sociétés Fortune 100.
Je comprends comment ils fonctionnent, les technologies qu'ils construisent et ce qu'ils déploient. Certains croient sincèrement qu'ils font bien les choses, mais n'oubliez pas que, sans éducation, ils sont mal informés. Ils évaluent peut-être un peu trop favorablement leur propre compréhension de la chose.
On se retrouve dans des situations où une entreprise canadienne stocke l'information au Canada, mais fait appel à des tiers aux États-Unis pour fournir des services essentiels à cette application ou à ce service. Les entreprises ne se rendent pas compte que c'est un problème. Elles n'en informent pas les utilisateurs. Elles ne s'inquiètent pas. Elles ne savent pas et sont totalement inconscientes qu'il y a des répercussions sur la vie privée.
:
Merci beaucoup, monsieur le président. Mes questions s'adressent à M. Maslej.
La croissance et le développement rapides de la technologie de l'intelligence artificielle s'accompagnent de risques importants. Au chapitre 3 de votre rapport sur l'indice de l'intelligence artificielle, on décrit certains des méfaits de ces technologies, notamment le fait que les systèmes de reconnaissance faciale commerciaux exercent une discrimination fondée sur la race, les systèmes de sélection de curriculum vitae exercent une discrimination fondée sur le sexe, et les outils de santé clinique axés sur l'intelligence artificielle sont biaisés par la race et les facteurs socio-économiques. On a constaté que ces modèles reflètent et amplifient les préjugés sociaux humains, opèrent une discrimination sur la base d'attributs protégés et génèrent de faux renseignements sur le monde.
Pourriez-vous nous en dire plus sur certains de ces méfaits et risques posés par l'utilisation des technologies d'intelligence artificielle, en particulier à un moment où les investissements dans les technologies et leur développement s'accélèrent si rapidement?
:
Certainement. C'est une excellente question. Cela montre que, même si la réglementation des technologies de reconnaissance faciale est certainement importante, il existe également d'autres cas d'utilisation de l'intelligence artificielle qui pourraient mériter l'attention des organismes de réglementation.
L'une des conclusions des données dont nous disposons sur la reconnaissance faciale est qu'elle se situe au milieu du peloton pour ce qui est de l'investissement privé total. On y investit plus que, par exemple, dans les drones ou les technologies juridiques, mais moins que dans le traitement du langage naturel dans le domaine des soins médicaux et de santé, ce qui laisse entendre également qu'il y a d'autres cas d'utilisation de l'intelligence artificielle qui pourraient mériter une plus grande attention.
Comme le suggèrent les données de l'enquête McKinsey, la reconnaissance faciale n'est pas aussi intégrée dans certaines technologies et certains processus commerciaux que d'autres systèmes d'intelligence artificielle. Encore une fois, cela ne signifie pas nécessairement que nous ne devons pas nous préoccuper de la réglementation de la reconnaissance faciale; c'est une question de la plus haute importance. C'est juste que nous devrions également être conscients des autres problèmes que l'intelligence artificielle pourrait poser, surtout à un moment où elle devient de plus en plus omniprésente.
Vous avez fait allusion à quelques-uns des différents exemples que nous avons cités dans le rapport. J'en aborderai quelques-uns.
Nous avons parlé du fait qu'il existe des systèmes de sélection des CV qui se sont révélés discriminatoires en fonction du sexe. Nous citons un article de presse selon lequel, il y a quelques années, Amazon a mis au point un système de sélection des CV par apprentissage automatique qui s'est révélé déclasser systématiquement les candidatures des femmes.
Encore une fois, ce serait idéal pour beaucoup de ces entreprises, surtout les très grandes, si quelqu'un leur donnait 100 CV et qu'elles pouvaient les confier à une machine qui établirait automatiquement quels sont les trois meilleurs candidats pour les embaucher.
La raison pour laquelle Amazon a entraîné un système biaisé est que ce système a été entraîné à partir de données provenant de CV qu'Amazon avait déjà reçus. Dans l'écrasante majorité des cas, les CV soumis à Amazon l'ont été par des hommes. Cela reflète le fait que le secteur de la technologie est principalement dominé par les hommes. Étant donné que les hommes étaient traditionnellement les plus embauchés, le système d'intelligence artificielle a appris à pénaliser le mot « femmes ». Cela signifie que si vous mentionnez dans votre CV que vous avez été, par exemple, capitaine de l'équipe féminine de natation, l'algorithme voit que, historiquement, très peu de femmes ont été embauchées par Amazon, et comme cette personne a « féminine » dans son CV, il faut le déclasser. Amazon a affirmé que cet outil n'avait en fait jamais été utilisé pour prendre des décisions d'embauche, mais il n'en reste pas moins que ce biais demeure.
Nous parlons également du biais dans les modèles linguistiques multimodaux. Nous parlons également du biais dans la segmentation des images médicales. Je pourrais m'étendre longuement sur ce sujet, mais je vais plutôt vous donner l'occasion de poser des questions supplémentaires.
:
Il ne s'agit peut-être pas nécessairement d'une pratique exemplaire, mais plutôt d'une réalité. L'une des conclusions majeures du rapport sur l'indice de l'intelligence artificielle est que l'intelligence artificielle est de plus en plus omniprésente dans nos vies.
Il y a dix ans, de nombreux problèmes liés à l'intelligence artificielle étaient très difficiles à résoudre. L'intelligence artificielle n'était donc qu'un sujet de recherche, alors que dix ans plus tard, l'intelligence artificielle fait partie des sujets qui sortent des laboratoires pour entrer dans le monde réel. Beaucoup d'entreprises sont très enthousiastes à l'idée d'utiliser les technologies de l'intelligence artificielle, et elles vont être de plus en plus utilisées. L'investissement dans l'intelligence artificielle explose, tout comme le nombre de brevets dans ce domaine.
Très souvent, je dirais, beaucoup d'entreprises sont très enthousiastes à l'idée d'utiliser l'intelligence artificielle avant de constater les effets négatifs qu'elle peut avoir. En tant qu'organisme de réglementation, il est très souvent utile de se demander quand nous devrions nous en préoccuper. Quand devons-nous mettre en place une réglementation? Je dirais que...
L'intelligence artificielle est évidemment un sujet en constante évolution. L'année 2022 a été une année extraordinaire pour les progrès de l'intelligence artificielle; il semble que l'on assiste chaque semaine à l'émergence d'un nouveau modèle. Je ne pense pas que nous arriverons un jour à un point où nous aurons les données nécessaires pour obtenir la réponse à toutes les questions, mais nous obtenons de plus en plus de données, et l'absence de données absolues ne signifie pas que nous ne devons pas agir.
Nous savons, par exemple, comme je l'ai dit plus tôt, qu'un grand nombre de ces systèmes de reconnaissance faciale sont beaucoup moins efficaces sur ce genre de photos spontanées, dans lesquelles les personnes ne regardent pas directement l'appareil photo, ou dont l'éclairage n'est pas très bon, et cela pourrait avoir des conséquences importantes sur la manière dont ces technologies sont réglementées.
Nous sommes encore loin du point où nous disposerons de données permettant de répondre à toutes les questions, mais nous obtenons de plus en plus de données, et je pense que celles dont nous disposons actuellement sont suffisantes pour prendre des mesures relativement à certains problèmes.
Je ne suis pas universitaire. Je vous laisse le soin de répondre, monsieur, mais je reviens sur les dépêches de la police galloise, dans lesquelles l'officier supérieur a déclaré que la reconnaissance faciale — et je paraphrase — produisait environ 92 % de faux positifs, et il a dit que ce n'était pas grave, car aucune technologie ne pouvait être parfaite. C'était en 2017. En 2020 ou 2021, le chef de la police de Chicago, je crois, a déclaré que la reconnaissance faciale générait environ 95 % d'erreurs.
Les conséquences sur la vie des gens peuvent être profondes, car une fois que vous êtes identifié comme une personne d'intérêt, vous êtes dans le système, et dès qu'un policier s'intéresse à vous, il cherche votre nom et vous êtes déjà là. Il y a déjà une présomption qu'il devrait vous examiner d'un peu plus près, parce que la reconnaissance faciale s'est trompée.
:
Merci, monsieur le président, et j'aimerais remercier les témoins de leur présence aujourd'hui.
Par votre intermédiaire, monsieur le président, j'aurais posé cette question à nos deux témoins, pour faire suite à ce qu'a dit M. Green, mais étant donné que notre autre témoin n'a pas voulu se prononcer sur cette question, je vais la poser à Mme Polsky.
Madame Polsky, en répondant à une question de mon collègue, vous avez mentionné le problème des faux positifs et le pourcentage extrêmement élevé de faux positifs, qui est de l'ordre de 19 fois sur 20. Compte tenu de ces chiffres et du fait qu'un certain nombre des témoins qui ont comparu devant ce comité ont souligné que nous devrions imposer un moratoire sur l'utilisation de la technologie de reconnaissance faciale par le public et peut-être même par le secteur privé jusqu'à ce qu'un cadre soit mis en place pour cette technologie, pensez-vous qu'il devrait y avoir un moratoire? Êtes-vous d'accord avec ces témoins pour dire qu'il devrait y avoir un moratoire sur l'utilisation de la technologie de reconnaissance faciale dans les espaces publics et privés?
:
Je suis désolé, monsieur Maslej. Permettez-moi de vous interrompre. J'ai très peu de temps...
Le président: Vous n'en avez plus.
L'hon. Greg Fergus:Oh, mince. Eh bien, ça va être très rapide.
Vous avez souligné les arguments qui justifient d'accorder une plus grande attention à l'utilisation de cette technologie, mais cela ne vous amènerait‑il pas, vous-même ou dans votre rapport, à conclure qu'il devrait y avoir un moratoire jusqu'à ce que cette technologie bénéficie d'une plus grande certitude ou d'une plus grande précision? Pouvez-vous répondre par oui ou par non?
Le président: Il faudra que ce soit oui ou non. Nous n'avons plus de temps.
:
S'ils sont de plus en plus biaisés, c'est en partie parce que, habituellement, ces modèles sont alimentés par un nombre croissant de données. Pour certains modèles, il est avantageux de disposer d'un grand nombre de données. Plus vous fournissez de données au modèle, plus il risque de recevoir des données qui ne sont pas idéales.
Nous l'avons vu dans le rapport avec le modèle CLIP, qui est un modèle linguistique multimodal. On lui a demandé d'attribuer la probabilité qu'une astronaute américaine, Eileen Collins, soit... On a demandé au modèle: « Que contient cette image? » Le modèle a attribué une probabilité plus élevée que cette photographie représente une femme au foyer souriante dans une combinaison orange avec le drapeau américain qu'une astronaute tenant le drapeau américain.
Il ne s'agit pas de notre conclusion, mais de la conclusion d'un article de Birhane et al., 2021. Elle illustre le fait que, lorsque vous donnez à ces données un grand nombre de modèles, ce qui pourrait être nécessaire pour obtenir des résultats plus précis, ces modèles pourraient capter des données conspiratrices et biaisées. Si nous ne filtrons pas ces données de manière proactive, il est très probable que ces modèles se comportent de manière toxique et problématique.
J'aimerais parler de la deuxième recommandation. Je signale, pour la gouverne des témoins, que les recommandations sont très utiles parce qu'elles aident certainement les comités à structurer leurs rapports.
En ce qui concerne la deuxième recommandation, lorsqu'il s'agit d'une vaste base de données à l'échelle de la société, comment une telle base de données pourrait-elle causer du tort et éventuellement entraîner des abus à l'égard des personnes dont les renseignements y figurent? À l'inverse, dans le cas des gens qui ne sont pas inclus dans cette base de données, quel tort pourraient‑ils subir eux aussi?
:
C'est intéressant, parce que je regardais récemment une émission de télévision, et il y était question d'une des études de cas ayant de graves conséquences possibles.
J'aimerais laisser de côté l'exemple de la location, si vous le permettez. Il y a eu une collecte de données à l'aéroport international Pearson de Toronto, où nous avons tous été d'innombrables fois, j'en suis sûr. Cette base de données comprend, j'imagine bien, une quantité incroyable de données sur les Canadiens, les personnes qui visitent notre pays et tout le reste. Je suis curieux de savoir si vous avez d'autres réflexions, recommandations ou préoccupations à faire valoir, et comment une organisation comme un aéroport, ou une autre entité, en collaboration avec les forces de l'ordre...
:
Oui, c'est une excellente question.
Je dirais que la raison pour laquelle nous assistons à une telle avancée technologique, c'est que les systèmes d'intelligence artificielle s'améliorent dans tous les domaines. Il y a eu beaucoup de progrès dans l'architecture qui alimente ces systèmes. Ceux‑ci sont désormais dotés d'un matériel de meilleure qualité, ce qui signifie qu'ils peuvent fonctionner à des vitesses beaucoup plus élevées. De nombreuses raisons scientifiques et commerciales expliquent pourquoi ces systèmes fonctionnent mieux.
Pour ce qui est des conséquences, là encore, tout cela laisse présager que l'intelligence artificielle fera partie de nos vies, que nous le voulions ou non. Comme je vous l'ai dit aujourd'hui, les systèmes d'intelligence artificielle peuvent exécuter une panoplie de tâches, mais ils peuvent aussi faire beaucoup de choses imprévues ou indésirables. Au lieu d'accueillir ces systèmes à bras ouverts dans nos vies, il est important que nous nous demandions quels en seraient les effets au bout du compte.
Encore une fois, si nous vivons dans un monde où, par exemple, les technologies de reconnaissance faciale obtiennent maintenant des taux de réussite incroyablement élevés, il sera peut-être beaucoup plus facile pour les entreprises d'en justifier l'utilisation, mais je le répète, cela ne signifie pas nécessairement que nous ne devrions pas jeter un regard critique sur la façon dont ces systèmes devraient probablement être réglementés ou gérés par les responsables gouvernementaux.
:
À mon avis, il sera important de confier ce mandat au commissaire à la protection de la vie privée — et cela vaut également pour les provinces ayant des lois essentiellement similaires. Toute législation devrait exiger, premièrement, que les commissariats à la protection de la vie privée soient entièrement financés et qu'ils consacrent un fonds distinct, également entièrement financé, aux campagnes de sensibilisation. Ils n'ont pas tous un tel mandat. Ils font un peu de travail de sensibilisation, mais il doit y avoir un programme beaucoup plus officiel, car c'est qui permettra aux gens d'être plus au courant des lois et plus conscients de leurs droits et responsabilités.
On peut intégrer cela dans la technologie. Ainsi, une fois que la technologie est prête, on pourrait la soumettre à un banc d'essai neutre dirigé par le commissaire à la protection de la vie privée. Par conséquent, les commissaires et les groupes de la société civile auraient l'occasion d'examiner la technologie. Ce serait aussi une belle occasion pour les entreprises, car leur produit serait évalué dans un cadre neutre et digne de confiance, sans que cela porte atteinte à leur droit d'auteur ou à leur propriété intellectuelle. De cette façon, la technologie serait mise à l'essai et approuvée avant d'être autorisée à la vente au Canada.
De plus, il faut financer les efforts de sensibilisation par l'entremise du commissariat à la protection de la vie privée et, je le répète, sans l'influence de l'industrie.
Sur ce, je tiens à remercier nos témoins, mais je dois maintenant leur demander de se déconnecter le plus rapidement possible. Nous allons mettre fin à cette séance et commencer une réunion à huis clos sur Zoom, qui devrait durer, espérons‑le, quelques minutes seulement, pour nous occuper des travaux du Comité.
Sur ce, la séance est suspendue pour se poursuivre à huis clos sur Zoom.
[La séance se poursuit à huis clos.]