:
Bon après-midi à tous et à toutes.
Je déclare la séance ouverte.
Je vouis souhaite la bienvenue à la 109e réunion du Comité permanent de l'industrie et de la technologie de la Chambre des communes.
La réunion d'aujourd'hui se déroule sous un format hybride, conformément au Règlement
Conformément à l'ordre de renvoi du lundi 24 avril 2023, le Comité reprend l'étude du projet de loi C-27, Loi édictant la Loi sur la protection de la vie privée des consommateurs, la Loi sur le Tribunal de la protection des renseignements personnels et des données et la Loi sur l'intelligence artificielle et les données et apportant des modifications corrélatives et connexes à d'autres lois.
Je souhaite la bienvenue à nos témoins d'aujourd'hui. Nous recevons, d'Amazon Web Services, Mme Nicole Foster, directrice, Politique publique mondiale pour l'intelligence artificielle.
De chez Google Canada, nous recevons Mme Jeanette Patell, directrice, Affaires gouvernementales et des politiques publiques. Également de chez Google et participant par vidéoconférence, nous recevons M. Will DeVries, directeur, Protection de la vie privée, ainsi que Mme Tulsee Doshi, directrice, Gestion des produits.
De Meta, nous recevons Mme Rachel Curran, qui est cheffe des politiques publiques pour le Canada.
De chez Microsoft...
:
Excusez-nous de ces inconvénients techniques.
Je poursuis donc les présentations.
De chez Microsoft, nous accueillons Mme Amanda Craig, directrice principale des politiques publiques, Bureau de l'intelligence artificielle, ainsi que M. John Weigelt, directeur de la technologie.
Nous vous remercions toutes et tous de votre présence aujourd'hui.
[Traduction]
Vous disposez tous de cinq minutes pour votre déclaration liminaire.
Nous allons commencer par Mme Foster, qui représente Amazon.
:
Je vous remercie de votre invitation.
[Traduction]
C'est un privilège pour moi de comparaître devant le Comité dans le cadre de son étude de la Loi sur l'intelligence artificielle et les données, proposée dans le projet de loi .
Amazon Web Services, AWS, a une forte présence au Canada et elle a pris un solide engagement envers sa clientèle canadienne. Nous possédons des infrastructures numériques dans les régions de Montréal et de Calgary, afin de soutenir nos clients canadiens, et nous prévoyons investir jusqu'à près de 25 milliards de dollars d'ici 2037 dans ces infrastructures numériques.
À l'échelle de la planète, plus de 100 000 organisations de toutes les tailles ont recours aux services d'intelligence artificielle et d'apprentissage automatique d'AWS. Au Canada, il s'agit notamment de jeunes entreprises, de journaux nationaux, d'organisations sportives professionnelles, d'institutions financières sous réglementation fédérale, de détaillants et d'établissements publics.
En particulier, AWS offre un ensemble de technologies au sein de sa pile technologique, qui compte trois niveaux. Le niveau inférieur comprend l'infrastructure d'intelligence artificielle. Nous offrons nos propres puces personnalisées à haute performance, ainsi que d'autres produits informatiques. Le niveau intermédiaire comprend une vaste gamme de modèles de base que les organisations peuvent utiliser pour créer des applications d'intelligence artificielle générative. Il s'agit de modèles conçus par Amazon et d'autres modèles élaborés par de grands fournisseurs, tels que Cohere — une entreprise canadienne — Anthropic, AI21, Meta — qui est ici aujourd'hui — et Stability AI. Le niveau supérieur de la pile technologique comprend des applications et des services d'intelligence artificielle générative.
AWS investit sans cesse dans le développement et le déploiement responsables de l'intelligence artificielle. Nous nous efforçons d'aider nos clients à innover et à mettre en place les mesures de protection nécessaires. Les efforts que nous déployons pour favoriser un développement responsable et sécuritaire de l'intelligence artificielle sont appuyés par une grande collaboration avec la communauté internationale, notamment en ce qui a trait à l'élaboration de normes techniques internationales. Nous saluons d'ailleurs le leadership du Conseil canadien des normes à cet égard.
Nous sommes emballés par la mesure dans laquelle l'intelligence artificielle continuera de prendre de l'expansion et de transformer notre mode de vie et nos façons de travailler. En même temps, nous sommes également bien conscients des risques et des problèmes potentiels. Nous appuyons la volonté du gouvernement de mettre en place des cadres réglementaires efficaces, fondés sur le risque, tout en permettant l'innovation et une application pratique de la technologie.
Je vais vous faire part de quelques réflexions au sujet de l'approche proposée dans le projet de loi .
Premièrement, la réglementation régissant l'intelligence artificielle doit tenir compte des nombreuses parties prenantes qui participent au développement et à l'utilisation des systèmes d'intelligence artificielle. Étant donné la complexité de la chaîne de valeur de l'intelligence artificielle, nous voyons d'un bon œil les précisions que le a apportées récemment, qui contribuent à définir les règles à l'intention des spécialistes du développement et du déploiement des systèmes d'intelligence artificielle. Les spécialistes du développement sont ceux qui créent des systèmes ou des services d'intelligence artificielle à usage général, et les spécialistes du déploiement sont ceux qui mettent en œuvre ces systèmes.
Deuxièmement, la réussite du déploiement responsable de systèmes d'intelligence artificielle est très souvent liée aux cas et aux contextes d'utilisation. Dans la réglementation, on doit faire la distinction entre les systèmes comportant un risque élevé et ceux comportant un faible risque. Il n'est pas du tout pratique de réglementer toutes les applications selon la même approche, et cela peut contribuer sans le vouloir à freiner l'innovation.
Étant donné que les risques associés à l'intelligence artificielle dépendent du contexte d'utilisation, l'efficacité de la réglementation sera optimale si elle cible les utilisations comportant un risque élevé. Bien que le projet de loi tienne compte du fait qu'il existe des applications d'intelligence artificielle à incidence élevée et d'autres à faible incidence, nous sommes d'avis que, même en ajoutant des précisions, la définition d'« incidence élevée » demeure trop ambiguë et englobe un certain nombre de cas d'utilisation qui seraient inutilement assujettis à des exigences de conformité onéreuses et contraignantes.
Je vais vous donner rapidement un exemple. L'utilisation de l'intelligence artificielle par des agents de la paix est considérée comme étant une utilisation à incidence élevée. Si cette utilisation inclut le recours à la correction automatique lors de la préparation d'un constat d'infraction au Code de la route, est-elle toujours considérée comme étant une utilisation à risque élevé? Dans les lois et les règlements, il faut clairement faire la distinction entre les applications à risque élevé et celles qui posent un risque faible ou nul. C'est un principe de base qu'il faut bien respecter. Il faut faire très attention de ne pas imposer un fardeau réglementaire aux applications d'intelligence artificielle à faible risque, qui pourraient contribuer à l'augmentation indispensable de la productivité des petites et grandes entreprises canadiennes.
Troisièmement, les dispositions d'exécution en matière criminelle du projet de loi pourraient avoir pour effet de ralentir l'innovation, surtout si les exigences ne sont pas adaptées au risque et qu'elles ne sont pas rédigées clairement.
Enfin, il faut veiller à ce que le projet de loi soit compatible avec d'autres régimes réglementaires. Les politiques en matière d'intelligence artificielle dans le monde ont changé et ont évolué très rapidement depuis que le projet de loi C‑27 a été présenté pour la première fois en 2022. Un grand nombre des plus importants partenaires commerciaux du Canada, dont les États‑Unis, le Royaume‑Uni, le Japon et l'Australie, ont depuis adopté des approches très différentes et axées sur la décentralisation, en ce sens que ce sont les organismes de réglementation les plus aptes à réglementer les cas d'utilisation qui sont appelés à gérer la réglementation en matière d'intelligence artificielle et les mesures d'atténuation des risques. Même s'il est louable que le gouvernement ait modifié son approche initiale en fonction des observations des parties prenantes, il devrait prendre tout le temps qu'il lui faut pour s'assurer d'adopter la bonne approche.
:
Bonjour, monsieur le président et membres du Comité. Je m'appelle Jeanette Patell et je suis directrice des affaires gouvernementales et des politiques publiques chez Google, à Ottawa. Je suis accompagnée pas mes collègues, Tulsee Doshi et Will DeVries, qui comparaissent virtuellement. Mme Doshi est directrice et responsable des produits au sein du secteur de l'intelligence artificielle responsable chez Google. M. DeVries est directeur au sein de notre équipe responsable de la protection de la vie privée et il conseille l'entreprise en ce qui concerne la législation ailleurs dans le monde portant sur la protection de la vie privée et en ce qui a trait au respect des exigences en matière de protection des données. Nous sommes heureux d'avoir été invités à comparaître devant le Comité aujourd'hui et de contribuer à l'étude du projet de loi .
Comme le Comité le sait, il s'agit d'une mesure législative importante, qu'il est impératif de bien concevoir.
[Français]
Nous allons aujourd'hui formuler quelques remarques au sujet de la Loi sur la protection de la vie privée des consommateurs et de la Loi sur l'intelligence artificielle et les données. Nous serons ravis de répondre à vos questions.
Nous présenterons bientôt notre mémoire à ce comité. Nous allons aussi maintenir nos engagements sur les éléments qui pourraient être améliorés pour assurer de meilleurs résultats pour les entreprises, les innovateurs et les consommateurs canadiens.
[Traduction]
Lorsque les Canadiens utilisent nos services, ils se trouvent à nous confier leurs renseignements. C'est une responsabilité que nous prenons très au sérieux chez Google, et nous protégeons les renseignements personnels des utilisateurs grâce à une infrastructure de sécurité de pointe, à des pratiques de gestion responsable des données et à des outils de protection des renseignements personnels faciles à utiliser qui donnent le contrôle aux utilisateurs.
Google fait depuis longtemps la promotion d'une réglementation intelligente, compatible et souple en matière de protection des données, qui protégera le droit à la vie privée, rehaussera la confiance à l'égard de l'écosystème numérique et favorisera l'innovation responsable. Nous appuyons les efforts déployés par le gouvernement en vue de moderniser la réglementation régissant la protection de la vie privée et des données et de codifier d'importants droits et obligations.
En outre, nous croyons qu'il y aurait lieu d'examiner davantage la et d'y apporter des modifications à certains égards. Par exemple, nous sommes d'avis, à l'instar d'autres organisations, notamment la Chambre de commerce du Canada, que les dispositions sur le consentement devraient être clarifiées et adaptées à des activités plus lourdes de conséquences. Nous voulons également souligner la nécessité d'élaborer une définition uniforme à l'échelon fédéral du terme « mineur » et d'établir des mesures de protection plus claires des droits et libertés des personnes mineures. De telles améliorations permettraient de maintenir et de rehausser les mesures de protection de la vie privée des Canadiens, faciliteraient la conduite des activités des entreprises au Canada et ailleurs dans le monde et favoriseraient l'innovation dans l'ensemble de l'économie.
En ce qui concerne la , notre PDG a dit ceci: « L'intelligence artificielle est trop importante pour ne pas être régulée, et elle est trop importante pour ne pas être bien régulée. » Nous trouvons encourageant de voir des gouvernements partout dans le monde élaborer des politiques visant ces nouvelles technologies, et nous sommes fermement résolus à appuyer les efforts déployés en vue de maximiser les avantages de l'intelligence artificielle tout en minimisant les risques.
Google travaille depuis longtemps sur l'intelligence artificielle, notamment dans ses bureaux de Montréal et de Toronto, et, en 2017, nous avons réorienté nos activités afin d'accorder la priorité à nos activités liées à l'intelligence artificielle. Aujourd'hui, l'intelligence artificielle est à la base des applications Search, Translate et Maps de Google ainsi que d'autres services que les Canadiens utilisent tous les jours. Nous avons également recours à l'intelligence artificielle pour aider à trouver des solutions à des problèmes qui touchent la société, qu'il s'agisse de prévoir les inondations ou d'améliorer les tests de dépistage de certaines maladies, comme le cancer du sein. Depuis 2018, le travail que nous effectuons à l'aide de ces technologies est guidé par nos principes en matière d'intelligence artificielle responsable, qui sont soutenus par une structure de gouvernance et un processus d'examen solides. C'est ma collègue, Mme Doshi, qui dirige ce travail.
[Français]
Le Canada possède une occasion exceptionnelle de s'appuyer sur des investissements dans la recherche fondamentale en intelligence artificielle. Ce comité va contribuer à l'élaboration d'un cadre législatif qui établit de solides mesures de protection du public, et qui permet de tirer parti des bénéfices économiques et sociétaux.
[Traduction]
Nous accueillons favorablement les efforts déployés par le gouvernement afin d'établir les bons garde-fous relativement à l'intelligence artificielle, mais nous partageons certaines des préoccupations que d'autres organisations ont soulevées à l'intention du Comité. Nous sommes d'avis que le projet de loi peut être modifié de manière réfléchie, de façon à appuyer les objectifs du gouvernement sans toutefois entraver le développement et l'utilisation de l'intelligence artificielle.
Il n'existe aucune approche universelle en matière de réglementation de l'intelligence artificielle. L'intelligence artificielle est une technologie polyvalente qui se présente sous de nombreuses formes et qui comporte divers profils de risque. Le cadre réglementaire devrait tenir compte de la vaste gamme des utilisations bénéfiques de cette technologie et du coût de renonciation lié au fait de ne pas développer ou déployer des systèmes d'intelligence artificielle. Il devrait également comprendre des obligations adaptées à l'ampleur et à la probabilité des préjudices associés à des utilisations précises. Nous estimons que la devrait comporter une approche proportionnelle et fondée sur le risque, qui est adaptée à des applications précises et qui vise à assurer la compatibilité avec d'autres lois dans le monde, grâce à des outils largement reconnus, comme des normes internationales.
Nous espérons pouvoir continuer de travailler avec le gouvernement canadien, comme nous l'avons fait avec d'autres gouvernements dans le monde, dans le but d'établir une réglementation réfléchie et intelligente qui protégera les Canadiens, et saisir cette occasion qui ne se présente qu'une fois dans une génération de renforcer l'économie du Canada, de donner aux innovateurs canadiens toutes les chances de réussir sur la scène internationale et de favoriser des percées scientifiques porteuses de changement.
Je vous remercie encore une fois de nous avoir invités à comparaître devant vous. Nous avons hâte de répondre à vos questions et de continuer cette conversation importante.
:
Merci, monsieur le président.
Je m'appelle Rachel Curran et je suis cheffe des politiques publiques chez Meta au Canada. C'est un plaisir pour moi de m'adresser au Comité cet après-midi.
Meta est en faveur d'une approche fondée sur le risque et neutre sur le plan technologique en ce qui a trait à la réglementation de l'intelligence artificielle. Nous croyons qu'il est important que les gouvernements travaillent de concert pour établir des normes et des modèles de gouvernance communs en matière d'intelligence artificielle. C'est ce genre d'approche qui permettra de bénéficier des possibilités économiques et sociales qu'offre la science ouverte et d'accroître la compétitivité du Canada.
Depuis plus d'une décennie, Meta est au premier plan du développement de l'intelligence artificielle. Nous pourrons en discuter plus tard au cours de la séance. Cette innovation nous a permis de mettre en relation des milliards de personnes et de produire une valeur réelle pour les petites entreprises. Au sein de la collectivité, l'intelligence artificielle aide les gens à découvrir du contenu qu'ils aiment. Pour les millions d'entreprises, particulièrement les petites entreprises, qui utilisent nos plateformes, nos outils basés sur l'intelligence artificielle facilitent les activités publicitaires. L'intelligence artificielle change la donne pour les petites et moyennes entreprises qui cherchent à atteindre une clientèle intéressée par leurs produits.
En outre, l'équipe de recherche fondamentale sur l'intelligence artificielle a adopté une approche ouverte en matière de recherche sur l'intelligence artificielle, qui mène à des percées dans toutes sortes de secteurs et d'industries. En 2007, nous avons inauguré notre laboratoire de recherche sur l'intelligence artificielle à Montréal, afin de contribuer à l'écosystème de l'intelligence artificielle au Canada. Aujourd'hui, les efforts de recherche de Meta à l'échelle de la planète sont dirigés par Joelle Pineau, chercheuse canadienne de calibre mondial et professeure à l'Université McGill. C'est elle qui dirige les activités de recherche sur l'intelligence artificielle menées par Meta dans le monde.
Notre équipe canadienne de chercheurs a travaillé sur certaines des plus grandes percées en matière d'intelligence artificielle, notamment l'élaboration de modèles davantage diversifiés et inclusifs destinés à améliorer l'accès aux soins de santé et le traitement des patients, dont ont bénéficié des collectivités au Canada et à l'étranger. Ces travaux sont communiqués ouvertement à l'ensemble du milieu de la recherche dans le cadre de l'engagement que Meta a pris à l'égard de la science ouverte et de la transparence qui lui permet d'établir les plus hautes normes en matière de qualité et de responsabilité et, au bout du compte, de mettre au point de meilleures solutions dans le domaine de l'intelligence artificielle.
Nous saluons le leadership du Canada sur le plan de l'élaboration d'une réglementation et de garde-fous intelligents visant le développement de l'intelligence artificielle, particulièrement son leadership au sein du Partenariat mondial sur l'intelligence artificielle et du G7. Nous appuyons fortement le travail du Comité, bien entendu, et l'objectif initial du projet de loi , c'est‑à‑dire veiller au développement et au déploiement responsables de l'intelligence artificielle tout en assurant une harmonisation des cadres réglementaires à l'échelle internationale, ce qui permettra au Canada de demeurer un chef de file mondial de l'innovation et de la recherche en matière d'intelligence artificielle.
Nous croyons que l'intelligence artificielle évolue tellement rapidement que des mesures portant sur des technologies précises pourraient bientôt ne plus être pertinentes et nuire à l'innovation. En ce qui a trait à l'avenir, nous espérons que le gouvernement envisagera d'adopter une approche véritablement fondée sur le risque et les résultats, qui sera à l'épreuve du futur. À cet égard, nous aimerions attirer votre attention sur quelques préoccupations concernant le projet de loi .
Premièrement, le ministre a proposé un amendement qui ferait en sorte d'inclure les systèmes de modération de contenu et de priorisation dans la catégorie des systèmes « à incidence élevée ». Nous ne sommes pas d'avis que ces systèmes posent un risque élevé inhérent, tel que défini dans le projet de loi, et nous estimons que la réglementation des risques reliés au contenu que les Canadiens voient en ligne devrait plutôt faire partie du projet de loi sur les préjudices en ligne.
De même, nous pensons que le régime proposé pour réglementer l'intelligence artificielle à usage général ne correspond pas au risque qu'elle pose et qu'il comporte des exigences qui ressemblent étroitement à celles visant les systèmes à incidence réellement élevée. Nous estimons que les obligations s'appliquant aux systèmes d'intelligence artificielle à usage général devraient être harmonisées avec celles que comportent d'autres régimes à l'échelle internationale, notamment celles découlant du processus de Hiroshima, issu du Sommet du G7, dont j'ai parlé plus tôt, de l'engagement volontaire obtenu par la Maison-Blanche et du travail de l'OCDE sur la gouvernance de l'intelligence artificielle.
Enfin, nous voulons attirer l'attention sur les pouvoirs de vérification et d'accès envisagés dans le projet de loi . Nous croyons qu'ils vont à l'encontre des cadres réglementaires existants, par exemple, l'approche adoptée par d'autres signataires de la Déclaration de Bletchley, issue du récent sommet sur l'utilisation sécuritaire de l'intelligence artificielle qui a eu lieu au Royaume-Uni. Il s'agit notamment des États-Unis et du Royaume-Uni. Encore une fois, nous encourageons le Canada à adopter une approche permettant de protéger la vie privée qui concorde avec les normes mondiales.
Mesdames et messieurs, nous sommes d'avis que Meta est particulièrement bien placée pour résoudre certains des plus importants problèmes liés à l'intelligence artificielle en incorporant ce que nous ont appris nos recherches de calibre mondial dans des produits dont peuvent bénéficier des milliards de personnes et d'entreprises, tout en continuant de contribuer à l'écosystème dynamique et de classe mondiale du Canada.
Nous avons hâte de travailler avec le Comité et de répondre à vos questions.
Merci.
:
Merci, monsieur le président et membres du Comité, de me donner l'occasion de témoigner.
Chez Microsoft, nous croyons que l'intelligence artificielle nous offre une immense occasion de contribuer à la croissance du Canada et à la prospérité des Canadiens. Pour véritablement tirer parti du potentiel qu'offre l'intelligence artificielle et pour améliorer la vie des gens, nous devons nous pencher efficacement sur les problèmes et les risques bien réels qu'engendre l'utilisation de l'intelligence artificielle sans mesures de protection adéquates. C'est pourquoi nous faisons valoir la nécessité de mettre en place une réglementation qui tient compte de la complexité de l'intelligence artificielle, afin d'accroître la sécurité et de protéger la vie privée et les libertés civiles.
Le Canada joue un rôle de chef de file en proposant un cadre législatif en matière d'intelligence artificielle, et ce cadre comporte des éléments positifs qui établissent une base utile pour l'avenir. Toutefois, dans sa version actuelle, le projet de loi propose une application trop large des règles et des exigences qu'il comporte. Il réglemente de la même façon les systèmes à faible risque et ceux à risque élevé, sans moduler les exigences en fonction du risque, et il inclut des sanctions pénales dans le régime d'application.
Les risques ne sont pas tous équivalents. Nous le savons bien, mais il peut se révéler difficile de déterminer les niveaux de risque et d'adapter les dispositions en conséquence. À nos yeux, les règles et les exigences prévues dans la Loi sur l'intelligence artificielle et les données devraient s'appliquer aux systèmes d'intelligence artificielle qui posent un risque élevé. Par exemple, dans la Loi, les systèmes à risque élevé, tel un système d'intelligence artificielle utilisé pour déterminer si un prêt hypothécaire doit être approuvé, et les systèmes à faible risque, comme un système utilisé pour optimiser les trajets de livraison de colis, sont assujettis aux mêmes règles et obligations.
Une application trop large des règles et des exigences entraîne plusieurs répercussions. Les entreprises au Canada, y compris les petites et moyennes entreprises, devront axer leurs efforts sur des évaluations exigeantes en termes de ressources et des audits réalisés par une tierce partie, même en ce qui concerne les systèmes à usage général et à faible risque, plutôt que sur les systèmes qui posent le plus grand risque ou sur la mise au point de nouveaux systèmes de sécurité. Un système d'intelligence artificielle utilisé par une chaîne de restaurants à des fins de gestion des stocks et de réduction du gaspillage alimentaire sera assujetti aux mêmes exigences qu'un système de reconnaissance faciale. Ces exigences et ces règles auront pour effet d'éparpiller le temps, l'argent, les talents et les ressources des entreprises canadiennes. Par conséquent, leurs ressources limitées risquent ne pas être suffisamment consacrées aux systèmes à risque élevé.
L'approche du Canada n'est pas en phase avec celle adoptée par ses principaux partenaires commerciaux, dont les États-Unis, l'Union européenne, le Royaume-Uni et le Japon. En effet, le cabinet d'avocats canadien Osler a comparé la Loi sur l'intelligence artificielle et les données à la loi de l'Union européenne sur l'intelligence artificielle. Nous serons ravis de transmettre Comité une copie de cette étude comparative. On y trouve 11 exemples où le Canada est allé plus loin que l'Union européenne, créant un ensemble d'exigences uniques à l'intention des entreprises ayant des activités au Canada.
Le fait que le Canada soit allé plus loin que l'Union européenne ne signifie pas que les Canadiens seront mieux protégés contre les risques que comporte l'intelligence artificielle. Cela signifie que les entreprises au Canada qui utilisent déjà des systèmes d'intelligence artificielle à faible risque pourraient être assujetties à un régime plus lourd que partout ailleurs dans le monde. Les Canadiens seraient mieux protégés par une réglementation plus ciblée. En veillant à ce que la Loi sur l'intelligence artificielle et les données soit fondée sur le risque, qu'elle soit claire et qu'elle offre une certitude en ce qui a trait à la conformité, le Canada pourra établir une nouvelle norme en matière de réglementation de l'intelligence artificielle.
Nous croyons fermement qu'en apportant les amendements appropriés, il sera possible d'atteindre un juste équilibre dans la Loi sur l'intelligence artificielle et les données. Il sera possible d'atteindre l'objectif crucial de réduire les préjudices et de protéger les Canadiens, et les entreprises au Canada auront la confiance nécessaire pour adopter les systèmes d'intelligence artificielle, qui auront d'énormes avantages sur les plans de la productivité, de l'innovation et de la compétitivité.
Pour conclure, nous recommandons, en premier lieu, de mieux déterminer ce qui constitue véritablement un système à incidence élevée. En deuxième lieu, nous recommandons d'établir une distinction entre les niveaux de risque des systèmes d'intelligence artificielle et de définir les exigences en fonction du niveau de risque. En dernier lieu, nous recommandons de repenser l'application de la loi, y compris le recours à des sanctions pénales, une mesure qui n'existe dans aucun autre pays de l'OCDE. Cela permettrait de s'assurer que l'approche du Canada est compatible avec celle adoptée par d'autres chefs de file mondiaux, comme l'Union européenne, le Royaume-Uni et les États-Unis.
Nous allons remettre avec plaisir au Comité un mémoire écrit qui fait état de nos recommandations.
Merci, monsieur le président. Nous avons hâte de répondre à vos questions.
:
Merci, monsieur le président.
Merci aux témoins.
Je vais commencer par des questions assez générales, car nous avons devant nous aujourd'hui les chefs de file mondiaux de l'intelligence artificielle.
C'est une réunion assez spéciale du Comité parmi toute une série de réunions spéciales que nous avons eues sur ce projet de loi. Nous accueillons des représentants d'Amazon, de Google, de Meta-Facebook et de Microsoft. Vous êtes les chefs de file mondiaux et vous êtes ceux qui investissent le plus d'argent partout.
Ce projet de loi a été déposé il y a presque deux ans. Répondez simplement par oui ou par non: est‑ce que l'une ou l'autre de vos entreprises a été consultée au sujet de ce projet de loi avant son dépôt?
Veuillez répondre un à la fois.
:
C'est une très bonne question.
Je comprends que le Canada veut agir rapidement pour réglementer l'intelligence artificielle. Le projet de loi initial présentait un cadre très général, qui aurait permis qu'un bon nombre des questions fassent l'objet de discussions au cours du processus d'établissement du règlement et qui aurait permis au Canada de s'aligner sur d'autres administrations internationales. Le problème, c'est que les amendements que le a proposés dans la lettre qu'il a adressée au Comité font état d'une prise de position sur l'ensemble des questions qui font actuellement l'objet de discussions dans les tribunes internationales dans le cadre du G7, de la Déclaration de Bletchley et du processus de l'OCDE. D'autres pays, des pays semblables aux nôtres, discutent actuellement de ces questions.
Les amendements proposés par le , s'ils sont acceptés par le Comité, confineront le Canada dans un cadre réglementaire qui pourrait être très différent de celui issu des discussions internationales. C'est vraiment ce qui nous préoccupe, non pas le texte original du projet de loi, mais bien les amendements proposés par le ministre.
:
Oui, et je ne sais pas si c'est délibéré ou non.
Nous pensons vraiment qu'il est préférable que cette utilisation soit traitée dans le cadre du projet de loi sur les préjudices en ligne. Il déterminera ce que les Canadiens voient en ligne, que ce soit quelque chose qui figure dans leur fil de médias sociaux ou leurs recommandations dans YouTube. Il s'agit même de quelque chose d'aussi anodin que le classement par une entreprise canadienne, à l'aide d'un système automatisé, d'articles de camping offerts sur le marché canadien.
Les obligations réglementaires proposées dans ce projet de loi auront vraiment une incidence sur le fonctionnement de ces systèmes. Nous pensons qu'il est préférable de traiter de cette question dans un contexte où nous pouvons avoir une discussion libre et approfondie sur la ligne à tracer en ce qui concerne le contenu que les Canadiens voient. Je sais que les fonctionnaires du ministère ont dit que cette disposition est conçue pour lutter contre la désinformation, par exemple. Là où la ligne devrait être tracée doit faire l'objet d'une discussion dans le contexte d'un projet de loi qui vise à traiter cette question.
:
Merci, monsieur le président.
Bienvenue à tous.
Je suis conscient que, pendant que vous faisiez vos exposés, des millions, voire des centaines de millions de personnes — vos clients — utilisaient vos services. Ils bénéficient de ces services, qui contribuent à leur productivité et qui leur permettent d'être connectés. De toute évidence, l'intelligence artificielle est en grande partie à l'origine de cela.
L'intelligence artificielle a de nombreux effets positifs dont les gens profitent tous les jours sans même y penser. C'est un sujet sur lequel nous nous penchons depuis maintenant deux ans. À mon avis, il faut des garde-fous, si je peux utiliser ce terme, ou des mesures de protection.
Quelques termes ont été mentionnés: la modération de contenu, l'écosystème et les systèmes à incidence élevée et à faible incidence. Je vais essayer de poser des questions générales.
En ce qui concerne la distinction entre les systèmes à incidence élevée et les systèmes à faible incidence, où se trouve le juste équilibre? Je pense à une approche comptable, qui comporte des principes très normatifs. Comment pouvons-nous trouver un équilibre entre les systèmes à incidence élevée et les systèmes à faible incidence lorsque nous examinons des lois sur l'intelligence artificielle afin d'éviter de passer un temps fou à vouloir englober les systèmes à faible incidence, qui sont en soi très utiles pour les consommateurs et les entreprises?
Mme Foster peut répondre en premier, puis nous pourrons passer aux autres témoins présents dans la salle et ensuite à ceux qui sont en ligne.
:
Je crois que c'est une question très difficile, mais importante. Chez Microsoft, nous y avons réfléchi également. Nous avons établi notre propre programme de gouvernance interne et déterminé comment doser l'application de nos exigences, dans le cadre de ce programme de gouvernance, aux cas d'utilisation à risque élevé.
Nous avons établi trois catégories de ce que nous appelons chez Microsoft des utilisations sensibles.
La première est l'utilisation qui a une incidence sur les possibilités dans la vie ou des conséquences sur la vie d'une personne. Dans cette catégorie, nous pensons à l'utilisation qui a des répercussions sur les occasions d'emploi, l'éducation ou le statut juridique, par exemple.
La deuxième est l'utilisation qui a une incidence sur la sécurité physique ou psychologique. Pensez à l'utilisation de systèmes essentiels à la sécurité dans le contexte d'infrastructures essentielles, par exemple, ou à l'utilisation de systèmes par des populations vulnérables.
La troisième est l'utilisation qui a une incidence sur les droits de la personne.
Je pense qu'il est utile d'établir un cadre, afin de réfléchir aux utilisations qui entraînent un risque élevé, et ensuite, lorsqu'on est prêt à aller plus loin, de réfléchir à certains cas d'utilisation plus précis, notamment dans les domaines de l'éducation et de l'emploi. Ces utilisations sont représentées dans certains exemples d'utilisations à incidence élevée figurant dans la Loi sur l'intelligence artificielle et les données. Il faut par ailleurs reconnaître que la loi devra évoluer, qu'il faudra établir des garde-fous en ce qui concerne les systèmes à incidence élevée et que les exemples devront aussi évoluer au fil du temps. Il ne s'agit pas seulement d'avoir un processus continu; il faut aussi penser aux utilisations qui entraîneront un risque élevé dans l'avenir.
:
Merci, monsieur le président.
Je remercie l'ensemble des témoins de leur présence aujourd'hui.
En tant que citoyen et consommateur, j'aime vos produits et je les utilise. Spécialement, en tant que personne toujours perdue en voiture, je suis content que vos services existent. Vous avez parlé ad nauseam de tous les avantages que ces services nous procurent. Nous les aimons. Que voulez-vous? C'est comme cela.
Je reviens à la question de mon collègue, M. Sorbara, parce que je la trouve très intéressante. On parle de systèmes à incidence élevée et à faible incidence, à risque élevé et à faible risque. Nous parlons de technologies qui évoluent rapidement. Je comprends que certaines technologies peuvent avoir différents usages, ce qui rend la chose un peu complexe. Je comprends votre message selon lequel il y a des définitions assez tranchées dans le projet de loi sur ce qui a une incidence élevée ou non, et qu'à certains égards, vous différez sur ces définitions. C'est tout à fait légitime.
N'est-il pas normal que les législateurs, élus par le public, et le gouvernement, voulant protéger la population, aient des définitions qui diffèrent de celles de l'industrie en ce qui concerne les termes « incidence élevée », « faible incidence », « risque élevé » et « faible risque »?
Étant donné que nos rôles ne sont pas les mêmes, n'est-il pas légitime que nous n'ayons pas la même définition?
:
Permettez-moi de vous la poser.
Nous avons parlé de modération des contenus. Un de mes collègues vous a demandé si la modération des contenus ne revient pas à décider ce que les Québécois et les Canadiens vont voir sur Internet.
Le contenu qu'on voit sur vos plateformes n'est pas aléatoire. Il est très déterministe et axé sur ce que les gens ont regardé avant, entre autres. Cela cause beaucoup d'inquiétudes chez beaucoup de gens.
J'aimerais que vous nous donniez une réponse claire à ce sujet. Jugez-vous que votre compagnie, elle aussi, choisit ce que les gens voient sur Internet?
:
Merci, monsieur le président.
Merci aux témoins.
À titre d'information pour le public et mes collègues, je vais déposer une motion. Elle ne fera pas l'objet d'un débat aujourd'hui, mais plutôt à une réunion ultérieure. J'aimerais obtenir des commentaires et savoir si mes collègues ont des amendements à proposer. La voici:
Que conformément à l'article 108(1) du Règlement, le Comité demande aux fabricants d'automobiles: Ford du Canada Limitée, La Compagnie General Motors du Canada, et Stellantis (FCA Canada Inc.), BMW Group Canada, Honda Canada Inc., Hyundai Auto Canada Corp, Jaguar Land Rover Canada ULC, Kia Canada Inc., Maserati Canada Inc., Mazda Canada Inc., Mercedes-Benz Canada Inc., Mitsubishi Motor Sales of Canada, Inc., Nissan Canada Inc., Porsche Cars Canada Ltd, Subaru Canada, Inc., Toyota Canada Inc., Volkswagen Group Canada Inc., Volvo Car Canada Ltd. et Tesla Motors Canada ULC, un rapport complet sur leurs stratégies et initiatives prises à ce jour et sur les mesures supplémentaires visant à améliorer les dispositifs de sécurité pour lutter contre le vol d'automobiles au Canada; et que les documents soient soumis au Comité dans un délai de cinq jours ouvrables.
Nous avons déjà procédé de la sorte au sein de ce comité. La raison pour laquelle je propose de le faire, c'est que je ne veux pas laisser ce dossier entièrement au ministère de la Sécurité publique ou au ministère des Transports en raison des sommes d'argent qui sont versées à l'industrie automobile. Cela ne prendra pas de temps au Comité, mais nous pourrons déterminer si nous voulons ou non mener une étude approfondie sur la question.
J'attends avec impatience de voir si certains de nos collègues ont des amendements à proposer à ce sujet. Vous verrez la motion apparaître dans vos boîtes de réception demain matin.
Ma première question porte sur une question que nous devons régler ici. Soit nous adoptons le projet de loi, avec une réglementation et malgré une certaine imprécision, soit nous faisons confiance à l'industrie et n'adoptons aucune mesure. On pourrait alors parler de plus de cinq ans... en fonction de la durée de la législature. Même si elle ne dure pas, faire adopter quelque chose prendrait beaucoup de temps. Nous devons donc prendre une décision.
Madame Curran, vous avez mentionné que vous aviez déjà travaillé dans le domaine de la politique publique. Si ma mémoire est bonne, je pense que vous avez travaillé pour le premier ministre Harper en tant que directrice des politiques. En juillet 2019, la Commission fédérale du commerce des États-Unis a imposé une amende record de 5 milliards de dollars à Facebook pour avoir trompé les utilisateurs sur la capacité à protéger leurs données personnelles. Premièrement, dans ce cas — et je ne sais pas —, des Canadiens avaient-ils les mêmes problèmes que les Américains? Deuxièmement, pourquoi devrions-nous nous contenter de croire qu'aucune politique publique ne serait la meilleure politique à l'heure actuelle par rapport au projet de loi?
:
Je vous remercie de la question, monsieur Masse.
Je ne pense pas que nous soutenions qu'il ne devrait pas y avoir de cadre législatif. Notre position diffère peut-être un peu de celle de mes collègues ici sur ce point. Je pense que le projet de loi, dans sa forme originale, dans sa forme actuelle, moins certains des amendements que propose le , est en fait très bon et tout à fait applicable.
Je comprends les impératifs politiques. Je comprends que les produits d'intelligence artificielle générative, en particulier, préoccupent le public. Je pense qu'il incombe au gouvernement et aux décideurs de mettre en place des garde-fous, comme l'a dit M. Sorbara, concernant le développement et le déploiement de l'intelligence artificielle. Nous ferions une seule mise en garde. Il ne faudrait pas que le Canada le fasse d'une manière qui diffère tellement de celle d'autres pays que cela aurait une incidence négative sur le développement et le déploiement de l'intelligence artificielle dans ce pays.
Je voudrais maintenant passer à Mme Foster.
Vous avez parlé de dispositions pénales. Encore une fois, cela fait partie du problème auquel nous sommes confrontés. En juillet 2020, l'Union européenne a infligé à Amazon une amende record de près de 900 millions de dollars américains pour avoir violé les règles relatives aux atteintes à la vie privée prévues dans le Règlement général sur la protection des données dans le traitement de données personnelles.
Dans ce cas particulier, est‑ce que des Canadiens ont été victimes de la même atteinte à la vie privée que celle pour laquelle les citoyens visés par le Règlement général sur la protection des données ont obtenu réparation? Le Canada a‑t‑il bénéficié du même traitement pour les atteintes à la vie privée qui ont pu avoir lieu?
:
Je comprends. Je n'essaie pas de vous mettre dans l'embarras, mais vous avez parlé des dispositions pénales.
J'ai une liste d'amendes et de pénalités que la Commission fédérale du commerce a infligées à Amazon aux États-Unis. Les décisions que nous devons prendre ici portent en partie sur certains de ces éléments. À vrai dire, le Canada n'obtient pas le même traitement pour ses citoyens.
Je vais maintenant m'adresser aux représentants de Microsoft.
Microsoft a accepté de payer 3 millions de dollars d'amendes pour avoir vendu des logiciels à des entités et à des individus sanctionnés à Cuba, en Iran, en Syrie et en Russie entre 2012 et 2019. Le département du Trésor américain affirme que la majeure partie de ces violations apparentes concernaient des entités russes sanctionnées.
Est‑ce que certaines de ces activités sont toujours en cours ou sont-elles maintenant terminées? Comment pouvons-nous être entièrement rassurés s'il n'y a pas de réglementation relative à l'intelligence artificielle, s'il y a une période d'attente pour faire quelque chose et si nous entendons parler de situations comme celle‑là?
:
Je suis désolé, mais mon temps est limité. Si vous ne connaissez pas ce dossier‑là, je vais passer au suivant, parce qu'il concerne ce dont nous parlons.
La Commission fédérale du commerce des États-Unis a accusé Microsoft d'avoir violé la protection de la vie privée des enfants en ligne. Il s'agit de la protection de la vie privée en ce qui nous concerne, compte tenu de l'âge du consentement. Un règlement de 20 millions de dollars a été conclu à ce sujet. Je me demande simplement si, dans cette affaire sur Microsoft, des enfants canadiens ont été victimes de la même violation que celle qui a fait l'objet du règlement.
Certains des cas que j'ai en exemple ici... Ils ne nécessitent pas des recherches approfondies. C'est tiré d'un article du New York Times. Je ne pose pas de questions sur des situations qui ne sont pas connues, qui nécessitent de la préparation, ou dans le but de prendre quelqu'un en défaut. Il s'agit simplement d'information tirée du New York Times que l'on peut trouver en utilisant vos produits.
Je veux savoir si des enfants canadiens ont été touchés par le même degré d'exposition concernant l'affaire qui a été réglée aux États-Unis.
:
Oui, plus ou moins. J'espère que ce sera sept minutes.
Des voix: Ha, ha!
M. Ryan Williams: Ne réduisez pas mon temps de parole, monsieur le président.
Merci aux témoins.
J'aimerais me concentrer ce soir sur les normes internationales et le rattrapage à faire par rapport à certains de nos pairs lorsqu'il s'agit de réduire au minimum les préjudices subis par les artistes, les créateurs et le grand public. Je sais que vous êtes tous d'accord. Vous avez des produits de consommation et vous voulez protéger les créateurs et les consommateurs.
L'une des grandes préoccupations que suscite l'intelligence artificielle concerne le contrôle des personnes sur la manière dont leur image pourrait être utilisée à des fins lucratives lorsque la valeur de l'image représente un investissement de la part de l'individu... par rapport aux préjudices en ligne. Évidemment, nous voulons également protéger l'utilisation par les consommateurs et les droits des consommateurs.
Je vais mentionner quelques-uns des plus grands exemples qui existent aujourd'hui.
Hier, j'ai rencontré un groupe de Music Canada. Il y a un Johnny Cash généré par l'intelligence artificielle qui peut chanter parfaitement Barbie Girl, du groupe Aqua. Il s'agit d'un système informatique qui apprend des choses sur un artiste et le reproduit. Nous pouvons imaginer ce qui se passerait si cela était utilisé avec Michael Jackson ou d'autres artistes pour créer des albums complets. Qui les protège? Existe‑t‑il des lois pour protéger les consommateurs et, bien sûr, leurs droits?
Le deuxième élément concerne les hypertrucages. C'est très préoccupant. Le plus grand exemple actuellement est celui de Taylor Swift. Le phénomène ne touche pas seulement les célébrités. Une de nos collègues, , s'est exprimée haut et fort sur l'utilisation de fausses photos et vidéos générées par l'intelligence artificielle dans des cas de violence conjugale.
Compte tenu de ces préoccupations et de ce préjudice important, de quelle manière le Canada pourrait‑il, selon vous, rattraper son retard dans le cadre de la Loi sur l'intelligence artificielle et les données ou de la loi actuelle et s'assurer que nous protégeons les droits des consommateurs?
J'aimerais que Mme Foster commence, puis chaque autre témoin répondra à son tour.
:
J'ai des Swifties chez moi; nous en parlons aux repas.
Vous avez donné un excellent exemple, en fait, d'une loi existante qui pourrait être remaniée pour résoudre un problème comme celui‑là. Il est déjà illégal de partager des images intimes sans consentement. L'ajout de précisions dans le Code criminel pour viser les images générées par l'intelligence artificielle est probablement un moyen plus efficace de régler ce problème particulier. Le Canada pourrait agir très rapidement et très efficacement à cet égard.
L'industrie travaille fort pour faciliter la détection de contenu généré par l'intelligence artificielle. Nous nous sommes notamment engagés en juillet à la Maison-Blanche à mettre au point des tatouages numériques et d'autres outils pour détecter le contenu généré. En novembre, nous avions déjà lancé un outil de tatouage numérique dans notre modèle d'intelligence artificielle resserré. L'industrie essaie également d'agir très rapidement pour remédier à certains préjudices et collabore évidemment pour s'assurer qu'il y a des lois en place pour y remédier, mais nous pouvons aussi œuvrer sur le plan technique pour que ces images soient détectées rapidement.
La question du droit d'auteur est un sujet d'actualité brûlant, et le gouvernement a tenu des consultations à ce sujet. Il y a deux aspects à prendre en considération pour l'élaboration des politiques: l'entraînement de l'intelligence artificielle et l'entrée de données. Comment faire en sorte que nous avons des données de grande qualité pour entraîner les modèles? Il y a aussi des techniques pour supprimer le contenu protégé par le droit d'auteur dans les extrants. Il est possible de s'assurer que les modèles ont des fonctions de suppression pour que le contenu protégé par le droit d'auteur ne figure par dans les extrants du modèle.
Il serait utile de distinguer les deux aspects dans nos discussions sur l'intelligence artificielle et s'assurer que nous avons de bons modèles qui contiennent également du contenu canadien. Nous devrions réfléchir au fait que la plupart des modèles disponibles sont dominés soit par la langue chinoise, soit par l'anglais. Par exemple, il y a un manque de contenu francophone, mais le Canada compte aussi d'autres langues minoritaires. Nous voulons permettre une utilisation appropriée du contenu pour les modèles d'entraînement afin d'avoir accès à de grands modèles linguistiques propres au Canada lorsque nous interagissons avec eux.
La question que vous avez soulevée au sujet des hypertrucages, qu'ils soient vidéo ou audio, ne serait pas réglée par le projet de loi , du moins pas de sitôt. Je sais que le gouvernement a fait une annonce — aujourd'hui, je crois — au sujet de la question des hypertrucages et de sa volonté de s'attaquer au problème. Or, le problème peut être réglé très facilement au moyen d'une modification au Code criminel ou à une loi existante.
Il en va de même pour la désinformation électorale. Si les membres du Comité sont préoccupés par ce préjudice, il est possible de le régler en apportant rapidement une modification à la Loi électorale du Canada. La Loi sur le droit d'auteur défend les droits des créateurs. L'utilisation de matériel dans le contexte du développement de l'intelligence artificielle qui porte atteinte aux droits des créateurs peut également tomber sous la Loi sur le droit d'auteur.
Il y a déjà des lois en vigueur. C'est la raison pour laquelle nous avons préconisé une approche sectorielle à la réglementation de l'intelligence artificielle. Toutes ces questions pourraient être réglées très rapidement ainsi, mais pas avec le projet de loi .
:
Nous sommes également d'avis que d'autres mécanismes conviendraient pour répondre aux préoccupations tout à fait légitimes concernant les images de ce genre.
Je tiens à préciser que pour les images non consensuelles, nous avons une politique de tolérance zéro sur Google, que ces images soient synthétiques ou non. Nous fournissons des outils aux personnes qui pourraient se trouver dans cette situation terrible afin de les aider à y remédier. Nous avons également des politiques très claires en ce qui concerne nos propres outils d'intelligence artificielle générative interdisant la production de contenu sexuellement explicite de ce genre.
Je pense que ma collègue, Mme Doshi, pourrait aussi vous en parler un peu, parce que la détection et le tatouage numérique sont des percées technologiques vitales pour lesquelles nous aurons besoin d'une approche collaborative.
:
La Loi et les amendements récemment proposés tracent les grandes lignes des exigences et nous attendrons plus de détails lors de la mise en œuvre des exigences.
Pour ce qui est de la mise en œuvre de la Loi, les dispositions prévues, comme celles prévoyant des vérifications, sont moins précises. On pourrait fournir plus de détails sur le processus de mise en œuvre, afin que les organisations puissent démontrer leur conformité aux exigences qui auront été définies plus en détail.
Microsoft travaille sur la gouvernance interne de l'intelligence artificielle responsable depuis sept ans, et nous avons élaboré bon nombre de ces concepts à l'interne, ce qui peut être considéré comme un point de départ. De nombreuses autres organisations n'ont peut-être pas consacré autant de temps à la question ou n'ont peut-être pas autant de ressources. Le fait d'offrir plus de certitude sur la façon de se conformer serait d'une utilité énorme.
Nous avons élaboré des principes responsables en matière d'intelligence artificielle, ainsi qu'une norme responsable en matière d'intelligence artificielle pour mettre ces principes en pratique. Il s'agit vraiment d'un ensemble d'objectifs et d'exigences très précis pour les équipes internes qui travaillent sur l'intelligence artificielle afin de réaliser certains objectifs, comme la réduction des préjugés et l'atténuation du risque de préjugé, et la mise en place de processus suffisamment transparents et responsables.
:
Permettez-moi d'intervenir. Je pense que Mme Craig est très diplomate.
À bien des égards, la LIAD va bien au‑delà du texte le plus strict du monde, soit la Loi sur l'IA de l'Union européenne, qui fait déjà l'objet de beaucoup de débats parmi les États membres. Le texte ne convient pas à certains pays comme la France, par exemple, qui veut s'assurer que sa propre industrie nationale a la chance de prospérer.
La LIAD a créé une norme qui n'existe nulle part ailleurs dans le monde. Si vous nous demandez si nous respecterions cette norme si elle était imposée ici, la réponse est oui. Nous avons les ressources nécessaires. Or, les coûts d'observation de la Loi sont incroyablement élevés. Cela voudrait‑il dire que certains produits ne pourraient pas être lancés au Canada? Peut-être. Cependant, nous travaillons tous pour des entreprises qui sont en mesure de respecter des exigences très élevées parce que nous avons les ressources et l'argent pour le faire.
Attention: cela aura un impact négatif important sur l'industrie canadienne de l'intelligence artificielle et sur l'innovation au Canada. Le Canada devrait s'aligner sur les autres pays. Notre marché est relativement petit. L'Union européenne est en train d'établir un point de référence de calibre mondial. Nous devrions à tout le moins ne pas dépasser ce point.
:
Du point de vue de Google, nous avons évidemment exprimé publiquement notre engagement à l'égard des principes responsables en matière d'intelligence artificielle. Ma collègue, Mme Doshi, chapeaute notre processus de gouvernance à cet égard, qui est évolutif, incroyablement rigoureux et robuste.
Comme l'ont dit d'autres témoins, vous pourriez envisager de vous pencher sur la définition de « à incidence élevée ». Insérez certains critères ou facteurs pour définir le seuil de ce qui constituerait un système à incidence élevée. Cela pourrait apporter de la clarté et de la souplesse au fur et à mesure que la technologie évolue. Si vous pensez à la gravité et à la probabilité du préjudice, à l'échelle d'utilisation, à la nature du préjudice et à ce genre de choses, le fait de donner des directives aux organismes de réglementation contribuera à la certitude et aux protections que le gouvernement cherche à établir ici, tout en offrant de la clarté et de la prévisibilité aux entreprises, grandes et petites, qui devront mettre en place les systèmes nécessaires pour se conformer.
Je pense que nous avons maintenant une véritable occasion de bien faire les choses dès le départ et de créer un cadre stratégique cohérent pour les entreprises canadiennes, qui devront être bien outillées pour réussir sur la scène mondiale.
:
Merci, monsieur le président.
Je vais continuer avec vous, madame Curran. Ne voyez pas cela comme de l'acharnement, j'aurais pu poser la question à n'importe qui.
L'industrie — je répète qu'on l'aime — tente de nous démontrer son grand sens de responsabilité, qu'elle a des principes et qu'elle veut évoluer. Toutefois, il semble y avoir des choses, qui pourraient sembler simples pour le grand public, qui auraient dû être faites, mais qui ne l'ont pas été. On a parlé de l'identification des faux, des contrefaçons complexes, et le reste.
Tout le monde se demande comment il se fait que cela n'ait pas déjà été fait. Je comprends que vous êtes dans un environnement concurrentiel.
Je me demande si, dans l'environnement actuel, il n'y a pas un coût, sur le plan du marché et des profits, lié à l'adoption de normes éthiques qui dépassent celles de ses concurrents.
:
Merci, monsieur le président.
Voilà le dilemme dans lequel nous nous trouvons. Nous devons faire confiance ou bien au texte, ou bien aux témoignages, et nous recevons des messages contradictoires de la part de nombreux témoins.
Ma question s'adresse à M. DeVries. Vous êtes le directeur de la Protection de la vie privée chez Google. Vous pouvez peut-être répondre à cette question.
Je sais que votre société a payé plusieurs amendes et pénalités, la plus récente étant une amende de 700 millions de dollars à la suite de poursuites antitrust aux États-Unis. Vous êtes sans doute au courant des poursuites intentées pour atteinte à la vie privée des millions de personnes qui pensaient naviguer en mode privé, qui se sont soldées par une amende de 5 milliards de dollars.
Les Canadiens figuraient-ils également parmi les victimes? Si c'est le cas, allons-nous être indemnisés?
:
C'est un peu ce qui me pose problème.
Je peux comprendre que vous souhaitiez éviter le paiement de taxes. Personnellement, je fais l'objet de pressions — comme c'est le cas pour les autres députés et les sénateurs lorsque nous allons aux États-Unis — à l'encontre de la position du Canada relativement à une taxe numérique.
Je soulève cette question parce que vos entreprises contestent systématiquement toutes les amendes et pénalités imposées, surtout aux États-Unis, mais aussi ailleurs dans le monde. Les Canadiens utilisent les mêmes produits, mais n'ont toutefois pas accès aux mêmes recours. Par-dessus le marché, nous devons attendre que l'OCDE rende sa décision en matière de taxes, ce qui pourrait prendre une autre décennie.
Je sais qu'il ne me reste plus de temps, monsieur le président, mais je voulais exprimer mon désappointement. Pour les Canadiens, y compris ceux qui font pression sur nous, la difficulté est de savoir à qui faire confiance pour déterminer si nous allons de l'avant ou non avec ce projet de loi. Doit‑on faire confiance aux autorités administratives et réglementaires, ou encore s'en remettre aux entreprises en gardant les consommateurs canadiens en quelque sorte dans un angle mort du fait que nos lois actuelles ne nous donnent même pas accès à une indemnisation équivalente à celle dont jouissent les Américains et les Européens.
Merci.
:
Merci, monsieur le président.
Je remercie tous les témoins pour les échanges fort intéressants que nous avons aujourd'hui. Je vais procéder très rapidement parce que j'ai beaucoup de sujets que je souhaiterais aborder en très peu de temps.
Madame Foster, l'article 40 proposé de la Loi sur l'intelligence artificielle et les données est lié aux articles 38 et 39. C'est pour les cas où une entreprise ou un particulier a contrevenu à la Loi. On imposerait alors une amende pouvant aller jusqu'à « 5 % des recettes globales brutes de l'organisation au cours de son exercice précédant... ».
Connaissez-vous d'autres lois liées à l'intelligence artificielle qui prévoient une telle amende?
Je m'inquiète tout particulièrement de la création d'un poste de commissaire aux données en vertu de l'article 33 du projet de loi, d'autant plus que d'autres témoins nous ont fait valoir — et c'est un fait bien connu — que le gouvernement du Canada ne dispose pas des capacités intellectuelles nécessaires pour réglementer l'intelligence artificielle.
Je crains que ce projet de loi ne donne aux instances réglementaires de très vastes pouvoirs qui, dans certains cas, pourront être cédés par le ministre — suivant le projet de loi dans sa forme actuelle — à un commissaire à l'intelligence artificielle et aux données qui relèvera directement de lui. Cette relation m'inquiète parce qu'elle risque de faire entrer en conflit les multiples objectifs du ministère de l'Industrie, dont notamment, dans le cas qui nous intéresse, le développement économique, d'une part, et la protection des citoyens contre les préjudices en ligne, d'autre part.
Nos témoins pourraient-ils nous dire s'ils croient que nous serions mieux servis dans ce contexte si le commissaire à l'intelligence artificielle et aux données, ou l'organisme gouvernemental qui sera mis en place pour remplir ce rôle, relevait directement du Parlement, plutôt que du ministre de l'Industrie?
Ma prochaine question s'adresse aux représentants de Google. Lorsque j'ai dit « Google » tout à l'heure, mon Pixel 3 m'a dit: « Hé, Brad. Comment ça va? »
La première partie de ce projet de loi porte sur la protection de la vie privée. Nous avons alors discuté en long et en large des considérations liées à la confidentialité des renseignements. Je pense que cet aspect est tout aussi primordial pour cette partie‑ci du projet de loi.
Nous n'avons pas beaucoup parlé jusqu'à maintenant des répercussions que l'intelligence artificielle aura sur les enfants. L'une de nos témoins a indiqué tout à l'heure que nous devons adopter une approche adaptée en fonction du niveau de risque des différents systèmes. En fait, je pense qu'un peu tout le monde en a parlé.
Comment Google définirait‑il les renseignements de nature délicate dans le contexte de ses politiques et de ses technologies appliquées aux enfants?
J'aurais une dernière question pour les gens de Microsoft concernant la défense nationale.
Nous n'avons guère abordé le sujet dans nos discussions sur l'intelligence artificielle, en grande partie parce que la défense nationale échappe à l'application de cette réglementation. Pourtant, il est intéressant de noter que nous entendons beaucoup parler des préjudices possibles auxquels les Canadiens sont exposés en raison de l'intelligence artificielle conçue par les systèmes de défense nationale de pays comme la Russie et la Chine, qui font actuellement l'objet de discussions dans le cadre des travaux de la Commission sur l'ingérence étrangère.
Quelles mesures prend Microsoft, de concert avec le gouvernement des États-Unis, pour contrer certaines des actions menées par la Chine et la Russie en vue de déstabiliser des démocraties comme le Canada en misant notamment sur l'intelligence artificielle?
:
Merci, monsieur le président.
Merci à tous les témoins d'être des nôtres aujourd'hui. J'estime que ces échanges nous éclairent grandement grâce à toutes les idées et l'expertise que vous mettez à notre disposition. Je vous suis donc reconnaissant à tous de votre contribution.
Comme le soulignait mon collègue, M. Sorbara, je pense que vos entreprises doivent notamment leur expansion, leur rentabilité et leur prospérité au fait que vos produits et services ont beaucoup de valeur aux yeux de vos clients. Par ailleurs, j'ai l'impression que vous essayez tous de montrer la voie à suivre en matière de développement responsable de l'intelligence artificielle, ce qui est très bien.
Il va de soi que nous avons un rôle important à jouer à titre de législateurs, et que nous devons prendre des décisions qui vont dans le sens de l'intérêt public. Je pense que nous sommes des partenaires dans cette aventure, et je me réjouis donc de constater notre disposition à conjuguer nos efforts ainsi que la franchise dont vous faites montre aujourd'hui.
Plus tôt cette semaine, nous avons entendu le témoignage de Yoshua Bengio, celui que l'on qualifie parfois de parrain de l'intelligence artificielle. Il a beaucoup insisté sur les avantages et les risques qui augmentent de façon exponentielle au fur et à mesure que l'intelligence artificielle évolue. Il a ainsi fait ressortir, tout au moins à mon point de vue, la nécessité de faire adopter rapidement ce projet de loi par le Parlement.
Même si certains amendements pourraient être nécessaires, êtes-vous tous d'accord pour dire que le gouvernement canadien doit agir rapidement pour que ce projet de loi soit adopté?
Puis‑je demander à chacun de vous de répondre brièvement?
Allez‑y, madame Foster.
Je vais changer un peu de sujet. Vous avez tous traité des concepts de « préjudice » et de « préjudice important », mais en nous décrivant des façons de faire légèrement différentes pour définir ces notions à l'interne. Je pense que c'est ce que j'ai entendu. Je pourrais vous rappeler certains commentaires que j'ai notés, mais j'ai eu l'impression qu'il y avait une légère variation dans la façon dont vous analysez le tout dans vos organisations respectives. La plupart d'entre vous ont fait valoir que la désignation d'un système à incidence élevée dépend en grande partie des différentes utilisations possibles.
Il y a deux questions que je pourrais poser. Je vais peut-être commencer par celle portant sur les cas pratiques d'utilisation, parce que je pense que c'est sans doute la plus difficile. J'ai l'impression que si nous essayions de prévoir tous les divers cas...
Madame Curran, vous avez dit que nous devrions cerner les cas d'utilisation qui nous préoccupent pour ensuite déterminer où se situe le seuil de préjudice. Je pense qu'il nous serait très difficile, dans notre rôle de législateurs et de responsables de la réglementation, de déterminer tous les cas d'utilisation possibles dans la pratique. Je suis persuadé que vous ne pouvez pas tous les anticiper vous non plus. J'arrive difficilement à comprendre comment on peut s'imaginer qu'il s'agit là d'une façon de procéder envisageable pour les législateurs. Pourriez-vous m'aider à y voir plus clair?
:
... pour une technologie qui comporte un nombre incroyable d'applications sectorielles. La profondeur et l'étendue de l'IA sont immenses. Il est très ardu de proposer quelque chose qui tient compte de tous les cas d'utilisation, car la gestion des préjudices ou des risques est spécifique aux données utilisées et aux populations qui interagiront avec les systèmes en question. La rédaction d'une réglementation horizontale serait un exercice stérile.
Il faut examiner chaque secteur séparément. Les organismes qui possèdent une expertise dans le secteur auront une approche réglementaire beaucoup plus efficace et chirurgicale. Ces organismes de réglementation possèdent déjà une expertise dans des secteurs complexes et font déjà de la gestion des risques.
Il faudra aussi mettre en place un filet de sécurité législatif. D'autres pays ont cerné ce besoin. Au Royaume‑Uni, ils ont l'intention de mettre en place un mécanisme, mais ils veulent examiner chaque secteur pour déterminer où sont les lacunes à combler avant de légiférer.
L'étude de ce projet de loi qui a été confiée au Comité est une tâche extrêmement ardue. Ce sera très difficile d'avoir la certitude que les risques ont bien été relevés.
Pour répondre à votre question sur la nécessité d'établir un seuil ou un test relatif aux préjudices, nous répondons par l'affirmative. Le problème se résume peut-être seulement à un manque de clarté, puisque les termes « préjudice important » et « préjudice grave » apparaissent ailleurs dans le projet de loi. Il faudrait peut-être seulement uniformiser la terminologie.
Je souligne en dernier lieu que les recommandations portent toutes sur la capacité d'apporter des ajustements au projet de loi pour en faciliter l'application. Pour les cas d'utilisation qui soulèvent des préoccupations sur les préjudices importants, que ce soit sur le plan de la santé ou de l'économie, il faudrait d'abord ajouter des facteurs qui permettraient de définir clairement la notion de système à incidence élevée ainsi qu'établir un test ou un seuil relatif aux préjudices. Il faudrait ensuite conférer des pouvoirs et donner des outils aux organismes de réglementation sectoriels. Grâce à leur vaste expertise, ces derniers pourraient appliquer les outils établis à leur domaine de réglementation respectif. Je pense que ces recommandations établiraient les conditions favorables à la mise en place du cadre stratégique souple que vous souhaitez.
:
Merci, monsieur le président.
Je remercie tous les témoins d'être parmi nous.
Lundi dernier, lorsqu'il a comparu devant ce comité par vidéoconférence, M. Bengio nous a dit que nous devions rapidement adopter le projet de loi , puisque, d'ici une décennie ou peut-être même d'ici deux ans, des robots aussi intelligents que les humains pourront prendre des décisions.
Dans La Presse d'aujourd'hui, un article sur la vie numérique nous apprend que, en 2019, pendant la pandémie, près de 1 million d'emplois ont été créés dans vos quatre compagnies respectives et au sein d'Apple. Depuis ce temps, particulièrement au cours des deux dernières années, plus de 125 000 d'entre eux ont déjà été supprimés, et ce ne serait pas fini.
Le prix que doivent payer aujourd'hui les employés qui ont créé des outils grâce à l'intelligence artificielle est-il l'élimination de leur emploi? Est-ce le début d'une baisse importante du nombre d'employés?
Je suis le propriétaire d'une PME. Au moment où on se parle, dans le domaine des communications, il existe des outils, dont ChatGPT, qui permettent de créer un site Web en cinq minutes. Évidemment, cela ne me prend pas cinq minutes pour le faire. Il va falloir s'adapter à ces réalités d'aujourd'hui.
À l'avenir, l'intelligence artificielle va-t-elle nous permettre de créer plus ou moins d'emplois dans le domaine des technologies de l'information?
Par ailleurs, madame Craig, vous avez parlé de la recherche et du développement. Je pense que Mme Curran l'a fait aussi.
Le projet de loi risque-t-il de nuire à la recherche et au développement au Canada s'il établit des règles trop strictes en matière d'intelligence artificielle?
Mes questions s'adressent à tout le monde. Vous pouvez y répondre l'un après l'autre si vous le voulez.
:
Je suis toujours la première à répondre.
Je peux parler un peu des répercussions sur les emplois. Nous savons très bien que les nouvelles technologies influent sur la situation de l'emploi. Rares sont ceux parmi nous qui côtoient encore dans leur milieu de travail des secrétaires et des réceptionnistes. Une bonne partie des fonctions liées à ces emplois sont désormais remplies par les technologies. Nous traversons indéniablement une transition économique, mais je crois que celle‑ci pourrait s'avérer en bonne partie extrêmement bénéfique.
Au sujet de l'adoption de l'IA au Canada et des secteurs où nous voudrions favoriser une forte présence de cette technologie, il faudrait considérer les secteurs qui connaissent déjà une pénurie de main-d'œuvre. Les soins de santé sont un bel exemple, tout comme l'industrie de la construction. Si elle est appliquée de façon ciblée, l'IA pourrait contribuer à atténuer les pénuries de personnel. Ses diverses applications pourraient alléger le fardeau administratif des médecins et des infirmières et leur permettre de se concentrer davantage sur les patients.
Des changements vont survenir. L'IA a parfois pour effet de créer de nouvelles possibilités économiques dans certains types d'emplois, mais le changement est une certitude.
:
Je suis d'accord pour dire que l'IA va modifier le marché de l'emploi. En fait, je suis très optimiste. Il y a environ 200 ans, les agriculteurs comptaient pour 72 % des travailleurs nord-américains. Cette proportion se chiffre à moins de 2 % aujourd'hui. Soixante pour cent des emplois recensés en Amérique du Nord en 2018 n'existaient pas en 1940. Nous allons donc créer un tout nouveau groupe d'emplois. Le gouvernement et les décideurs devront toutefois travailler de concert avec les entreprises pour former la main-d'œuvre du futur et permettre aux Canadiens d'acquérir les compétences dont ils ont besoin pour faire partie des travailleurs qui occuperont des postes dans de toutes nouvelles catégories d'emplois. Je suis d'accord avec Mme Foster pour dire qu'en cette période de pénurie de main-d'œuvre, l'IA sera l'outil le plus approprié pour résoudre certains de ces problèmes.
Quant à la R‑D, les recherches sur l'IA de calibre mondial au Canada sont menées à Montréal. Mme Joëlle Pineau, qui sera invitée, je l'espère, à venir témoigner devant le Comité, pourrait parler du travail passionnant qu'elle accomplit au Québec pour catalyser la recherche sur l'IA au niveau mondial.
Selon moi, un mauvais cadre réglementaire ou une réglementation excessive de la part du gouvernement feraient fuir la R‑D. Vu que le Canada est un chef de file mondial de la recherche sur l'IA, ce serait vraiment dommage de perdre ce secteur.
:
Nous avons des politiques claires contre les contenus truqués, qu'ils soient en format vidéo ou audio. Nous supprimons tout contenu trompeur.
Il y a quelques années, nous avons mis sur pied un conseil de surveillance chargé de nous fournir des orientations pour nos politiques sur le contenu. Or, c'est exactement ce que les membres du conseil ont fait. Ils ont statué que nous avions pris la mauvaise décision. Ils ont également formulé des recommandations — que nous allons suivre — sur l'application de nos politiques.
Nous disposons des outils les plus perfectionnés de l'industrie pour détecter et supprimer le contenu généré par l'IA. Évidemment, pour les publicités à teneur politique ou sociale, nous demandons aux annonceurs de nous dire s'ils utilisent du contenu généré par l'IA.
Nous venons d'annoncer des exigences relatives à l'étiquetage pour le contenu produit par un humain. Nous allons étiqueter le contenu généré par l'IA pour avertir les abonnés, le cas échéant, que les images diffusées sur notre plateforme sont générées par l'intelligence artificielle. Nous collaborons avec les autres membres de l'industrie en vue d'étendre ces exigences aux contenus vidéo et audio lorsque c'est faisable sur le plan technique. Ce travail se poursuit.
:
Merci, monsieur le président.
Nous arrivons presque à la fin des témoignages et de la comparution du groupe de témoins.
J'essaie de me faire une opinion sur ce que j'ai entendu. J'essaie de voir où vous en êtes relativement à la réglementation, pour être pouvoir appuyer une réflexion constructive là-dessus.
Je dois admettre que je suis un peu confus.
D'une part, quand on vous demande collectivement s'il faut réglementer cela, la réponse est oui. Quand on vous demande s'il faut que des mesures soient prises rapidement, la réponse est oui.
D'autre part, quand on entre dans les détails, vous nous dites que le projet de loi n'est pas adéquat. Il contient trop de choses et touche à trop d'aspects. Vous nous dites alors, en quelque sorte, qu'il faudrait apporter des modifications à beaucoup de lois. Je note celles dont nous avons discuté aujourd'hui: la Loi canadienne sur la santé, la Loi électorale du Canada, la Loi sur la protection des renseignements personnels et les documents électroniques, le Code criminel, la Loi sur le droit d'auteur, la Loi sur les brevets et les mesures visant certaines publicités destinées aux enfants. De telles modifications requerraient un travail législatif interminable, particulièrement dans le genre de Parlement où nous siégeons aujourd'hui. Au bout du compte, cela ferait en sorte que nous n'aurions pas de réglementation.
De plus, je pense que si nous vous présentions un projet de loi dans lequel on modifierait toutes ces lois en même temps, vous nous diriez probablement que nous revenons au problème de départ du projet de loi , et que tout cela revient au même.
Si je comprends bien, c'est une question de relations publiques et de stratégie, entre autres.
J'ai la mauvaise habitude d'être très direct. Je vous pose donc la question suivante. N'est-ce pas une façon un peu astucieuse de nous dire que vous ne voulez pas de réglementation?
Prenez tout le temps qu'il reste pour répondre à ma question.
:
Je vous remercie, monsieur le président.
Madame Curran, en réponse au projet de loi , Meta a bloqué l'accès aux nouvelles et leur transfert. De nombreux experts ont dit que cela allait rendre les enfants et les jeunes plus vulnérables aux abus. Votre PDG, Mark Zuckerberg, s'est à tout le moins excusé auprès des Américains lors des audiences du Congrès il y a quelques jours pour ce qui s'est passé.
Pouvez-vous nous expliquer — c'est la question de la confiance qui m'intéresse ici — quel type d'analyse vous continuez de mener? Êtes-vous en désaccord avec les experts sur l'exploitation qui se fait par l'entremise de vos produits? Obtenons-nous les mêmes protections pour nos jeunes?
Je suis surpris qu'il n'y ait pas eu d'excuses générales plus globales. Je ne sais pas quelle différence il y a, outre la citoyenneté, parmi ceux qui ont été touchés, et je pense aux problèmes importants que cela a causés, notamment aux liens avec le suicide et l'automutilation. Pouvez-vous assurer aux membres du Comité que vous poursuivez vos analyses concernant votre réponse au projet de loi , et nous dire si les jeunes Canadiens sont plus à risque en raison de la désinformation, qui les affecte mentalement?
:
Il ne me reste plus beaucoup de temps.
Je suis vraiment préoccupé par le fait que la réponse au projet de loi n'est pas la même que dans d'autres pays. La désinformation sur les sujets que j'ai notés est particulièrement inquiétante.
Y a‑t‑il une analyse en cours au sujet du projet de loi et de la réponse de Meta pour savoir si cela expose les jeunes à plus, ou à moins, de risques en raison de la désinformation? Encore une fois, votre PDG s'est à tout le moins excusé auprès des Américains sur cette question, mais pas auprès des Canadiens. Y a‑t‑il une analyse en cours de votre réponse au projet de loi C‑18 pour savoir si elle a causé plus de tort et de désinformation, en affectant ainsi la santé mentale des jeunes qui utilisent votre produit?
:
Il existe différentes écoles de pensée concernant la puissance informatique requise pour ces modèles. L'Union européenne a, bien sûr, mis en place des paramètres à cet effet.
Il y a de nouveaux développements passionnants dans ce que l'on appelle les petits modèles de langage, et la communauté des utilisateurs de codes sources libres, qui est très vaste, construit des modèles très puissants. Je suggère de ne pas parler de performance et de capacité de l'unité centrale. Il faut plutôt parler des caractéristiques et de ce que ces modèles font et de ce qu'ils offrent.
Encore une fois, il est important que nous mettions en place des garde-fous pour l'avenir afin que, lorsque ces nouveaux outils apparaîtront, nous ayons des environnements réglementaires puissants qui nous aident à protéger les Canadiens contre les préjudices qui pourraient survenir.