Passer au contenu

INDU Réunion de comité

Les Avis de convocation contiennent des renseignements sur le sujet, la date, l’heure et l’endroit de la réunion, ainsi qu’une liste des témoins qui doivent comparaître devant le comité. Les Témoignages sont le compte rendu transcrit, révisé et corrigé de tout ce qui a été dit pendant la séance. Les Procès-verbaux sont le compte rendu officiel des séances.

Pour faire une recherche avancée, utilisez l’outil Rechercher dans les publications.

Si vous avez des questions ou commentaires concernant l'accessibilité à cette publication, veuillez communiquer avec nous à accessible@parl.gc.ca.

Publication du jour précédent Publication du jour prochain
Passer à la navigation dans le document Passer au contenu du document






Emblème de la Chambre des communes

Comité permanent de l'industrie et de la technologie


NUMÉRO 109 
l
1re SESSION 
l
44e LÉGISLATURE 

TÉMOIGNAGES

Le mercredi 7 février 2024

[Enregistrement électronique]

(1705)

[Traduction]

    Nous allons tenter de trouver le problème avec les techniciens. Nous allons suspendre la séance un instant.
(1705)

(1720)

[Français]

     Bon après-midi à tous et à toutes.
    Je déclare la séance ouverte.
    Je vouis souhaite la bienvenue à la 109e réunion du Comité permanent de l'industrie et de la technologie de la Chambre des communes.
    La réunion d'aujourd'hui se déroule sous un format hybride, conformément au Règlement
     Conformément à l'ordre de renvoi du lundi 24 avril 2023, le Comité reprend l'étude du projet de loi C-27, Loi édictant la Loi sur la protection de la vie privée des consommateurs, la Loi sur le Tribunal de la protection des renseignements personnels et des données et la Loi sur l'intelligence artificielle et les données et apportant des modifications corrélatives et connexes à d'autres lois.
    Je souhaite la bienvenue à nos témoins d'aujourd'hui. Nous recevons, d'Amazon Web Services, Mme Nicole Foster, directrice, Politique publique mondiale pour l'intelligence artificielle.
    De chez Google Canada, nous recevons Mme Jeanette Patell, directrice, Affaires gouvernementales et des politiques publiques. Également de chez Google et participant par vidéoconférence, nous recevons M. Will DeVries, directeur, Protection de la vie privée, ainsi que Mme Tulsee Doshi, directrice, Gestion des produits.
    De Meta, nous recevons Mme Rachel Curran, qui est cheffe des politiques publiques pour le Canada.
    De chez Microsoft...

[Traduction]

    J'invoque le Règlement, monsieur le président. Nous n'entendons pas l'interprétation.
    Monsieur Masse, peut-être que vous ne l'avez pas sélectionnée correctement, car il semble que les gens dans la salle l'entendent.
    Oui, j'ai fait ce qu'il fallait. Je l'ai confirmé auprès de mon personnel, qui est aussi en ligne.
    Une voix: Les témoins secouent la tête.
    Ils n'entendent pas non plus l'interprétation.
    Nous nous trouvons toujours à éprouver des problèmes techniques lorsque nous accueillons des représentants des géants des technologies. J'ignore pourquoi.
    Des voix: Oh, oh!

[Français]

     Excusez-nous de ces inconvénients techniques.
    Je poursuis donc les présentations.
    De chez Microsoft, nous accueillons Mme Amanda Craig, directrice principale des politiques publiques, Bureau de l'intelligence artificielle, ainsi que M. John Weigelt, directeur de la technologie.
    Nous vous remercions toutes et tous de votre présence aujourd'hui.

[Traduction]

    Vous disposez tous de cinq minutes pour votre déclaration liminaire.
    Nous allons commencer par Mme Foster, qui représente Amazon.

[Français]

[Traduction]

    C'est un privilège pour moi de comparaître devant le Comité dans le cadre de son étude de la Loi sur l'intelligence artificielle et les données, proposée dans le projet de loi C‑27.
    Amazon Web Services, AWS, a une forte présence au Canada et elle a pris un solide engagement envers sa clientèle canadienne. Nous possédons des infrastructures numériques dans les régions de Montréal et de Calgary, afin de soutenir nos clients canadiens, et nous prévoyons investir jusqu'à près de 25 milliards de dollars d'ici 2037 dans ces infrastructures numériques.
    À l'échelle de la planète, plus de 100 000 organisations de toutes les tailles ont recours aux services d'intelligence artificielle et d'apprentissage automatique d'AWS. Au Canada, il s'agit notamment de jeunes entreprises, de journaux nationaux, d'organisations sportives professionnelles, d'institutions financières sous réglementation fédérale, de détaillants et d'établissements publics.
    En particulier, AWS offre un ensemble de technologies au sein de sa pile technologique, qui compte trois niveaux. Le niveau inférieur comprend l'infrastructure d'intelligence artificielle. Nous offrons nos propres puces personnalisées à haute performance, ainsi que d'autres produits informatiques. Le niveau intermédiaire comprend une vaste gamme de modèles de base que les organisations peuvent utiliser pour créer des applications d'intelligence artificielle générative. Il s'agit de modèles conçus par Amazon et d'autres modèles élaborés par de grands fournisseurs, tels que Cohere — une entreprise canadienne — Anthropic, AI21, Meta — qui est ici aujourd'hui — et Stability AI. Le niveau supérieur de la pile technologique comprend des applications et des services d'intelligence artificielle générative.
    AWS investit sans cesse dans le développement et le déploiement responsables de l'intelligence artificielle. Nous nous efforçons d'aider nos clients à innover et à mettre en place les mesures de protection nécessaires. Les efforts que nous déployons pour favoriser un développement responsable et sécuritaire de l'intelligence artificielle sont appuyés par une grande collaboration avec la communauté internationale, notamment en ce qui a trait à l'élaboration de normes techniques internationales. Nous saluons d'ailleurs le leadership du Conseil canadien des normes à cet égard.
    Nous sommes emballés par la mesure dans laquelle l'intelligence artificielle continuera de prendre de l'expansion et de transformer notre mode de vie et nos façons de travailler. En même temps, nous sommes également bien conscients des risques et des problèmes potentiels. Nous appuyons la volonté du gouvernement de mettre en place des cadres réglementaires efficaces, fondés sur le risque, tout en permettant l'innovation et une application pratique de la technologie.
    Je vais vous faire part de quelques réflexions au sujet de l'approche proposée dans le projet de loi C‑27.
    Premièrement, la réglementation régissant l'intelligence artificielle doit tenir compte des nombreuses parties prenantes qui participent au développement et à l'utilisation des systèmes d'intelligence artificielle. Étant donné la complexité de la chaîne de valeur de l'intelligence artificielle, nous voyons d'un bon œil les précisions que le ministre a apportées récemment, qui contribuent à définir les règles à l'intention des spécialistes du développement et du déploiement des systèmes d'intelligence artificielle. Les spécialistes du développement sont ceux qui créent des systèmes ou des services d'intelligence artificielle à usage général, et les spécialistes du déploiement sont ceux qui mettent en œuvre ces systèmes.
    Deuxièmement, la réussite du déploiement responsable de systèmes d'intelligence artificielle est très souvent liée aux cas et aux contextes d'utilisation. Dans la réglementation, on doit faire la distinction entre les systèmes comportant un risque élevé et ceux comportant un faible risque. Il n'est pas du tout pratique de réglementer toutes les applications selon la même approche, et cela peut contribuer sans le vouloir à freiner l'innovation.
    Étant donné que les risques associés à l'intelligence artificielle dépendent du contexte d'utilisation, l'efficacité de la réglementation sera optimale si elle cible les utilisations comportant un risque élevé. Bien que le projet de loi C‑27 tienne compte du fait qu'il existe des applications d'intelligence artificielle à incidence élevée et d'autres à faible incidence, nous sommes d'avis que, même en ajoutant des précisions, la définition d'« incidence élevée » demeure trop ambiguë et englobe un certain nombre de cas d'utilisation qui seraient inutilement assujettis à des exigences de conformité onéreuses et contraignantes.
    Je vais vous donner rapidement un exemple. L'utilisation de l'intelligence artificielle par des agents de la paix est considérée comme étant une utilisation à incidence élevée. Si cette utilisation inclut le recours à la correction automatique lors de la préparation d'un constat d'infraction au Code de la route, est-elle toujours considérée comme étant une utilisation à risque élevé? Dans les lois et les règlements, il faut clairement faire la distinction entre les applications à risque élevé et celles qui posent un risque faible ou nul. C'est un principe de base qu'il faut bien respecter. Il faut faire très attention de ne pas imposer un fardeau réglementaire aux applications d'intelligence artificielle à faible risque, qui pourraient contribuer à l'augmentation indispensable de la productivité des petites et grandes entreprises canadiennes.
    Troisièmement, les dispositions d'exécution en matière criminelle du projet de loi pourraient avoir pour effet de ralentir l'innovation, surtout si les exigences ne sont pas adaptées au risque et qu'elles ne sont pas rédigées clairement.
    Enfin, il faut veiller à ce que le projet de loi C‑27 soit compatible avec d'autres régimes réglementaires. Les politiques en matière d'intelligence artificielle dans le monde ont changé et ont évolué très rapidement depuis que le projet de loi C‑27 a été présenté pour la première fois en 2022. Un grand nombre des plus importants partenaires commerciaux du Canada, dont les États‑Unis, le Royaume‑Uni, le Japon et l'Australie, ont depuis adopté des approches très différentes et axées sur la décentralisation, en ce sens que ce sont les organismes de réglementation les plus aptes à réglementer les cas d'utilisation qui sont appelés à gérer la réglementation en matière d'intelligence artificielle et les mesures d'atténuation des risques. Même s'il est louable que le gouvernement ait modifié son approche initiale en fonction des observations des parties prenantes, il devrait prendre tout le temps qu'il lui faut pour s'assurer d'adopter la bonne approche.
    En s'inspirant des nouvelles normes techniques et autres normes internationales, le gouvernement s'assurera que la réglementation canadienne sera compatible avec celles mises en place par d'autres grandes économies et importants partenaires commerciaux. Au bout du compte, cela favorisera la croissance à l'échelle mondiale des chefs de file canadiens en matière d'intelligence artificielle. Dans l'intervalle, nous pouvons et devrions nous attaquer à des préjudices précis, notamment le risque que posent les hypertrucages à l'égard de la désinformation électorale, en procédant à un examen des lois existantes et en y apportant les modifications qui s'imposent.
    Nous sommes résolus à faire profiter les décideurs de nos connaissances et de notre expertise alors qu'ils s'emploient à favoriser l'utilisation responsable de l'intelligence artificielle. Je vous remercie beaucoup de m'avoir donné l'occasion de m'adresser à vous aujourd'hui.
(1725)
    Merci beaucoup.
    Je vais maintenant donner la parole à la représentante de Google Canada pour cinq minutes.
    Bonjour, monsieur le président et membres du Comité. Je m'appelle Jeanette Patell et je suis directrice des affaires gouvernementales et des politiques publiques chez Google, à Ottawa. Je suis accompagnée pas mes collègues, Tulsee Doshi et Will DeVries, qui comparaissent virtuellement. Mme Doshi est directrice et responsable des produits au sein du secteur de l'intelligence artificielle responsable chez Google. M. DeVries est directeur au sein de notre équipe responsable de la protection de la vie privée et il conseille l'entreprise en ce qui concerne la législation ailleurs dans le monde portant sur la protection de la vie privée et en ce qui a trait au respect des exigences en matière de protection des données. Nous sommes heureux d'avoir été invités à comparaître devant le Comité aujourd'hui et de contribuer à l'étude du projet de loi C‑27.
    Comme le Comité le sait, il s'agit d'une mesure législative importante, qu'il est impératif de bien concevoir.

[Français]

     Nous allons aujourd'hui formuler quelques remarques au sujet de la Loi sur la protection de la vie privée des consommateurs et de la Loi sur l'intelligence artificielle et les données. Nous serons ravis de répondre à vos questions.
    Nous présenterons bientôt notre mémoire à ce comité. Nous allons aussi maintenir nos engagements sur les éléments qui pourraient être améliorés pour assurer de meilleurs résultats pour les entreprises, les innovateurs et les consommateurs canadiens.

[Traduction]

    Lorsque les Canadiens utilisent nos services, ils se trouvent à nous confier leurs renseignements. C'est une responsabilité que nous prenons très au sérieux chez Google, et nous protégeons les renseignements personnels des utilisateurs grâce à une infrastructure de sécurité de pointe, à des pratiques de gestion responsable des données et à des outils de protection des renseignements personnels faciles à utiliser qui donnent le contrôle aux utilisateurs.
    Google fait depuis longtemps la promotion d'une réglementation intelligente, compatible et souple en matière de protection des données, qui protégera le droit à la vie privée, rehaussera la confiance à l'égard de l'écosystème numérique et favorisera l'innovation responsable. Nous appuyons les efforts déployés par le gouvernement en vue de moderniser la réglementation régissant la protection de la vie privée et des données et de codifier d'importants droits et obligations.
    En outre, nous croyons qu'il y aurait lieu d'examiner davantage la Loi sur la protection de la vie privée des consommateurs et d'y apporter des modifications à certains égards. Par exemple, nous sommes d'avis, à l'instar d'autres organisations, notamment la Chambre de commerce du Canada, que les dispositions sur le consentement devraient être clarifiées et adaptées à des activités plus lourdes de conséquences. Nous voulons également souligner la nécessité d'élaborer une définition uniforme à l'échelon fédéral du terme « mineur » et d'établir des mesures de protection plus claires des droits et libertés des personnes mineures. De telles améliorations permettraient de maintenir et de rehausser les mesures de protection de la vie privée des Canadiens, faciliteraient la conduite des activités des entreprises au Canada et ailleurs dans le monde et favoriseraient l'innovation dans l'ensemble de l'économie.
    En ce qui concerne la Loi sur l'intelligence artificielle et les données, notre PDG a dit ceci: « L'intelligence artificielle est trop importante pour ne pas être régulée, et elle est trop importante pour ne pas être bien régulée. » Nous trouvons encourageant de voir des gouvernements partout dans le monde élaborer des politiques visant ces nouvelles technologies, et nous sommes fermement résolus à appuyer les efforts déployés en vue de maximiser les avantages de l'intelligence artificielle tout en minimisant les risques.
    Google travaille depuis longtemps sur l'intelligence artificielle, notamment dans ses bureaux de Montréal et de Toronto, et, en 2017, nous avons réorienté nos activités afin d'accorder la priorité à nos activités liées à l'intelligence artificielle. Aujourd'hui, l'intelligence artificielle est à la base des applications Search, Translate et Maps de Google ainsi que d'autres services que les Canadiens utilisent tous les jours. Nous avons également recours à l'intelligence artificielle pour aider à trouver des solutions à des problèmes qui touchent la société, qu'il s'agisse de prévoir les inondations ou d'améliorer les tests de dépistage de certaines maladies, comme le cancer du sein. Depuis 2018, le travail que nous effectuons à l'aide de ces technologies est guidé par nos principes en matière d'intelligence artificielle responsable, qui sont soutenus par une structure de gouvernance et un processus d'examen solides. C'est ma collègue, Mme Doshi, qui dirige ce travail.

[Français]

     Le Canada possède une occasion exceptionnelle de s'appuyer sur des investissements dans la recherche fondamentale en intelligence artificielle. Ce comité va contribuer à l'élaboration d'un cadre législatif qui établit de solides mesures de protection du public, et qui permet de tirer parti des bénéfices économiques et sociétaux.

[Traduction]

    Nous accueillons favorablement les efforts déployés par le gouvernement afin d'établir les bons garde-fous relativement à l'intelligence artificielle, mais nous partageons certaines des préoccupations que d'autres organisations ont soulevées à l'intention du Comité. Nous sommes d'avis que le projet de loi peut être modifié de manière réfléchie, de façon à appuyer les objectifs du gouvernement sans toutefois entraver le développement et l'utilisation de l'intelligence artificielle.
    Il n'existe aucune approche universelle en matière de réglementation de l'intelligence artificielle. L'intelligence artificielle est une technologie polyvalente qui se présente sous de nombreuses formes et qui comporte divers profils de risque. Le cadre réglementaire devrait tenir compte de la vaste gamme des utilisations bénéfiques de cette technologie et du coût de renonciation lié au fait de ne pas développer ou déployer des systèmes d'intelligence artificielle. Il devrait également comprendre des obligations adaptées à l'ampleur et à la probabilité des préjudices associés à des utilisations précises. Nous estimons que la Loi sur l'intelligence artificielle et les données devrait comporter une approche proportionnelle et fondée sur le risque, qui est adaptée à des applications précises et qui vise à assurer la compatibilité avec d'autres lois dans le monde, grâce à des outils largement reconnus, comme des normes internationales.
    Nous espérons pouvoir continuer de travailler avec le gouvernement canadien, comme nous l'avons fait avec d'autres gouvernements dans le monde, dans le but d'établir une réglementation réfléchie et intelligente qui protégera les Canadiens, et saisir cette occasion qui ne se présente qu'une fois dans une génération de renforcer l'économie du Canada, de donner aux innovateurs canadiens toutes les chances de réussir sur la scène internationale et de favoriser des percées scientifiques porteuses de changement.
    Je vous remercie encore une fois de nous avoir invités à comparaître devant vous. Nous avons hâte de répondre à vos questions et de continuer cette conversation importante.

[Français]

     Merci beaucoup, madame Patell.
    Je cède maintenant la parole à Mme Curran, de Meta.

[Traduction]

    Je m'appelle Rachel Curran et je suis cheffe des politiques publiques chez Meta au Canada. C'est un plaisir pour moi de m'adresser au Comité cet après-midi.
    Meta est en faveur d'une approche fondée sur le risque et neutre sur le plan technologique en ce qui a trait à la réglementation de l'intelligence artificielle. Nous croyons qu'il est important que les gouvernements travaillent de concert pour établir des normes et des modèles de gouvernance communs en matière d'intelligence artificielle. C'est ce genre d'approche qui permettra de bénéficier des possibilités économiques et sociales qu'offre la science ouverte et d'accroître la compétitivité du Canada.
    Depuis plus d'une décennie, Meta est au premier plan du développement de l'intelligence artificielle. Nous pourrons en discuter plus tard au cours de la séance. Cette innovation nous a permis de mettre en relation des milliards de personnes et de produire une valeur réelle pour les petites entreprises. Au sein de la collectivité, l'intelligence artificielle aide les gens à découvrir du contenu qu'ils aiment. Pour les millions d'entreprises, particulièrement les petites entreprises, qui utilisent nos plateformes, nos outils basés sur l'intelligence artificielle facilitent les activités publicitaires. L'intelligence artificielle change la donne pour les petites et moyennes entreprises qui cherchent à atteindre une clientèle intéressée par leurs produits.
    En outre, l'équipe de recherche fondamentale sur l'intelligence artificielle a adopté une approche ouverte en matière de recherche sur l'intelligence artificielle, qui mène à des percées dans toutes sortes de secteurs et d'industries. En 2007, nous avons inauguré notre laboratoire de recherche sur l'intelligence artificielle à Montréal, afin de contribuer à l'écosystème de l'intelligence artificielle au Canada. Aujourd'hui, les efforts de recherche de Meta à l'échelle de la planète sont dirigés par Joelle Pineau, chercheuse canadienne de calibre mondial et professeure à l'Université McGill. C'est elle qui dirige les activités de recherche sur l'intelligence artificielle menées par Meta dans le monde.
    Notre équipe canadienne de chercheurs a travaillé sur certaines des plus grandes percées en matière d'intelligence artificielle, notamment l'élaboration de modèles davantage diversifiés et inclusifs destinés à améliorer l'accès aux soins de santé et le traitement des patients, dont ont bénéficié des collectivités au Canada et à l'étranger. Ces travaux sont communiqués ouvertement à l'ensemble du milieu de la recherche dans le cadre de l'engagement que Meta a pris à l'égard de la science ouverte et de la transparence qui lui permet d'établir les plus hautes normes en matière de qualité et de responsabilité et, au bout du compte, de mettre au point de meilleures solutions dans le domaine de l'intelligence artificielle.
    Nous saluons le leadership du Canada sur le plan de l'élaboration d'une réglementation et de garde-fous intelligents visant le développement de l'intelligence artificielle, particulièrement son leadership au sein du Partenariat mondial sur l'intelligence artificielle et du G7. Nous appuyons fortement le travail du Comité, bien entendu, et l'objectif initial du projet de loi C‑27, c'est‑à‑dire veiller au développement et au déploiement responsables de l'intelligence artificielle tout en assurant une harmonisation des cadres réglementaires à l'échelle internationale, ce qui permettra au Canada de demeurer un chef de file mondial de l'innovation et de la recherche en matière d'intelligence artificielle.
    Nous croyons que l'intelligence artificielle évolue tellement rapidement que des mesures portant sur des technologies précises pourraient bientôt ne plus être pertinentes et nuire à l'innovation. En ce qui a trait à l'avenir, nous espérons que le gouvernement envisagera d'adopter une approche véritablement fondée sur le risque et les résultats, qui sera à l'épreuve du futur. À cet égard, nous aimerions attirer votre attention sur quelques préoccupations concernant le projet de loi C‑27.
    Premièrement, le ministre a proposé un amendement qui ferait en sorte d'inclure les systèmes de modération de contenu et de priorisation dans la catégorie des systèmes « à incidence élevée ». Nous ne sommes pas d'avis que ces systèmes posent un risque élevé inhérent, tel que défini dans le projet de loi, et nous estimons que la réglementation des risques reliés au contenu que les Canadiens voient en ligne devrait plutôt faire partie du projet de loi sur les préjudices en ligne.
    De même, nous pensons que le régime proposé pour réglementer l'intelligence artificielle à usage général ne correspond pas au risque qu'elle pose et qu'il comporte des exigences qui ressemblent étroitement à celles visant les systèmes à incidence réellement élevée. Nous estimons que les obligations s'appliquant aux systèmes d'intelligence artificielle à usage général devraient être harmonisées avec celles que comportent d'autres régimes à l'échelle internationale, notamment celles découlant du processus de Hiroshima, issu du Sommet du G7, dont j'ai parlé plus tôt, de l'engagement volontaire obtenu par la Maison-Blanche et du travail de l'OCDE sur la gouvernance de l'intelligence artificielle.
    Enfin, nous voulons attirer l'attention sur les pouvoirs de vérification et d'accès envisagés dans le projet de loi C‑27. Nous croyons qu'ils vont à l'encontre des cadres réglementaires existants, par exemple, l'approche adoptée par d'autres signataires de la Déclaration de Bletchley, issue du récent sommet sur l'utilisation sécuritaire de l'intelligence artificielle qui a eu lieu au Royaume-Uni. Il s'agit notamment des États-Unis et du Royaume-Uni. Encore une fois, nous encourageons le Canada à adopter une approche permettant de protéger la vie privée qui concorde avec les normes mondiales.
(1730)
    Mesdames et messieurs, nous sommes d'avis que Meta est particulièrement bien placée pour résoudre certains des plus importants problèmes liés à l'intelligence artificielle en incorporant ce que nous ont appris nos recherches de calibre mondial dans des produits dont peuvent bénéficier des milliards de personnes et d'entreprises, tout en continuant de contribuer à l'écosystème dynamique et de classe mondiale du Canada.
    Nous avons hâte de travailler avec le Comité et de répondre à vos questions.
    Merci.

[Français]

     Merci beaucoup.
    Je cède la parole à Mme Craig, de Microsoft.

[Traduction]

    Merci, monsieur le président et membres du Comité, de me donner l'occasion de témoigner.
    Chez Microsoft, nous croyons que l'intelligence artificielle nous offre une immense occasion de contribuer à la croissance du Canada et à la prospérité des Canadiens. Pour véritablement tirer parti du potentiel qu'offre l'intelligence artificielle et pour améliorer la vie des gens, nous devons nous pencher efficacement sur les problèmes et les risques bien réels qu'engendre l'utilisation de l'intelligence artificielle sans mesures de protection adéquates. C'est pourquoi nous faisons valoir la nécessité de mettre en place une réglementation qui tient compte de la complexité de l'intelligence artificielle, afin d'accroître la sécurité et de protéger la vie privée et les libertés civiles.
    Le Canada joue un rôle de chef de file en proposant un cadre législatif en matière d'intelligence artificielle, et ce cadre comporte des éléments positifs qui établissent une base utile pour l'avenir. Toutefois, dans sa version actuelle, le projet de loi C‑27 propose une application trop large des règles et des exigences qu'il comporte. Il réglemente de la même façon les systèmes à faible risque et ceux à risque élevé, sans moduler les exigences en fonction du risque, et il inclut des sanctions pénales dans le régime d'application.
    Les risques ne sont pas tous équivalents. Nous le savons bien, mais il peut se révéler difficile de déterminer les niveaux de risque et d'adapter les dispositions en conséquence. À nos yeux, les règles et les exigences prévues dans la Loi sur l'intelligence artificielle et les données devraient s'appliquer aux systèmes d'intelligence artificielle qui posent un risque élevé. Par exemple, dans la Loi, les systèmes à risque élevé, tel un système d'intelligence artificielle utilisé pour déterminer si un prêt hypothécaire doit être approuvé, et les systèmes à faible risque, comme un système utilisé pour optimiser les trajets de livraison de colis, sont assujettis aux mêmes règles et obligations.
    Une application trop large des règles et des exigences entraîne plusieurs répercussions. Les entreprises au Canada, y compris les petites et moyennes entreprises, devront axer leurs efforts sur des évaluations exigeantes en termes de ressources et des audits réalisés par une tierce partie, même en ce qui concerne les systèmes à usage général et à faible risque, plutôt que sur les systèmes qui posent le plus grand risque ou sur la mise au point de nouveaux systèmes de sécurité. Un système d'intelligence artificielle utilisé par une chaîne de restaurants à des fins de gestion des stocks et de réduction du gaspillage alimentaire sera assujetti aux mêmes exigences qu'un système de reconnaissance faciale. Ces exigences et ces règles auront pour effet d'éparpiller le temps, l'argent, les talents et les ressources des entreprises canadiennes. Par conséquent, leurs ressources limitées risquent ne pas être suffisamment consacrées aux systèmes à risque élevé.
    L'approche du Canada n'est pas en phase avec celle adoptée par ses principaux partenaires commerciaux, dont les États-Unis, l'Union européenne, le Royaume-Uni et le Japon. En effet, le cabinet d'avocats canadien Osler a comparé la Loi sur l'intelligence artificielle et les données à la loi de l'Union européenne sur l'intelligence artificielle. Nous serons ravis de transmettre Comité une copie de cette étude comparative. On y trouve 11 exemples où le Canada est allé plus loin que l'Union européenne, créant un ensemble d'exigences uniques à l'intention des entreprises ayant des activités au Canada.
    Le fait que le Canada soit allé plus loin que l'Union européenne ne signifie pas que les Canadiens seront mieux protégés contre les risques que comporte l'intelligence artificielle. Cela signifie que les entreprises au Canada qui utilisent déjà des systèmes d'intelligence artificielle à faible risque pourraient être assujetties à un régime plus lourd que partout ailleurs dans le monde. Les Canadiens seraient mieux protégés par une réglementation plus ciblée. En veillant à ce que la Loi sur l'intelligence artificielle et les données soit fondée sur le risque, qu'elle soit claire et qu'elle offre une certitude en ce qui a trait à la conformité, le Canada pourra établir une nouvelle norme en matière de réglementation de l'intelligence artificielle.
    Nous croyons fermement qu'en apportant les amendements appropriés, il sera possible d'atteindre un juste équilibre dans la Loi sur l'intelligence artificielle et les données. Il sera possible d'atteindre l'objectif crucial de réduire les préjudices et de protéger les Canadiens, et les entreprises au Canada auront la confiance nécessaire pour adopter les systèmes d'intelligence artificielle, qui auront d'énormes avantages sur les plans de la productivité, de l'innovation et de la compétitivité.
    Pour conclure, nous recommandons, en premier lieu, de mieux déterminer ce qui constitue véritablement un système à incidence élevée. En deuxième lieu, nous recommandons d'établir une distinction entre les niveaux de risque des systèmes d'intelligence artificielle et de définir les exigences en fonction du niveau de risque. En dernier lieu, nous recommandons de repenser l'application de la loi, y compris le recours à des sanctions pénales, une mesure qui n'existe dans aucun autre pays de l'OCDE. Cela permettrait de s'assurer que l'approche du Canada est compatible avec celle adoptée par d'autres chefs de file mondiaux, comme l'Union européenne, le Royaume-Uni et les États-Unis.
    Nous allons remettre avec plaisir au Comité un mémoire écrit qui fait état de nos recommandations.
(1735)
    Merci, monsieur le président. Nous avons hâte de répondre à vos questions.
    Merci beaucoup.
    Pour commencer, je vais céder la parole à M. Perkins pour six minutes.
    Merci, monsieur le président.
    Merci aux témoins.
    Je vais commencer par des questions assez générales, car nous avons devant nous aujourd'hui les chefs de file mondiaux de l'intelligence artificielle.
    C'est une réunion assez spéciale du Comité parmi toute une série de réunions spéciales que nous avons eues sur ce projet de loi. Nous accueillons des représentants d'Amazon, de Google, de Meta-Facebook et de Microsoft. Vous êtes les chefs de file mondiaux et vous êtes ceux qui investissent le plus d'argent partout.
    Ce projet de loi a été déposé il y a presque deux ans. Répondez simplement par oui ou par non: est‑ce que l'une ou l'autre de vos entreprises a été consultée au sujet de ce projet de loi avant son dépôt?
    Veuillez répondre un à la fois.
    Non, nous n'avons pas été consultés avant le dépôt du projet de loi.
    Non, nous n'avons pas été consultés.
    Non, nous n'avons pas été consultés avant le dépôt du projet de loi.
    À ma connaissance, nous n'avons pas été consultés.
    Je trouve choquant, franchement, que vous n'ayez pas été consultés. Vous avez eu des réunions, je suppose, depuis le dépôt du projet de loi, parce que le ministre prétend qu'il y a eu 300 réunions, même si la plupart d'entre elles ont eu lieu avec des universitaires et des groupes de réflexion. Lors de ces réunions, avez-vous proposé des amendements précis au projet de loi?
    Veuillez encore répondre un à la fois, dans le même ordre.
    Pour faire suite à ma déclaration liminaire, je dois dire que nous avons fait valoir qu'il y aurait lieu de définir plus clairement dans la loi les responsabilités des spécialistes du développement et du déploiement…
    Avez-vous proposé des amendements?
    C'était‑là un amendement, qui reflétait, je pense, nos observations à ce sujet. En ce qui concerne d'autres observations en particulier que nous avons formulées, l'une d'elles n'a pas été entendue, à notre avis, à savoir la nécessité d'établir une distinction plus claire entre les systèmes à incidence élevée et les systèmes à faible incidence ainsi que la nécessité de clarifier davantage les dispositions pénales.
    Nous avons également soulevé les préoccupations que j'ai abordées dans ma déclaration liminaire au sujet des systèmes de modération de contenu et de priorisation. Essentiellement, le contenu que les Canadiens voient en ligne…
(1740)
    Je vais revenir là‑dessus.
    ... ne devrait pas être considéré comme présentant un risque élevé, alors nous avons certes soulevé la question auprès des fonctionnaires du ministère. Nous avons aussi fait part de nos préoccupations au sujet de l'accès à distance ainsi que des obligations particulières liées aux systèmes d'intelligence artificielle à usage général.
    Nous avons soulevé les questions que j'ai abordées dans ma déclaration liminaire.
    Nous aussi, nous avons eu l'occasion de fournir des commentaires depuis le dépôt du projet de loi et nous avons proposé des amendements et des correctifs semblables à ceux dont j'ai parlé durant ma déclaration liminaire. Nous avons fait valoir la nécessité de mettre l'accent sur les systèmes à risque élevé, de repenser l'application de la loi et d'envisager d'établir une distinction entre les exigences en fonction du risque.
    Nous avons fait part de nos préoccupations concernant le libellé proposé, et nous serons heureux de transmettre à tous les membres du Comité les amendements que nous proposons.
    C'est ce que je voulais vous demander. Si vous avez proposé des amendements, pourriez-vous les transmettre au Comité?
    Bien sûr.
    Certains d'entre vous ont parlé de compatibilité. Comment est‑ce possible de mettre en place une législation compatible avec celle d'autres pays, alors que d'autres pays n'ont pas de législation à cet égard?
    Allez‑y, madame Curran.
    C'est une très bonne question.
    Je comprends que le Canada veut agir rapidement pour réglementer l'intelligence artificielle. Le projet de loi initial présentait un cadre très général, qui aurait permis qu'un bon nombre des questions fassent l'objet de discussions au cours du processus d'établissement du règlement et qui aurait permis au Canada de s'aligner sur d'autres administrations internationales. Le problème, c'est que les amendements que le ministre a proposés dans la lettre qu'il a adressée au Comité font état d'une prise de position sur l'ensemble des questions qui font actuellement l'objet de discussions dans les tribunes internationales dans le cadre du G7, de la Déclaration de Bletchley et du processus de l'OCDE. D'autres pays, des pays semblables aux nôtres, discutent actuellement de ces questions.
    Les amendements proposés par le ministre, s'ils sont acceptés par le Comité, confineront le Canada dans un cadre réglementaire qui pourrait être très différent de celui issu des discussions internationales. C'est vraiment ce qui nous préoccupe, non pas le texte original du projet de loi, mais bien les amendements proposés par le ministre.
    D'accord. À l'origine, le projet de loi portait uniquement sur les systèmes à incidence élevée, mais ce terme n'était pas défini. Ce qui me pose problème dans ce projet de loi, c'est que tout se trouvait initialement dans le règlement, y compris les définitions et tout ce qui concerne l'application de la loi, sauf les sanctions. Bien sûr, le gouvernement savait comment sanctionner quelque chose qu'il ne pouvait pas définir dans le projet de loi. Le gouvernement a ajouté deux autres définitions, une pour « système à usage général » et une pour « modèle d'apprentissage automatique ».
    En ce qui concerne les systèmes à incidence élevée, vous avez dit que le gouvernement a inclus une définition qui renvoie à une annexe qui peut être modifiée par règlement après l'adoption du projet de loi. Le numéro quatre dans cette annexe concerne, je crois, l'utilisation d'un système d'intelligence artificielle pour la modération de contenu. Est‑ce une façon détournée de revenir sur le projet de loi C‑11?
    Oui, et je ne sais pas si c'est délibéré ou non.
    Nous pensons vraiment qu'il est préférable que cette utilisation soit traitée dans le cadre du projet de loi sur les préjudices en ligne. Il déterminera ce que les Canadiens voient en ligne, que ce soit quelque chose qui figure dans leur fil de médias sociaux ou leurs recommandations dans YouTube. Il s'agit même de quelque chose d'aussi anodin que le classement par une entreprise canadienne, à l'aide d'un système automatisé, d'articles de camping offerts sur le marché canadien.
    Les obligations réglementaires proposées dans ce projet de loi auront vraiment une incidence sur le fonctionnement de ces systèmes. Nous pensons qu'il est préférable de traiter de cette question dans un contexte où nous pouvons avoir une discussion libre et approfondie sur la ligne à tracer en ce qui concerne le contenu que les Canadiens voient. Je sais que les fonctionnaires du ministère ont dit que cette disposition est conçue pour lutter contre la désinformation, par exemple. Là où la ligne devrait être tracée doit faire l'objet d'une discussion dans le contexte d'un projet de loi qui vise à traiter cette question.
    Madame Craig, vous avez parlé des systèmes à faible risque. Les systèmes à faible risque sont maintenant considérés — un grand nombre d'entre eux, je présume — comme étant des systèmes à usage général.
    Je vais prendre un exemple de ma circonscription. Il y a, dans ma circonscription, une entreprise de produits de la mer qui utilise un système d'intelligence artificielle pour déterminer si un produit est une mactre de Stimpson ou un pétoncle et dans quelle direction il devrait se trouver avant d'entrer dans la machine pour être ouvert. Si ce système était vendu et que d'autres entreprises l'utilisaient, il s'agirait alors d'un système à usage général.
    Cela me semble excessif. Y a‑t‑il un système d'intelligence artificielle qui ne correspondrait pas à la définition de « système à usage général »?
    Je pense que nous devrions appliquer la même approche aux systèmes à risque élevé qu'aux systèmes à faible risque, même lorsqu'il s'agit de systèmes à usage général. La technologie dont vous parlez peut être utilisée dans un contexte à risque élevé ou dans un contexte à faible risque. Même dans le cas de la recherche visuelle, par exemple, on a recours à la technologie de vision informatique ou à la technologie de reconnaissance faciale. Les systèmes à usage général peuvent être utilisés dans un contexte à très faible risque ou à risque élevé. Je crois que nous devrions avoir la même optique, qu'il s'agisse de systèmes à risque élevé ou de systèmes à faible risque.
    Pour répondre à votre question sur le fait de rendre nos lois plus compatibles avec la législation internationale, je peux dire que le meilleur raccourci pour ce faire consiste à s'appuyer sur le travail effectué par les organismes de normalisation internationaux pour déterminer quelles sont les bonnes normes relativement à la façon dont ces systèmes sont déployés et conçus. En s'inspirant de ces normes au lieu de créer une réglementation canadienne sur mesure, on se trouve à donner un énorme coup de pouce aux entreprises canadiennes qui veulent être en mesure de prendre de l'expansion à l'échelle mondiale, qu'elles utilisent ou non l'intelligence artificielle.
(1745)
    Est‑il trop tôt?
    On peut élaborer maintenant un cadre pour ces choses‑là et s'appuyer ensuite sur ces normes au fur et à mesure qu'elles évoluent. Un certain nombre de normes internationales seront probablement publiées au cours des prochains mois. Ce travail se fait à un rythme très rapide. Je le répète, la technologie évolue elle aussi très rapidement. Je pense qu'il faut se doter de cadres souples et s'appuyer sur le travail technique mené à l'échelle internationale pour déterminer ce que le Canada devra faire.
    Pour répondre à votre question initiale, je dois dire que c'est exactement ce que j'essayais de dire en parlant des systèmes à faible risque. Dans la loi, on les qualifie de systèmes à usage général, mais la définition est assez large afin de tenir compte des technologies utilisées à diverses fins ou pour différentes activités. Il pourrait s'agir d'un assez vaste éventail de technologies. Comme Mme Foster l'a dit, les technologies utilisées dans des contextes à faible risque ou à risque élevé sont susceptibles d'être traitées de la même façon en étant assujetties aux exigences, même s'il s'agit de technologies utilisées uniquement dans un contexte à faible risque.
    Merci beaucoup.
    La parole est maintenant à M. Sorbara pour six minutes.
    Merci, monsieur le président.
    Bienvenue à tous.
    Je suis conscient que, pendant que vous faisiez vos exposés, des millions, voire des centaines de millions de personnes — vos clients — utilisaient vos services. Ils bénéficient de ces services, qui contribuent à leur productivité et qui leur permettent d'être connectés. De toute évidence, l'intelligence artificielle est en grande partie à l'origine de cela.
    L'intelligence artificielle a de nombreux effets positifs dont les gens profitent tous les jours sans même y penser. C'est un sujet sur lequel nous nous penchons depuis maintenant deux ans. À mon avis, il faut des garde-fous, si je peux utiliser ce terme, ou des mesures de protection.
    Quelques termes ont été mentionnés: la modération de contenu, l'écosystème et les systèmes à incidence élevée et à faible incidence. Je vais essayer de poser des questions générales.
    En ce qui concerne la distinction entre les systèmes à incidence élevée et les systèmes à faible incidence, où se trouve le juste équilibre? Je pense à une approche comptable, qui comporte des principes très normatifs. Comment pouvons-nous trouver un équilibre entre les systèmes à incidence élevée et les systèmes à faible incidence lorsque nous examinons des lois sur l'intelligence artificielle afin d'éviter de passer un temps fou à vouloir englober les systèmes à faible incidence, qui sont en soi très utiles pour les consommateurs et les entreprises?
    Mme Foster peut répondre en premier, puis nous pourrons passer aux autres témoins présents dans la salle et ensuite à ceux qui sont en ligne.
    Je pense qu'il faudrait commencer par établir les utilisations qui pourraient avoir une incidence sur les droits de la personne et la santé et la sécurité d'une personne. Il faudrait probablement commencer par cela dans le cadre d'une définition de base. Je crois que c'est une question qui a fait l'objet d'un long débat dans l'Union européenne afin de définir clairement quels sont précisément ces cas d'utilisation.
    Il y a même des systèmes à faible risque qu'il faudrait... Toutefois, il ne faudrait pas réglementer tous les systèmes à risque élevé de la même façon. Les questions à poser ne devraient pas être les mêmes, et l'évaluation des risques ne devrait pas être la même.
    Avant de laisser Mme Curran répondre, je voudrais dire que j'ai noté, Mme Foster, que vous avez dit que la définition des systèmes à incidence élevée est actuellement trop ambiguë.
    Oui. Elle englobe de nombreux cas d'utilisation. Souvent, par exemple, l'utilisation dans le domaine des soins de santé sera considérée comme étant à incidence élevée, tout comme dans les domaines des ressources humaines et du recrutement. Si on a recours à une plateforme de vidéoconférence pour effectuer une entrevue d'emploi, on se trouve à utiliser l'intelligence artificielle, mais je dirais qu'il ne s'agit pas d'une utilisation à risque élevé. Le système identifie un visage. Il peut servir à brouiller le décor. Il peut...
(1750)
    Je ne veux pas vous couper la parole, mais je voudrais bien entendre les autres.
    Mme Curran peut y aller en premier, et ensuite Mme Craig et M. Weigelt.
    Je suis d'accord. Je pense que c'est la définition de « préjudice ». Si on établit un seuil de préjudice important dans divers domaines, on englobera presque assurément les cas d'utilisation à incidence élevée. Par exemple, nous avons mentionné la prestation de services de santé, mais Mme Foster a fait référence aux droits de la personne, ce qui ajoute un élément. L'utilisation dans les domaines de l'hébergement, de l'emploi ou du crédit touche aux droits de la personne et devrait probablement être considérée comme étant à incidence élevée.
    Je ne pense pas qu'il faut englober tous les cas d'utilisation possibles, mais si on établit au moins un seuil de préjudice important, on se trouvera à englober les cas d'utilisation dont l'incidence est la plus élevée.
    Je crois que c'est une question très difficile, mais importante. Chez Microsoft, nous y avons réfléchi également. Nous avons établi notre propre programme de gouvernance interne et déterminé comment doser l'application de nos exigences, dans le cadre de ce programme de gouvernance, aux cas d'utilisation à risque élevé.
    Nous avons établi trois catégories de ce que nous appelons chez Microsoft des utilisations sensibles.
    La première est l'utilisation qui a une incidence sur les possibilités dans la vie ou des conséquences sur la vie d'une personne. Dans cette catégorie, nous pensons à l'utilisation qui a des répercussions sur les occasions d'emploi, l'éducation ou le statut juridique, par exemple.
    La deuxième est l'utilisation qui a une incidence sur la sécurité physique ou psychologique. Pensez à l'utilisation de systèmes essentiels à la sécurité dans le contexte d'infrastructures essentielles, par exemple, ou à l'utilisation de systèmes par des populations vulnérables.
    La troisième est l'utilisation qui a une incidence sur les droits de la personne.
    Je pense qu'il est utile d'établir un cadre, afin de réfléchir aux utilisations qui entraînent un risque élevé, et ensuite, lorsqu'on est prêt à aller plus loin, de réfléchir à certains cas d'utilisation plus précis, notamment dans les domaines de l'éducation et de l'emploi. Ces utilisations sont représentées dans certains exemples d'utilisations à incidence élevée figurant dans la Loi sur l'intelligence artificielle et les données. Il faut par ailleurs reconnaître que la loi devra évoluer, qu'il faudra établir des garde-fous en ce qui concerne les systèmes à incidence élevée et que les exemples devront aussi évoluer au fil du temps. Il ne s'agit pas seulement d'avoir un processus continu; il faut aussi penser aux utilisations qui entraîneront un risque élevé dans l'avenir.
    Merci.
    J'aimerais que les représentants de Google répondent.
    Certains d'entre vous ont mentionné que vous transmettrez quelques documents au Comité. Si vous pouviez les envoyer, ce serait fantastique. Toute information est utile.
    Pouvez-vous répondre rapidement?
    Je ferais écho à un bon nombre des observations des autres témoins et je mettrais l'accent sur la définition de « préjudice », car je crois qu'elle pourrait régler bien des questions. Si on établit un critère de préjudice important, on pourra déterminer précisément quel est le seuil en ce qui concerne l'identification et l'atténuation des risques associés à des cas d'utilisation précis de systèmes d'intelligence artificielle.
    À l'heure actuelle, on dit simplement qu'un préjudice inclut un préjudice psychologique ou une perte économique, mais on ne précise pas ce qu'est réellement un préjudice et il n'y a pas de critère à cet égard.

[Français]

     Je vous remercie.
    Monsieur Garon, vous avez la parole.
     Merci, monsieur le président.
    Je remercie l'ensemble des témoins de leur présence aujourd'hui.
    En tant que citoyen et consommateur, j'aime vos produits et je les utilise. Spécialement, en tant que personne toujours perdue en voiture, je suis content que vos services existent. Vous avez parlé ad nauseam de tous les avantages que ces services nous procurent. Nous les aimons. Que voulez-vous? C'est comme cela.
    Je reviens à la question de mon collègue, M. Sorbara, parce que je la trouve très intéressante. On parle de systèmes à incidence élevée et à faible incidence, à risque élevé et à faible risque. Nous parlons de technologies qui évoluent rapidement. Je comprends que certaines technologies peuvent avoir différents usages, ce qui rend la chose un peu complexe. Je comprends votre message selon lequel il y a des définitions assez tranchées dans le projet de loi sur ce qui a une incidence élevée ou non, et qu'à certains égards, vous différez sur ces définitions. C'est tout à fait légitime.
    N'est-il pas normal que les législateurs, élus par le public, et le gouvernement, voulant protéger la population, aient des définitions qui diffèrent de celles de l'industrie en ce qui concerne les termes « incidence élevée », « faible incidence », « risque élevé » et « faible risque »?
    Étant donné que nos rôles ne sont pas les mêmes, n'est-il pas légitime que nous n'ayons pas la même définition?
(1755)

[Traduction]

    Il est tout à fait légitime pour les législateurs d'avoir une vision différente des systèmes à incidence élevée et des systèmes à faible incidence. Je crois que la discussion vise à tenter de s'assurer que les ressources limitées des entreprises canadiennes ne sont pas utilisées pour effectuer des évaluations vraiment complexes qui ne sont peut-être pas nécessaires.
    À titre d'information, sachez que certaines évaluations des risques coûtent des millions de dollars. Elles sont très complexes et nécessitent de faire preuve d'une grande diligence raisonnable et de fournir beaucoup de renseignements. Une fois l'évaluation des risques terminée, l'entreprise voudra sans doute qu'elle fasse l'objet d'une vérification par une tierce partie s'il s'agit d'un système dont l'utilisation présente un risque très élevé. Ce n'est pas une mince affaire, surtout pour une petite entreprise ou une entreprise en démarrage.

[Français]

    Nous interrompons parfois les témoins, parce que notre temps de parole se fait rare.
    Certains témoins nous ont dit qu'il pourrait être utile d'avoir un registre fédéral des grands modèles génératifs. Par exemple, les compagnies auraient l'obligation de faire inscrire au registre certains codes ou certains modèles, d'en évaluer les risques et de présenter un plan d'atténuation de ces risques au gouvernement en fonction du modèle et de ses utilisations.
    Si je comprends bien, vous trouvez que c'est trop complexe.

[Traduction]

    En fait, ce n'est pas efficace. Ce n'est pas que c'est trop complexe, mais ce n'est pas nécessairement un moyen efficace de déterminer si un système fonctionne correctement pour ce cas d'utilisation.
     Nous fournissons aux clients de bons renseignements clairs sur les cas d'utilisation recommandés pour les modèles que nous leur proposons. La seule façon de déterminer si un modèle fonctionne correctement pour un cas d'utilisation donné est de le mettre à l'essai.
     Au cours de ce processus d'essai avec les données, on sera en mesure de vérifier si le modèle fonctionne correctement pour le cas d'utilisation. Lancer simplement un tas de modèles ne sera pas un moyen très efficace d'obtenir ces renseignements.

[Français]

    Je comprends.
    Madame Curran, j'aimerais vous poser une question sur quelque chose que vous avez dit.

[Traduction]

    Oui. Je suis désolée. Je veux...

[Français]

    Permettez-moi de vous la poser.
    Nous avons parlé de modération des contenus. Un de mes collègues vous a demandé si la modération des contenus ne revient pas à décider ce que les Québécois et les Canadiens vont voir sur Internet.
    Le contenu qu'on voit sur vos plateformes n'est pas aléatoire. Il est très déterministe et axé sur ce que les gens ont regardé avant, entre autres. Cela cause beaucoup d'inquiétudes chez beaucoup de gens.
    J'aimerais que vous nous donniez une réponse claire à ce sujet. Jugez-vous que votre compagnie, elle aussi, choisit ce que les gens voient sur Internet?

[Traduction]

    Oui. Nous recevons des signaux sur ce qui intéresse les gens, de manière générale. Nous offrons beaucoup plus d'outils à cet égard sur le plan de la transparence et du contrôle pour nos utilisateurs. Vous pouvez cliquer sur un élément de contenu et aller à « Pourquoi est‑ce que je vois cela? » et trouver les signaux que nos systèmes lisent pour vous montrer l'élément de contenu particulier.
     Nous essayons de donner beaucoup plus de contrôle aux utilisateurs sur ce plan. Vous avez raison de dire que nos systèmes déterminent ce qui est le plus pertinent et le plus intéressant pour nos utilisateurs. Nous craignons que si un système réglementaire onéreux est imposé pour ce type de hiérarchisation du contenu, il revienne en fin de compte aux organismes de réglementation gouvernementaux de décider ce que nous devrions montrer aux Canadiens.

[Français]

     Je comprends, madame Curran, mais vous avez mentionné que vous étiez en faveur d'une approche un peu à l'américaine, par exemple, les engagements volontaires de la Maison‑Blanche en matière d'intelligence artificielle et que ces engagements étaient peut-être souhaitables.
    Pensez-vous que l'approche volontaire, l'autoréglementation pourrait être un succès? Pensez-vous que le citoyen peut avoir confiance en ce qu'il a vu par le passé et qu'il peut croire à la capacité de l'industrie de faire de l'autoréglementation en l'absence de crise?

[Traduction]

    Non, je ne pense pas que l'autoréglementation soit la bonne approche. J'ai travaillé au gouvernement pendant de nombreuses années et je suis en faveur d'une réglementation intelligente. La question est de savoir quel type de règlement est appliqué et comment ces questions sont débattues. Le gouvernement a indiqué qu'il était en train de préparer un projet de loi sur les préjudices en ligne et nous pensons que c'est dans ce contexte qu'il faut débattre de la question de savoir où fixer la limite.
     Nous avons toujours dit aux gouvernements « dites-nous ce que vous définissez comme de la désinformation ou de la mésinformation et nous veillerons à ce que ces règles soient respectées ». Ce serait beaucoup plus facile pour nous que de nous engager dans un débat à l'interne — ce que nous faisons quotidiennement — sur la question de savoir où fixer la limite et quel contenu nous devrions autoriser sur nos plateformes.
     Nous sommes très heureux de participer aux discussions et nous aimerions que les responsables politiques et les décideurs fixent ces règles pour nous, mais un bon débat public ouvert doit avoir lieu pour déterminer quelle est la limite à ne pas franchir. Dans ce cas‑ci — et je pense qu'un autre député en a parlé —, il semble s'agir de réglementer le contenu par la porte arrière, ce qui ne permet pas vraiment la tenue d'un débat public ouvert et éclairé pour déterminer où se situe la limite quant à ce qui constitue un contenu acceptable en ligne.
(1800)

[Français]

    Je sais qu'on me coupera du temps de parole lors de mon prochain tour.
    Selon ce que vous nous dites, l'approche que vous préconisez, c'est-à-dire adopter une législation sur la haine en ligne qui aurait le même résultat, ne serait pas une façon de réglementer par la porte d'en arrière ce que les gens voient sur Internet.
    N'est-ce pas un peu contradictoire comme façon d'approcher la situation?

[Traduction]

    Non, je ne pense pas. Nous aimerions que le gouvernement, s'il le veut bien, réglemente les questions relatives au contenu. Ce sont des questions sensibles. Elles le sont sur le plan constitutionnel. Il y a des aspects fédéraux et provinciaux à prendre en considération dans ce genre de discussion, donc si le gouvernement veut réglementer dans ces domaines, discutons‑en, et ce, ouvertement.
     Je pense que si l'on nous demande de réglementer le contenu au moyen d'une disposition d'un projet de loi sur la réglementation de l'intelligence artificielle, cela ne nous permettra pas d'expliquer pourquoi nous montrons tel ou tel contenu aux Canadiens ou pourquoi nous leur interdisons l'accès à tel ou tel contenu au motif qu'il s'agit de mésinformation ou de désinformation. C'est injuste pour nos utilisateurs. C'est injuste pour les Canadiens de ne pas comprendre pourquoi nous prenons ces décisions.

[Français]

    Merci, madame Curran.
    Merci beaucoup, monsieur Garon.
    Monsieur Masse, vous avez la parole.

[Traduction]

    Merci, monsieur le président.
    Merci aux témoins.
     À titre d'information pour le public et mes collègues, je vais déposer une motion. Elle ne fera pas l'objet d'un débat aujourd'hui, mais plutôt à une réunion ultérieure. J'aimerais obtenir des commentaires et savoir si mes collègues ont des amendements à proposer. La voici:
Que conformément à l'article 108(1) du Règlement, le Comité demande aux fabricants d'automobiles: Ford du Canada Limitée, La Compagnie General Motors du Canada, et Stellantis (FCA Canada Inc.), BMW Group Canada, Honda Canada Inc., Hyundai Auto Canada Corp, Jaguar Land Rover Canada ULC, Kia Canada Inc., Maserati Canada Inc., Mazda Canada Inc., Mercedes-Benz Canada Inc., Mitsubishi Motor Sales of Canada, Inc., Nissan Canada Inc., Porsche Cars Canada Ltd, Subaru Canada, Inc., Toyota Canada Inc., Volkswagen Group Canada Inc., Volvo Car Canada Ltd. et Tesla Motors Canada ULC, un rapport complet sur leurs stratégies et initiatives prises à ce jour et sur les mesures supplémentaires visant à améliorer les dispositifs de sécurité pour lutter contre le vol d'automobiles au Canada; et que les documents soient soumis au Comité dans un délai de cinq jours ouvrables.
     Nous avons déjà procédé de la sorte au sein de ce comité. La raison pour laquelle je propose de le faire, c'est que je ne veux pas laisser ce dossier entièrement au ministère de la Sécurité publique ou au ministère des Transports en raison des sommes d'argent qui sont versées à l'industrie automobile. Cela ne prendra pas de temps au Comité, mais nous pourrons déterminer si nous voulons ou non mener une étude approfondie sur la question.
     J'attends avec impatience de voir si certains de nos collègues ont des amendements à proposer à ce sujet. Vous verrez la motion apparaître dans vos boîtes de réception demain matin.
    Ma première question porte sur une question que nous devons régler ici. Soit nous adoptons le projet de loi, avec une réglementation et malgré une certaine imprécision, soit nous faisons confiance à l'industrie et n'adoptons aucune mesure. On pourrait alors parler de plus de cinq ans... en fonction de la durée de la législature. Même si elle ne dure pas, faire adopter quelque chose prendrait beaucoup de temps. Nous devons donc prendre une décision.
    Madame Curran, vous avez mentionné que vous aviez déjà travaillé dans le domaine de la politique publique. Si ma mémoire est bonne, je pense que vous avez travaillé pour le premier ministre Harper en tant que directrice des politiques. En juillet 2019, la Commission fédérale du commerce des États-Unis a imposé une amende record de 5 milliards de dollars à Facebook pour avoir trompé les utilisateurs sur la capacité à protéger leurs données personnelles. Premièrement, dans ce cas — et je ne sais pas —, des Canadiens avaient-ils les mêmes problèmes que les Américains? Deuxièmement, pourquoi devrions-nous nous contenter de croire qu'aucune politique publique ne serait la meilleure politique à l'heure actuelle par rapport au projet de loi?
    Je vous remercie de la question, monsieur Masse.
    Je ne pense pas que nous soutenions qu'il ne devrait pas y avoir de cadre législatif. Notre position diffère peut-être un peu de celle de mes collègues ici sur ce point. Je pense que le projet de loi, dans sa forme originale, dans sa forme actuelle, moins certains des amendements que propose le ministre, est en fait très bon et tout à fait applicable.
     Je comprends les impératifs politiques. Je comprends que les produits d'intelligence artificielle générative, en particulier, préoccupent le public. Je pense qu'il incombe au gouvernement et aux décideurs de mettre en place des garde-fous, comme l'a dit M. Sorbara, concernant le développement et le déploiement de l'intelligence artificielle. Nous ferions une seule mise en garde. Il ne faudrait pas que le Canada le fasse d'une manière qui diffère tellement de celle d'autres pays que cela aurait une incidence négative sur le développement et le déploiement de l'intelligence artificielle dans ce pays.
(1805)
    À ce sujet, j'ai parlé de la Commission fédérale du commerce. Quel montant a été alloué au Canada en guise de réparation? Le Canada a‑t‑il reçu un montant réciproque?
     Vous demandez que l'on harmonise les mesures avec celles prises par d'autres pays. Dans ce cas particulier, on parle de 5 milliards de dollars. Les Canadiens qui ont été touchés par la violation qu'a constatée la Commission fédérale du commerce des États-Unis ont-ils été dédommagés? Nous recevons en fait de l'argent parfois, même dans des cas d'abus dont des consommateurs sont victimes aux États-Unis, dans le cadre d'un certain nombre de processus différents. Le Canada a‑t‑il reçu de l'argent pour cet abus de confiance?
    Je ne connais pas la réponse à cette question, monsieur Masse, mais nous vous fournirons l'information.
    Je vous remercie.
    Je voudrais maintenant passer à Mme Foster.
     Vous avez parlé de dispositions pénales. Encore une fois, cela fait partie du problème auquel nous sommes confrontés. En juillet 2020, l'Union européenne a infligé à Amazon une amende record de près de 900 millions de dollars américains pour avoir violé les règles relatives aux atteintes à la vie privée prévues dans le Règlement général sur la protection des données dans le traitement de données personnelles.
    Dans ce cas particulier, est‑ce que des Canadiens ont été victimes de la même atteinte à la vie privée que celle pour laquelle les citoyens visés par le Règlement général sur la protection des données ont obtenu réparation? Le Canada a‑t‑il bénéficié du même traitement pour les atteintes à la vie privée qui ont pu avoir lieu?
    Je ne connais pas les détails de cette affaire. De plus, je témoigne ici au nom d'Amazon Web Services et non d'Amazon. Il m'est donc plus difficile de répondre à cette question.
    Êtes-vous au courant de l'affaire Amazon avec la Commission fédérale du commerce des États-Unis? Elle concerne les livreurs et la période de deux ans et demi... l'affaire a été réglée. Êtes-vous au courant de celle‑là?
    Mon expertise concerne l'intelligence artificielle pour Amazon Web Services plutôt que pour Amazon. Je n'ai pas cette expertise.
    Je comprends. Je n'essaie pas de vous mettre dans l'embarras, mais vous avez parlé des dispositions pénales.
     J'ai une liste d'amendes et de pénalités que la Commission fédérale du commerce a infligées à Amazon aux États-Unis. Les décisions que nous devons prendre ici portent en partie sur certains de ces éléments. À vrai dire, le Canada n'obtient pas le même traitement pour ses citoyens.
    Je vais maintenant m'adresser aux représentants de Microsoft.
     Microsoft a accepté de payer 3 millions de dollars d'amendes pour avoir vendu des logiciels à des entités et à des individus sanctionnés à Cuba, en Iran, en Syrie et en Russie entre 2012 et 2019. Le département du Trésor américain affirme que la majeure partie de ces violations apparentes concernaient des entités russes sanctionnées.
    Est‑ce que certaines de ces activités sont toujours en cours ou sont-elles maintenant terminées? Comment pouvons-nous être entièrement rassurés s'il n'y a pas de réglementation relative à l'intelligence artificielle, s'il y a une période d'attente pour faire quelque chose et si nous entendons parler de situations comme celle‑là?
    Malheureusement, je n'ai pas non plus l'expertise voulue pour répondre à votre question sur ce cas précis.
     Je dirai que, à notre avis, il est possible d'adopter le projet de loi et de le faire rapidement et de manière à répondre aux préoccupations réelles au sujet de l'intelligence artificielle, du déploiement et des scénarios à risque élevé. Il s'agit d'apporter des ajustements aux amendements concernant les systèmes à incidence élevée et de définir des exigences pour les systèmes à usage général ou à moindre risque.
    Je suis désolé, mais mon temps est limité. Si vous ne connaissez pas ce dossier‑là, je vais passer au suivant, parce qu'il concerne ce dont nous parlons.
    La Commission fédérale du commerce des États-Unis a accusé Microsoft d'avoir violé la protection de la vie privée des enfants en ligne. Il s'agit de la protection de la vie privée en ce qui nous concerne, compte tenu de l'âge du consentement. Un règlement de 20 millions de dollars a été conclu à ce sujet. Je me demande simplement si, dans cette affaire sur Microsoft, des enfants canadiens ont été victimes de la même violation que celle qui a fait l'objet du règlement.
     Certains des cas que j'ai en exemple ici... Ils ne nécessitent pas des recherches approfondies. C'est tiré d'un article du New York Times. Je ne pose pas de questions sur des situations qui ne sont pas connues, qui nécessitent de la préparation, ou dans le but de prendre quelqu'un en défaut. Il s'agit simplement d'information tirée du New York Times que l'on peut trouver en utilisant vos produits.
    Je veux savoir si des enfants canadiens ont été touchés par le même degré d'exposition concernant l'affaire qui a été réglée aux États-Unis.
    Nous serions très heureux de vous faire parvenir cette information. Malheureusement, je ne l'ai pas aujourd'hui.
    D'accord.
     J'ai juste une brève question à poser à chacune des entreprises ici représentées au sujet de la taxe de 3 % sur les services numériques. Êtes-vous opposés à la taxe sur les services numériques que le Canada a proposée? J'aimerais connaître votre opinion. Je peux demander à chaque entreprise ou à chaque personne de répondre.
     Je m'en remets à vous, monsieur le président, mais j'aimerais savoir si les témoins soutiennent la taxe ou s'ils s'y opposent.
(1810)
    Je pense que les inquiétudes au sujet de la taxe sur les services numériques concernent davantage le moment et l'idée que le Canada aille à contre-courant d'autres pays. Il y a moins d'inquiétudes à propos de la taxe en tant que telle. C'est plutôt le moment et la question de l'harmonisation avec d'autres pays qui posent problème.
    Très bien.
    C'est exactement notre position également. Tant qu'il y a une approche harmonisée à l'échelle mondiale, nous sommes heureux de payer plus d'impôts et de payer une taxe sur les services numériques. Il ne faut seulement pas en faire quelque chose d'exceptionnel.
    Nous sommes également favorables à une approche harmonisée à l'échelle internationale, comme celle que préconise l'OCDE.
    Nous appuyons également le processus de l'OCDE et une réforme de la fiscalité des sociétés à l'échelle mondiale.
    Je vous remercie.
     Ce n'est pas pour rien que j'ai posé la question. Je suis vice-président du Groupe interparlementaire Canada-États-Unis. Lorsque nous nous rendons à Washington, nous entendons dire que vos entreprises militent activement auprès de sénateurs du Congrès pour les inciter à nous dire de nous opposer à la taxe. Si vous faites une recherche rapide, vous constaterez que bon nombre des personnes reçoivent des dons en argent.
     Sur ce, je pense que mon temps est écoulé, monsieur le président.
    Vous avez largement dépassé votre temps, monsieur Masse, mais je me sens généreux ce soir, comme je l'ai été avec tous les membres du Comité. C'est ainsi que je procède.
    Monsieur Williams, vous avez la parole pour plus ou moins cinq minutes.
    Oui, plus ou moins. J'espère que ce sera sept minutes.
    Des voix: Ha, ha!
    M. Ryan Williams: Ne réduisez pas mon temps de parole, monsieur le président.
     Merci aux témoins.
     J'aimerais me concentrer ce soir sur les normes internationales et le rattrapage à faire par rapport à certains de nos pairs lorsqu'il s'agit de réduire au minimum les préjudices subis par les artistes, les créateurs et le grand public. Je sais que vous êtes tous d'accord. Vous avez des produits de consommation et vous voulez protéger les créateurs et les consommateurs.
     L'une des grandes préoccupations que suscite l'intelligence artificielle concerne le contrôle des personnes sur la manière dont leur image pourrait être utilisée à des fins lucratives lorsque la valeur de l'image représente un investissement de la part de l'individu... par rapport aux préjudices en ligne. Évidemment, nous voulons également protéger l'utilisation par les consommateurs et les droits des consommateurs.
     Je vais mentionner quelques-uns des plus grands exemples qui existent aujourd'hui.
    Hier, j'ai rencontré un groupe de Music Canada. Il y a un Johnny Cash généré par l'intelligence artificielle qui peut chanter parfaitement Barbie Girl, du groupe Aqua. Il s'agit d'un système informatique qui apprend des choses sur un artiste et le reproduit. Nous pouvons imaginer ce qui se passerait si cela était utilisé avec Michael Jackson ou d'autres artistes pour créer des albums complets. Qui les protège? Existe‑t‑il des lois pour protéger les consommateurs et, bien sûr, leurs droits?
    Le deuxième élément concerne les hypertrucages. C'est très préoccupant. Le plus grand exemple actuellement est celui de Taylor Swift. Le phénomène ne touche pas seulement les célébrités. Une de nos collègues, Michelle Rempel Garner, s'est exprimée haut et fort sur l'utilisation de fausses photos et vidéos générées par l'intelligence artificielle dans des cas de violence conjugale.
    Compte tenu de ces préoccupations et de ce préjudice important, de quelle manière le Canada pourrait‑il, selon vous, rattraper son retard dans le cadre de la Loi sur l'intelligence artificielle et les données ou de la loi actuelle et s'assurer que nous protégeons les droits des consommateurs?
    J'aimerais que Mme Foster commence, puis chaque autre témoin répondra à son tour.
    J'ai des Swifties chez moi; nous en parlons aux repas.
    Vous avez donné un excellent exemple, en fait, d'une loi existante qui pourrait être remaniée pour résoudre un problème comme celui‑là. Il est déjà illégal de partager des images intimes sans consentement. L'ajout de précisions dans le Code criminel pour viser les images générées par l'intelligence artificielle est probablement un moyen plus efficace de régler ce problème particulier. Le Canada pourrait agir très rapidement et très efficacement à cet égard.
    L'industrie travaille fort pour faciliter la détection de contenu généré par l'intelligence artificielle. Nous nous sommes notamment engagés en juillet à la Maison-Blanche à mettre au point des tatouages numériques et d'autres outils pour détecter le contenu généré. En novembre, nous avions déjà lancé un outil de tatouage numérique dans notre modèle d'intelligence artificielle resserré. L'industrie essaie également d'agir très rapidement pour remédier à certains préjudices et collabore évidemment pour s'assurer qu'il y a des lois en place pour y remédier, mais nous pouvons aussi œuvrer sur le plan technique pour que ces images soient détectées rapidement.
    La question du droit d'auteur est un sujet d'actualité brûlant, et le gouvernement a tenu des consultations à ce sujet. Il y a deux aspects à prendre en considération pour l'élaboration des politiques: l'entraînement de l'intelligence artificielle et l'entrée de données. Comment faire en sorte que nous avons des données de grande qualité pour entraîner les modèles? Il y a aussi des techniques pour supprimer le contenu protégé par le droit d'auteur dans les extrants. Il est possible de s'assurer que les modèles ont des fonctions de suppression pour que le contenu protégé par le droit d'auteur ne figure par dans les extrants du modèle.
    Il serait utile de distinguer les deux aspects dans nos discussions sur l'intelligence artificielle et s'assurer que nous avons de bons modèles qui contiennent également du contenu canadien. Nous devrions réfléchir au fait que la plupart des modèles disponibles sont dominés soit par la langue chinoise, soit par l'anglais. Par exemple, il y a un manque de contenu francophone, mais le Canada compte aussi d'autres langues minoritaires. Nous voulons permettre une utilisation appropriée du contenu pour les modèles d'entraînement afin d'avoir accès à de grands modèles linguistiques propres au Canada lorsque nous interagissons avec eux.
(1815)
    Je suis d'accord.
    La question que vous avez soulevée au sujet des hypertrucages, qu'ils soient vidéo ou audio, ne serait pas réglée par le projet de loi C‑27, du moins pas de sitôt. Je sais que le gouvernement a fait une annonce — aujourd'hui, je crois — au sujet de la question des hypertrucages et de sa volonté de s'attaquer au problème. Or, le problème peut être réglé très facilement au moyen d'une modification au Code criminel ou à une loi existante.
    Il en va de même pour la désinformation électorale. Si les membres du Comité sont préoccupés par ce préjudice, il est possible de le régler en apportant rapidement une modification à la Loi électorale du Canada. La Loi sur le droit d'auteur défend les droits des créateurs. L'utilisation de matériel dans le contexte du développement de l'intelligence artificielle qui porte atteinte aux droits des créateurs peut également tomber sous la Loi sur le droit d'auteur.
    Il y a déjà des lois en vigueur. C'est la raison pour laquelle nous avons préconisé une approche sectorielle à la réglementation de l'intelligence artificielle. Toutes ces questions pourraient être réglées très rapidement ainsi, mais pas avec le projet de loi C‑27.
    En ce qui concerne les hypertrucages, tout comme ma collègue d'AWS, nous y voyons une occasion de modifier le Code criminel ou de réfléchir à des possibilités de lutter contre ce fléau dans le projet de loi annoncé sur les contenus préjudiciables en ligne.
    En ce qui concerne le droit d'auteur, selon nous, il faut réfléchir à la façon dont nous permettons l'utilisation de l'intelligence artificielle pour faciliter la diffusion des connaissances, permettre la création de nouvelles œuvres en conformité avec la Loi sur le droit d'auteur et protéger les droits et besoins des créateurs. Nous voulons continuer à collaborer avec nos partenaires et les gouvernements sur la façon d'atteindre ces objectifs. Nous pensons que les consultations en cours, auxquelles nous avons participé, ont été très productives, et nous attendons avec impatience toute autre occasion d'y donner suite.
    Nous sommes également d'avis que d'autres mécanismes conviendraient pour répondre aux préoccupations tout à fait légitimes concernant les images de ce genre.
    Je tiens à préciser que pour les images non consensuelles, nous avons une politique de tolérance zéro sur Google, que ces images soient synthétiques ou non. Nous fournissons des outils aux personnes qui pourraient se trouver dans cette situation terrible afin de les aider à y remédier. Nous avons également des politiques très claires en ce qui concerne nos propres outils d'intelligence artificielle générative interdisant la production de contenu sexuellement explicite de ce genre.
    Je pense que ma collègue, Mme Doshi, pourrait aussi vous en parler un peu, parce que la détection et le tatouage numérique sont des percées technologiques vitales pour lesquelles nous aurons besoin d'une approche collaborative.
    Malheureusement, nous avons un problème technique. Nous ne vous entendons pas. Nous aurons peut-être le temps de revenir à vous plus tard.
    Monsieur Williams, je suis désolé, mais votre temps s'est écoulé de toute façon. Je dois vous arrêter. J'espère que vous aurez l'occasion d'y revenir.
    Monsieur Gaheer, vous avez la parole.
(1820)
    Merci, monsieur le président.
    Je remercie les témoins de prendre le temps de comparaître devant le Comité.
    Mes questions sont essentiellement pour les représentants de Microsoft.
    Madame Craig, comment pensez-vous que le gouvernement devrait aborder la réglementation d'un domaine qui évolue si rapidement, et pensez-vous que la LIAD réussit à relever ce défi? L'un des exemples qui me viennent à l'esprit est la première annexe des systèmes à incidence élevée qui pourra être mise à jour à mesure que la technologie évolue avec le temps.
    En ce qui concerne la législation et la réglementation de la technologie en général et de l'intelligence artificielle en particulier, il est extrêmement important de penser à établir un cadre et un processus globaux par lesquels on peut revoir les dispositions au fil du temps avec les garde-fous appropriés en place. Ainsi, l'annexe des systèmes à incidence élevée évoluerait en fonction du déploiement grandissant de la technologie et des nouveaux scénarios à incidence élevée; on y ajouterait des éléments au fil du temps, avec les garde-fous nécessaires. Le processus exigerait également que les ajouts fassent l'objet de la même analyse des risques et se fassent une fois le seuil franchi.
    Il faudra veiller à ce que les processus de mise en œuvre des exigences, par exemple, évoluent au fil du temps en fonction des approches changeantes des systèmes de sécurité pour l'intelligence artificielle. C'est important. De plus, la réglementation doit vraiment reposer sur une approche fondée sur le risque, et la réglementation ne doit pas être appliquée de façon trop générale. Dans le cas des systèmes à faible incidence, des exigences trop sévères limiteraient la façon dont les entreprises canadiennes pourraient continuer à utiliser l'intelligence artificielle à de nombreuses fins novatrices.
    En ce qui concerne la conformité, les modifications proposées à la LIAD et les données sont-elles suffisamment précises pour que Microsoft puisse planifier ses activités, et certaines de vos activités sont-elles déjà conformes, compte tenu de vos structures internes existantes?
    La Loi et les amendements récemment proposés tracent les grandes lignes des exigences et nous attendrons plus de détails lors de la mise en œuvre des exigences.
    Pour ce qui est de la mise en œuvre de la Loi, les dispositions prévues, comme celles prévoyant des vérifications, sont moins précises. On pourrait fournir plus de détails sur le processus de mise en œuvre, afin que les organisations puissent démontrer leur conformité aux exigences qui auront été définies plus en détail.
    Microsoft travaille sur la gouvernance interne de l'intelligence artificielle responsable depuis sept ans, et nous avons élaboré bon nombre de ces concepts à l'interne, ce qui peut être considéré comme un point de départ. De nombreuses autres organisations n'ont peut-être pas consacré autant de temps à la question ou n'ont peut-être pas autant de ressources. Le fait d'offrir plus de certitude sur la façon de se conformer serait d'une utilité énorme.
    Nous avons élaboré des principes responsables en matière d'intelligence artificielle, ainsi qu'une norme responsable en matière d'intelligence artificielle pour mettre ces principes en pratique. Il s'agit vraiment d'un ensemble d'objectifs et d'exigences très précis pour les équipes internes qui travaillent sur l'intelligence artificielle afin de réaliser certains objectifs, comme la réduction des préjugés et l'atténuation du risque de préjugé, et la mise en place de processus suffisamment transparents et responsables.
    J'aimerais poser la même question aux autres témoins. Quelle est l'attitude de vos entreprises respectives en ce qui concerne la conformité à la LIAD?
    Permettez-moi d'intervenir. Je pense que Mme Craig est très diplomate.
    À bien des égards, la LIAD va bien au‑delà du texte le plus strict du monde, soit la Loi sur l'IA de l'Union européenne, qui fait déjà l'objet de beaucoup de débats parmi les États membres. Le texte ne convient pas à certains pays comme la France, par exemple, qui veut s'assurer que sa propre industrie nationale a la chance de prospérer.
    La LIAD a créé une norme qui n'existe nulle part ailleurs dans le monde. Si vous nous demandez si nous respecterions cette norme si elle était imposée ici, la réponse est oui. Nous avons les ressources nécessaires. Or, les coûts d'observation de la Loi sont incroyablement élevés. Cela voudrait‑il dire que certains produits ne pourraient pas être lancés au Canada? Peut-être. Cependant, nous travaillons tous pour des entreprises qui sont en mesure de respecter des exigences très élevées parce que nous avons les ressources et l'argent pour le faire.
    Attention: cela aura un impact négatif important sur l'industrie canadienne de l'intelligence artificielle et sur l'innovation au Canada. Le Canada devrait s'aligner sur les autres pays. Notre marché est relativement petit. L'Union européenne est en train d'établir un point de référence de calibre mondial. Nous devrions à tout le moins ne pas dépasser ce point.
(1825)
    Je me fais l'écho des commentaires du groupe d'experts, mais j'espère que le Comité aura l'occasion d'entendre des entreprises canadiennes qui déploient l'intelligence artificielle au sein de leur entreprise dans des secteurs où l'intelligence artificielle n'est pas l'activité principale. Il s'agit de comprendre les répercussions que ce genre de régime aura sur l'industrie agricole, l'industrie des services financiers, l'industrie manufacturière et l'industrie énergétique.
    Cette technologie est déployée non seulement par les entreprises qui développent l'intelligence artificielle, mais aussi par nos clients dans tous les secteurs de l'économie canadienne. Je pense que le Comité devrait vraiment prendre le temps d'entendre les entreprises canadiennes qui seront touchées et qui tirent parti de nos services ou qui pourraient développer leurs propres services. Le Comité devrait accorder une grande priorité à leur témoignage.
    Virtuellement aussi...
    Du point de vue de Google, nous avons évidemment exprimé publiquement notre engagement à l'égard des principes responsables en matière d'intelligence artificielle. Ma collègue, Mme Doshi, chapeaute notre processus de gouvernance à cet égard, qui est évolutif, incroyablement rigoureux et robuste.
    Comme l'ont dit d'autres témoins, vous pourriez envisager de vous pencher sur la définition de « à incidence élevée ». Insérez certains critères ou facteurs pour définir le seuil de ce qui constituerait un système à incidence élevée. Cela pourrait apporter de la clarté et de la souplesse au fur et à mesure que la technologie évolue. Si vous pensez à la gravité et à la probabilité du préjudice, à l'échelle d'utilisation, à la nature du préjudice et à ce genre de choses, le fait de donner des directives aux organismes de réglementation contribuera à la certitude et aux protections que le gouvernement cherche à établir ici, tout en offrant de la clarté et de la prévisibilité aux entreprises, grandes et petites, qui devront mettre en place les systèmes nécessaires pour se conformer.
    Je pense que nous avons maintenant une véritable occasion de bien faire les choses dès le départ et de créer un cadre stratégique cohérent pour les entreprises canadiennes, qui devront être bien outillées pour réussir sur la scène mondiale.
    Excellent. Merci.

[Français]

     Merci beaucoup.
    Monsieur Garon, vous avez la parole.
    Merci, monsieur le président.
    Je vais continuer avec vous, madame Curran. Ne voyez pas cela comme de l'acharnement, j'aurais pu poser la question à n'importe qui.
    L'industrie — je répète qu'on l'aime — tente de nous démontrer son grand sens de responsabilité, qu'elle a des principes et qu'elle veut évoluer. Toutefois, il semble y avoir des choses, qui pourraient sembler simples pour le grand public, qui auraient dû être faites, mais qui ne l'ont pas été. On a parlé de l'identification des faux, des contrefaçons complexes, et le reste.
    Tout le monde se demande comment il se fait que cela n'ait pas déjà été fait. Je comprends que vous êtes dans un environnement concurrentiel.
     Je me demande si, dans l'environnement actuel, il n'y a pas un coût, sur le plan du marché et des profits, lié à l'adoption de normes éthiques qui dépassent celles de ses concurrents.

[Traduction]

    Je tiens à souligner que nous n'autorisons pas les hypertrucages vidéo et audio sur notre plateforme. Nous avons mis au point un certain nombre d'outils pour les retirer et les identifier.

[Français]

     Comme nous n'avons que deux minutes, je vais aller rapidement. Ma question est la suivante: dans l'environnement actuel, peut-il y avoir un coût, sur les plans du marché, des profits, de la clientèle, à élever ses standards éthiques au-dessus de ceux de ses concurrents? C'est l'essence de ma question.

[Traduction]

    Non, je ne crois pas. Nous voulons être une marque digne de confiance et crédible et nous placer comme chef de file mondial et sectoriel en matière de normes éthiques. Je pense qu'il n'y a pas de coût négatif; ce serait plutôt un avantage. Cependant, nous parlons ici de la norme que le Canada établit dans la réglementation des systèmes d'intelligence artificielle. Il y aura un coût si le seuil prévu par la réglementation est fixé à un niveau qui dépasse de loin celui de nos pairs internationaux.

[Français]

    Merci, madame.
    Ma dernière question s'adresse à Mme Craig.
    On a défini les systèmes à incidence élevée comme étant ceux posant des risques pour la santé, pour les droits de la personne ou pour la sécurité. Si j'ai bien compris, ce sont essentiellement les critères.
    Que dites-vous de l'ingérence électorale et de la désinformation au quotidien?
(1830)

[Traduction]

    Je suis vraiment désolée. L'oreillette a fait défaut pendant que je vous écoutais.

[Français]

    Puis-je récupérer mes 20 secondes, monsieur le président?
    Voyons si Mme Craig reçoit l'interprétation.

[Traduction]

    Ça s'est tout simplement éteint. Je vais essayer de nouveau.

[Français]

    M'entendez-vous?

[Traduction]

    Oui.

[Français]

    On a défini ici les systèmes à incidence élevée comme étant des systèmes présentant des risques pour la santé, pour les droits de la personne ou pour la sécurité. C'est une belle définition. Je ne suis pas spécialiste et je ne sais pas ce que j'en pense, mais c'est certainement important.
    Cependant, j'aimerais savoir où se situent la désinformation, l'ingérence électorale, par exemple, à l'intérieur de ces critères.
     Est-ce que ce sont des risques pour la santé, pour les droits de la personne ou pour la sécurité? Cette définition pourrait-elle éventuellement être appelée à évoluer?

[Traduction]

    Vous faites allusion à des utilisations sensibles. Il existe des façons de réfléchir au risque de désinformation qui s'inscriraient certainement dans les catégories que j'ai décrites concernant le préjudice psychologique potentiel ou l'incidence sur les droits de la personne.
    Ce qui est vraiment important, c'est de retenir une approche claire pour définir ce qui constitue un risque élevé, une approche qui peut évoluer pour faire face à des défis changeants comme la mésinformation et la désinformation. La LIAD nous donne l'occasion de définir clairement ce qui constitue un risque élevé et de mettre en place un processus pour la faire évoluer au fil du temps.

[Français]

    Merci.

[Traduction]

    Je pense que vos questions soulignent également la difficulté d'avoir une loi horizontale aussi vaste, car il est très difficile d'essayer d'englober tous ces cas d'utilisation très précis dans une seule loi. Dans bien des cas, il pourrait en fait être plus logique, par exemple, de demander à Santé Canada d'examiner sa façon de traiter les cas d'utilisation complexes qui se produisent dans le secteur des soins de santé, ou de demander à l'organisme de réglementation des services financiers de viser davantage ces cas d'utilisation.
    Ce sont des cas d'utilisation extrêmement complexes pour des gens comme nous. Même si nous comprenons très bien la politique sur l'intelligence artificielle et l'atténuation des risques, il s'agit de cas d'utilisation complexes que les organismes de réglementation comprennent déjà. Ces mêmes organismes savent très bien comment gérer les risques dans ces secteurs.
    Pour ce qui est de la tâche difficile de rédiger une telle loi de portée énorme, il serait peut-être plus utile de demander à Santé Canada de voir quels sont les leviers dont il dispose déjà pour réglementer l'intelligence artificielle dans des cas d'utilisation précis, ou au BSIF d'examiner le secteur des services financiers...
    Je suis désolée de vous interrompre, mais vous pouvez également modifier la loi pour préciser les cas d'utilisation précis qui vous préoccupent: s'il s'agit de désinformation électorale ou de la prestation de soins de santé ou de services d'hébergement, vous pouvez les insérer dans ce projet de loi comme des cas précis que vous voulez viser. Vous établissez un seuil de préjudice qui est un critère d'importance relative, mais vous pouvez ensuite énumérer des exemples précis de cas d'utilisation qui vous préoccupent particulièrement et que vous voulez encadrer.

[Français]

    Merci.
    Madame Patell, qui êtes en ligne, je vous cède la parole.

[Traduction]

    Merci.
    Je voulais simplement revenir sur ce que disait Nicole Foster, parce que c'est conforme à l'approche adoptée par le Royaume-Uni. Cette approche s'appuie sur l'expertise existante de nos organismes de réglementation sectoriels dans ce domaine. Ils sont les mieux placés pour comprendre les risques qui existent pour leurs secteurs et les acteurs sectoriels, et ils savent quelles questions poser. Le Canada pourrait peut-être s'inspirer de la façon dont d'autres pays traitent cette question précise.

[Français]

     Merci.
    Monsieur Masse, vous avez la parole.

[Traduction]

    Merci, monsieur le président.
    Voilà le dilemme dans lequel nous nous trouvons. Nous devons faire confiance ou bien au texte, ou bien aux témoignages, et nous recevons des messages contradictoires de la part de nombreux témoins.
    Ma question s'adresse à M. DeVries. Vous êtes le directeur de la Protection de la vie privée chez Google. Vous pouvez peut-être répondre à cette question.
    Je sais que votre société a payé plusieurs amendes et pénalités, la plus récente étant une amende de 700 millions de dollars à la suite de poursuites antitrust aux États-Unis. Vous êtes sans doute au courant des poursuites intentées pour atteinte à la vie privée des millions de personnes qui pensaient naviguer en mode privé, qui se sont soldées par une amende de 5 milliards de dollars.
    Les Canadiens figuraient-ils également parmi les victimes? Si c'est le cas, allons-nous être indemnisés?
(1835)
    Le recours collectif a été déposé aux États-Unis. Je ne pense pas qu'il concerne des parties à l'extérieur du territoire américain, mais les changements au mode privé que nous offrons dans le navigateur Chrome — je l'utilise en fait en ce moment — ont été apportés à l'échelle mondiale. Tous les utilisateurs profitent de ces changements, qui n'ont pas modifié la fonctionnalité du système, mais qui fournissent des précisions sur l'utilisation et les conditions d'emploi du mode privé.
    C'est très utile. Je vous en suis reconnaissant.
    En fin de compte, le produit a eu les mêmes conséquences de part et d'autre de la frontière. Cependant, les États-Unis et leurs citoyens ont été indemnisés en l'espèce parce que la cause a été entendue là‑bas. Est‑ce un bon résumé de la façon dont les choses se sont déroulées?
    Je dirais que ce n'était pas fondé sur une loi visant la protection des renseignements personnels, un peu comme on envisage de le faire avec ce projet de loi. Les indemnisations faisaient suite à des poursuites privées dans le contexte d'un système judiciaire américain qui, comme vous le savez, se distingue de celui du Canada à ce chapitre.
    C'est un peu ce qui me pose problème.
    Je peux comprendre que vous souhaitiez éviter le paiement de taxes. Personnellement, je fais l'objet de pressions — comme c'est le cas pour les autres députés et les sénateurs lorsque nous allons aux États-Unis — à l'encontre de la position du Canada relativement à une taxe numérique.
    Je soulève cette question parce que vos entreprises contestent systématiquement toutes les amendes et pénalités imposées, surtout aux États-Unis, mais aussi ailleurs dans le monde. Les Canadiens utilisent les mêmes produits, mais n'ont toutefois pas accès aux mêmes recours. Par-dessus le marché, nous devons attendre que l'OCDE rende sa décision en matière de taxes, ce qui pourrait prendre une autre décennie.
    Je sais qu'il ne me reste plus de temps, monsieur le président, mais je voulais exprimer mon désappointement. Pour les Canadiens, y compris ceux qui font pression sur nous, la difficulté est de savoir à qui faire confiance pour déterminer si nous allons de l'avant ou non avec ce projet de loi. Doit‑on faire confiance aux autorités administratives et réglementaires, ou encore s'en remettre aux entreprises en gardant les consommateurs canadiens en quelque sorte dans un angle mort du fait que nos lois actuelles ne nous donnent même pas accès à une indemnisation équivalente à celle dont jouissent les Américains et les Européens.
    Merci.

[Français]

    Merci, monsieur Masse.
    Monsieur Vis, vous avez la parole

[Traduction]

    Merci, monsieur le président.
    Je remercie tous les témoins pour les échanges fort intéressants que nous avons aujourd'hui. Je vais procéder très rapidement parce que j'ai beaucoup de sujets que je souhaiterais aborder en très peu de temps.
    Madame Foster, l'article 40 proposé de la Loi sur l'intelligence artificielle et les données est lié aux articles 38 et 39. C'est pour les cas où une entreprise ou un particulier a contrevenu à la Loi. On imposerait alors une amende pouvant aller jusqu'à « 5 % des recettes globales brutes de l'organisation au cours de son exercice précédant... ».
    Connaissez-vous d'autres lois liées à l'intelligence artificielle qui prévoient une telle amende?
    Je ne connais aucun pays qui impose des amendes ou des sanctions aussi sévères.
    Est‑ce que l'un ou l'une de nos autres invités pourrait nous dire ce que son entreprise pense de l'amende prévue à l'article 40 proposé de la Loi sur l'intelligence artificielle et les données?
    Nous ne sommes pas, nous non plus, au fait de telles sanctions ailleurs dans le monde. Nous sommes également préoccupés par les dispositions du projet de loi qui permettraient au commissaire à l'intelligence artificielle d'accéder à distance aux données de toutes nos entreprises sans se soucier de la protection de la vie privée ou des renseignements personnels.
    Madame Craig, pouvez-vous répondre très rapidement par un oui ou un non?
    C'est non, surtout en ce qui concerne les dispositions pénales. À ce que nous sachions, aucun autre partenaire de l'OCDE n'a adopté une approche semblable.
    Je vais poser la même question à la représentante de Google.
    Il n'y a pas à notre connaissance un autre gouvernement qui procède de cette manière. Je tiens à souligner qu'il suffit d'établir qu'une organisation est susceptible de contrevenir à la Loi. On va ainsi plus loin que ce qui est généralement exigé.
    Merci.
    Je m'inquiète tout particulièrement de la création d'un poste de commissaire aux données en vertu de l'article 33 du projet de loi, d'autant plus que d'autres témoins nous ont fait valoir — et c'est un fait bien connu — que le gouvernement du Canada ne dispose pas des capacités intellectuelles nécessaires pour réglementer l'intelligence artificielle.
    Je crains que ce projet de loi ne donne aux instances réglementaires de très vastes pouvoirs qui, dans certains cas, pourront être cédés par le ministre — suivant le projet de loi dans sa forme actuelle — à un commissaire à l'intelligence artificielle et aux données qui relèvera directement de lui. Cette relation m'inquiète parce qu'elle risque de faire entrer en conflit les multiples objectifs du ministère de l'Industrie, dont notamment, dans le cas qui nous intéresse, le développement économique, d'une part, et la protection des citoyens contre les préjudices en ligne, d'autre part.
    Nos témoins pourraient-ils nous dire s'ils croient que nous serions mieux servis dans ce contexte si le commissaire à l'intelligence artificielle et aux données, ou l'organisme gouvernemental qui sera mis en place pour remplir ce rôle, relevait directement du Parlement, plutôt que du ministre de l'Industrie?
(1840)
    Je ne sais pas si on peut dire que nous avons une opinion bien arrêtée à ce sujet. Je pourrais peut-être seulement répéter que j'estime très difficile pour une organisation ou une personne de bien cerner le concept d'atténuation des risques dans les services financiers ou les soins de santé. Ce sont des cas pratiques qui peuvent être très complexes. Je recommande vivement au gouvernement d'envisager de transférer aux organismes de réglementation concernés les responsabilités de surveillance de l'intelligence artificielle dans ces secteurs.
    D'accord. Merci.
    Est‑ce que quelqu'un d'autre aurait un commentaire à ce sujet?
    Je crois que c'est une excellente idée d'avoir un commissaire à l'intelligence artificielle qui relève du Parlement, plutôt que directement du ministre.
    Je veux rappeler par ailleurs que les dispositions sur l'accès à distance permettent au commissaire d'effectuer des audits en ayant accès aux données des utilisateurs qu'une entreprise a en sa possession. Un tel pouvoir juridique est sans précédent dans les démocraties libérales, et même dans les pays non libéraux.
    Merci beaucoup.
    Ma prochaine question s'adresse aux représentants de Google. Lorsque j'ai dit « Google » tout à l'heure, mon Pixel 3 m'a dit: « Hé, Brad. Comment ça va? »
    La première partie de ce projet de loi porte sur la protection de la vie privée. Nous avons alors discuté en long et en large des considérations liées à la confidentialité des renseignements. Je pense que cet aspect est tout aussi primordial pour cette partie‑ci du projet de loi.
    Nous n'avons pas beaucoup parlé jusqu'à maintenant des répercussions que l'intelligence artificielle aura sur les enfants. L'une de nos témoins a indiqué tout à l'heure que nous devons adopter une approche adaptée en fonction du niveau de risque des différents systèmes. En fait, je pense qu'un peu tout le monde en a parlé.
    Comment Google définirait‑il les renseignements de nature délicate dans le contexte de ses politiques et de ses technologies appliquées aux enfants?
    Je vous remercie de me donner l'occasion de vous répondre à ce sujet.
    La sécurité est notre priorité absolue. Nous adoptons une approche globale à l'égard de la sécurité des enfants. Cela va de la conception de produits adaptés à l'âge jusqu'à l'adoption de politiques dont nous assurons l'application, en passant par la mise à disposition de paramètres et d'outils permettant aux parents et aux utilisateurs de faire les bons choix pour les enfants.
    Peut-être que mon collègue, M. DeVries, pourrait vous en dire davantage sur les moyens que nous prenons pour protéger la vie privée des enfants.
    Merci.
    Pour les données liées à l'intelligence artificielle, comme pour toutes les autres données, nous prenons en considération la situation particulière des enfants, sans évidemment les mettre tous dans le même panier. On peut ainsi penser aux enfants plus jeunes pour lesquels les parents supervisent de très près l'utilisation de nos produits et services. Il y a par ailleurs les adolescents, qui jouissent d'une plus grande liberté, mais qui forment tout de même un auditoire spécial nécessitant aussi notre attention...
    Je suis désolé de vous interrompre, mais je pense que c'est là l'élément clé.
    Le Royaume-Uni a mis au point une loi sur la protection des renseignements personnels dont les dispositions étaient adaptées en fonction de l'âge des utilisateurs. Devrions-nous faire un peu la même chose pour la réglementation de l'intelligence artificielle? Nous devrions peut-être nous montrer un peu plus explicites en désignant certains âges en ce qui a trait aux systèmes à incidence élevée, compte tenu de l'impact que ces systèmes pourraient avoir sur le développement psychologique des enfants.
    Je vous écoute, monsieur DeVries.
    Je peux vous dire quelques mots concernant l'utilisation des données dans une perspective générale. Mme Patell pourra vous indiquer de quoi il en retourne dans le contexte particulier du projet de loi sur l'intelligence artificielle.
    Je dirais que, dans notre rôle de fournisseurs, nous avons effectivement besoin d'un cadre pour guider la conception de nos produits en fonction de l'âge de nos différents utilisateurs. C'est l'avenue que l'on a empruntée à l'échelle mondiale. Nous préconisons une solution semblable pour le Canada.
    Merci.
    J'aurais une dernière question pour les gens de Microsoft concernant la défense nationale.
    Nous n'avons guère abordé le sujet dans nos discussions sur l'intelligence artificielle, en grande partie parce que la défense nationale échappe à l'application de cette réglementation. Pourtant, il est intéressant de noter que nous entendons beaucoup parler des préjudices possibles auxquels les Canadiens sont exposés en raison de l'intelligence artificielle conçue par les systèmes de défense nationale de pays comme la Russie et la Chine, qui font actuellement l'objet de discussions dans le cadre des travaux de la Commission sur l'ingérence étrangère.
    Quelles mesures prend Microsoft, de concert avec le gouvernement des États-Unis, pour contrer certaines des actions menées par la Chine et la Russie en vue de déstabiliser des démocraties comme le Canada en misant notamment sur l'intelligence artificielle?
(1845)
     Nous discutons activement avec les gouvernements de toute l'Amérique du Nord des moyens à mettre en œuvre pour nous assurer que nos élections se déroulent en toute sécurité et pour contrer la désinformation. Nous avons aussi noué de solides liens avec nos responsables de la défense. Nous pouvons ainsi constater qu'ils mettent en place des programmes d'intelligence artificielle dotés de mesures de protection et d'outils permettant d'assurer une surveillance humaine adéquate dans ce nouveau monde marqué par les conflits.
    Y aurait‑il lieu de mieux définir les interrelations entre les différents rôles de la Défense nationale, les considérations liées à la sécurité personnelle, l'application de l'intelligence artificielle et les menaces qui pèsent sur nous? Faudrait‑il étudier tout cela plus à fond?
    Selon moi, il faudrait absolument étudier la question de façon plus approfondie.
    Merci.

[Français]

     Merci, monsieur Vis.
    Monsieur Turnbull, vous avez la parole.

[Traduction]

    Merci, monsieur le président.
    Merci à tous les témoins d'être des nôtres aujourd'hui. J'estime que ces échanges nous éclairent grandement grâce à toutes les idées et l'expertise que vous mettez à notre disposition. Je vous suis donc reconnaissant à tous de votre contribution.
    Comme le soulignait mon collègue, M. Sorbara, je pense que vos entreprises doivent notamment leur expansion, leur rentabilité et leur prospérité au fait que vos produits et services ont beaucoup de valeur aux yeux de vos clients. Par ailleurs, j'ai l'impression que vous essayez tous de montrer la voie à suivre en matière de développement responsable de l'intelligence artificielle, ce qui est très bien.
    Il va de soi que nous avons un rôle important à jouer à titre de législateurs, et que nous devons prendre des décisions qui vont dans le sens de l'intérêt public. Je pense que nous sommes des partenaires dans cette aventure, et je me réjouis donc de constater notre disposition à conjuguer nos efforts ainsi que la franchise dont vous faites montre aujourd'hui.
    Plus tôt cette semaine, nous avons entendu le témoignage de Yoshua Bengio, celui que l'on qualifie parfois de parrain de l'intelligence artificielle. Il a beaucoup insisté sur les avantages et les risques qui augmentent de façon exponentielle au fur et à mesure que l'intelligence artificielle évolue. Il a ainsi fait ressortir, tout au moins à mon point de vue, la nécessité de faire adopter rapidement ce projet de loi par le Parlement.
    Même si certains amendements pourraient être nécessaires, êtes-vous tous d'accord pour dire que le gouvernement canadien doit agir rapidement pour que ce projet de loi soit adopté?
    Puis‑je demander à chacun de vous de répondre brièvement?
    Allez‑y, madame Foster.
    Bien honnêtement je ne sais pas si le projet de loi change grand-chose à la façon dont nous abordons le développement responsable de l'intelligence artificielle. Il deviendra toutefois plus complexe pour nous de satisfaire aux exigences à remplir pour nous conformer à la Loi. D'une certaine manière, cela pourrait nous forcer à utiliser aux fins de l'observation de cette loi des ressources que nous aurions souhaité consacrer au développement responsable de l'intelligence artificielle. Ce n'est cependant pas une raison de ne pas légiférer en la matière. À mon avis, aucune de nos entreprises ne ralentira ses efforts pour assurer le déploiement responsable de cette technologie et pour continuer à innover et à investir sans tarder en veillant à prendre les mesures qui s'imposent.
    J'estime que les risques encourus sont en partie tout à fait théoriques. C'est ainsi que nous nous concentrons sur certains risques bien réels qui doivent être atténués aux fins d'un déploiement responsable de l'intelligence artificielle. Nous continuons d'investir pour cerner les exigences à remplir par les concepteurs en prévision de la prochaine vague d'innovation en intelligence artificielle. Comment gérer certains de ces nouveaux risques liés aux hallucinations et à la toxicité du contenu, et comment mettre en place le concept d'équipe rouge et les tests de sécurité nécessaires pour ces modèles produits par l'intelligence artificielle générative?
    Je ne pense pas que cela modifiera la façon dont nous abordons le développement responsable de l'intelligence artificielle, mais cela pourrait changer...
    J'aurais voulu ne pas vous interrompre, mais ce n'est pas ce qu'on peut appeler une réponse courte. Je comprends toutefois que je vous demande de répondre brièvement à une question difficile. J'ai l'impression que c'est assez courant pour nous, politiciens, mais je ne l'ai pas fait intentionnellement.
    J'essaie simplement de savoir si vous convenez qu'il est nécessaire d'agir sans tarder. Je déduis de vos propos que vous jugez quasiment inutile une loi gouvernementale parce que vous agissez déjà de façon responsable dans le développement et l'utilisation de l'intelligence artificielle. Nous pourrions probablement être en désaccord, mais vous avez aussi dit que cela ne signifie pas que les gouvernements ne devraient pas légiférer.
    Je vais passer à Mme Curran.
    Je crois effectivement qu'il faut procéder rapidement, ne serait‑ce que pour maintenir la confiance du public aussi bien envers l'intelligence artificielle qu'envers nos produits et services. J'estime important de bien faire les choses en s'assurant de ne pas empiéter sur le travail déjà accompli par l'écosystème canadien de l'intelligence artificielle. Quoi qu'il en soit, je pense qu'il est préférable d'agir prestement pour adopter des mesures en ce sens.
(1850)
    Merci.
    Nous vous écoutons, madame Craig.
    Nous convenons également de la nécessité de procéder rapidement, pour autant que certains amendements soient apportés, mais nous devons aussi le faire de façon réfléchie. Ma collègue a souligné précédemment l'importance de consulter les autres secteurs industriels. Selon nous, de telles consultations seraient extrêmement utiles en raison notamment de l'ampleur des répercussions, surtout dans le cas des systèmes à faible risque, et des différentes façons dont elles se feront sentir pour les entreprises canadiennes dans tous les secteurs.
    Merci.
    Madame Patell, je vois que vous avez levé la main.
    Comme le dit le proverbe: « tout seul, on va plus vite, mais, ensemble, on va plus loin. » Nous considérons qu'une véritable occasion s'offre à nous à l'échelle planétaire, et nous voulons aller loin tous ensemble. Je pense que c'est l'un de ces domaines où nous devons collaborer avec nos partenaires internationaux pour bien faire les choses.
    Excellent. Je vous remercie de vos commentaires.
    Je vais poser une autre question à la cantonade. Combien parmi vous avez adopté le Code de conduite volontaire visant un développement et une gestion responsables des systèmes d'intelligence artificielle générative avancés?
    Madame Foster, si vous voulez bien répondre brièvement.
    De quel code de conduite parlez‑vous? S'agit-il de celui du Canada ou de celui du G7?
    C'est le code de conduite que le gouvernement du Canada a annoncé et mis en place à l'issue de consultations.
    Nous nous sommes alignés sur les engagements de la Maison-Blanche, et nous souhaiterions les voir s'internationaliser en vertu d'un consensus mondial.
    Vous n'avez donc pas adopté le code de conduite canadien, mais plutôt le code américain. Je comprends.
    À vous la parole, madame Curran.
    Nous avons demandé à être assujettis au code canadien, mais on nous a indiqué que c'était pour les entreprises canadiennes seulement. Nous avons été parmi les premiers à souscrire aux engagements pris par la Maison-Blanche. Nous avons en outre signé d'autres codes volontaires semblables.
    Merci.
    À votre tour, madame Craig.
    Nous nous concentrons également sur l'effort visant à définir une norme ou un code de conduite d'application mondiale par l'entremise du G7.
    D'accord.
    Madame Patell, est‑ce la même chose pour vous?
    Nous misons nous aussi principalement sur des entités internationales comme le G7. C'est un domaine dans lequel nous pouvons collaborer avec le Canada, qui participe également à l'élaboration de ce code de conduite mondial.
    Merci.
    Je vais changer un peu de sujet. Vous avez tous traité des concepts de « préjudice » et de « préjudice important », mais en nous décrivant des façons de faire légèrement différentes pour définir ces notions à l'interne. Je pense que c'est ce que j'ai entendu. Je pourrais vous rappeler certains commentaires que j'ai notés, mais j'ai eu l'impression qu'il y avait une légère variation dans la façon dont vous analysez le tout dans vos organisations respectives. La plupart d'entre vous ont fait valoir que la désignation d'un système à incidence élevée dépend en grande partie des différentes utilisations possibles.
    Il y a deux questions que je pourrais poser. Je vais peut-être commencer par celle portant sur les cas pratiques d'utilisation, parce que je pense que c'est sans doute la plus difficile. J'ai l'impression que si nous essayions de prévoir tous les divers cas...
    Madame Curran, vous avez dit que nous devrions cerner les cas d'utilisation qui nous préoccupent pour ensuite déterminer où se situe le seuil de préjudice. Je pense qu'il nous serait très difficile, dans notre rôle de législateurs et de responsables de la réglementation, de déterminer tous les cas d'utilisation possibles dans la pratique. Je suis persuadé que vous ne pouvez pas tous les anticiper vous non plus. J'arrive difficilement à comprendre comment on peut s'imaginer qu'il s'agit là d'une façon de procéder envisageable pour les législateurs. Pourriez-vous m'aider à y voir plus clair?
    Les deux choses peuvent se faire simultanément. Vous pouvez établir un seuil d'importance relative qui serait vaste et applicable à une infinité de cas d'utilisation. Vous pouvez en même temps déterminer les cas d'utilisation qui vous préoccupent, tels que la désinformation lors des élections et la prestation de services de soins de santé ou de services liés aux emplois. Vous pouvez enfin établir un seuil d'importance relative qui s'appliquerait à un nombre élevé ou à une infinité de cas d'utilisation possibles.
    Ce serait en quelque sorte un ensemble inclusif de cas d'utilisation qui pourrait être élargi à l'infini.
    Mme Rachel Curran: Oui. Exactement.
    M. Ryan Turnbull: Ce seuil pourrait‑il être établi par voie réglementaire? Ce serait le processus à suivre dans ce cas‑ci.
    Vous pourriez en effet procéder de cette façon. Nous avons remarqué par contre que les amendements proposés par le ministre visent des situations ou des cas d'utilisation qui ne sont pas à incidence élevée. Ces amendements nous préoccupent, tout comme la modération et l'ordre de priorité des contenus de même que l'absence de seuil relatif aux préjudices.
    Êtes-vous tous d'accord sur la nécessité d'ajouter au projet de loi un seuil relatif aux préjudices?
    Je vais encore une fois commencer avec vous, madame Curran, car vous avez répondu directement à ma question précédente. Je vais ensuite consacrer le reste de mon temps de parole pour prendre rapidement le pouls des autres témoins.
(1855)
    Oui. Nous sommes d'accord. Le projet de loi devrait prévoir un seuil relatif aux préjudices.
    Très bien.
    Allez‑y, madame Foster.
    C'est terriblement difficile de mettre en place une réglementation horizontale...
    À qui le dites-vous.
    Des voix: Oh, oh!
    ... pour une technologie qui comporte un nombre incroyable d'applications sectorielles. La profondeur et l'étendue de l'IA sont immenses. Il est très ardu de proposer quelque chose qui tient compte de tous les cas d'utilisation, car la gestion des préjudices ou des risques est spécifique aux données utilisées et aux populations qui interagiront avec les systèmes en question. La rédaction d'une réglementation horizontale serait un exercice stérile.
    Il faut examiner chaque secteur séparément. Les organismes qui possèdent une expertise dans le secteur auront une approche réglementaire beaucoup plus efficace et chirurgicale. Ces organismes de réglementation possèdent déjà une expertise dans des secteurs complexes et font déjà de la gestion des risques.
    Il faudra aussi mettre en place un filet de sécurité législatif. D'autres pays ont cerné ce besoin. Au Royaume‑Uni, ils ont l'intention de mettre en place un mécanisme, mais ils veulent examiner chaque secteur pour déterminer où sont les lacunes à combler avant de légiférer.
    L'étude de ce projet de loi qui a été confiée au Comité est une tâche extrêmement ardue. Ce sera très difficile d'avoir la certitude que les risques ont bien été relevés.
    Notre tâche suscite de plus en plus d'empathie.
     La parole est à vous, monsieur Weigelt.
    Il y aurait moyen d'améliorer les définitions en adoptant une approche fondée sur les principes. J'ai eu une conversation avec un assureur sur l'utilisation de l'IA. J'ai été vraiment étonné d'apprendre que ce dernier ne se servait pas de l'IA pour l'évaluation des réclamations. Il recourait à cet outil pour faire table rase des réclamations faciles à traiter, qui représentent 10 % du total des réclamations. Les tâches qui exigent de la créativité, de l'ingéniosité et un raisonnement critique sont accomplies par des employés spécialisés qualifiés. Quant à la question des préjudices et des catégories d'utilisation, les systèmes d'IA tombent-ils dans la catégorie de systèmes à incidence élevée parce qu'ils servent à traiter des règlements de réclamations, peu importe que les réclamations soient simples ou complexes?
    Il faut réexaminer les définitions et vérifier comment ces outils fonctionneraient dans la réalité. Comme d'autres témoins l'ont souligné, je pense que les vérifications n'ont pas été faites de manière assez approfondie dans tous les secteurs d'activités.
    Madame Patell, je vous demanderais de répondre très rapidement. Le président va certainement me signaler que mon temps de parole est terminé, malgré sa grande générosité envers tout le monde.
    Ne vous inquiétez pas.
    Pour répondre à votre question sur la nécessité d'établir un seuil ou un test relatif aux préjudices, nous répondons par l'affirmative. Le problème se résume peut-être seulement à un manque de clarté, puisque les termes « préjudice important » et « préjudice grave » apparaissent ailleurs dans le projet de loi. Il faudrait peut-être seulement uniformiser la terminologie.
    Je souligne en dernier lieu que les recommandations portent toutes sur la capacité d'apporter des ajustements au projet de loi pour en faciliter l'application. Pour les cas d'utilisation qui soulèvent des préoccupations sur les préjudices importants, que ce soit sur le plan de la santé ou de l'économie, il faudrait d'abord ajouter des facteurs qui permettraient de définir clairement la notion de système à incidence élevée ainsi qu'établir un test ou un seuil relatif aux préjudices. Il faudrait ensuite conférer des pouvoirs et donner des outils aux organismes de réglementation sectoriels. Grâce à leur vaste expertise, ces derniers pourraient appliquer les outils établis à leur domaine de réglementation respectif. Je pense que ces recommandations établiraient les conditions favorables à la mise en place du cadre stratégique souple que vous souhaitez.
    Merci beaucoup.

[Français]

     Merci beaucoup.
    Monsieur Généreux, vous avez la parole pour cinq minutes.
    Je remercie tous les témoins d'être parmi nous.
     Lundi dernier, lorsqu'il a comparu devant ce comité par vidéoconférence, M. Bengio nous a dit que nous devions rapidement adopter le projet de loi C‑27, puisque, d'ici une décennie ou peut-être même d'ici deux ans, des robots aussi intelligents que les humains pourront prendre des décisions.
    Dans La Presse d'aujourd'hui, un article sur la vie numérique nous apprend que, en 2019, pendant la pandémie, près de 1 million d'emplois ont été créés dans vos quatre compagnies respectives et au sein d'Apple. Depuis ce temps, particulièrement au cours des deux dernières années, plus de 125 000 d'entre eux ont déjà été supprimés, et ce ne serait pas fini.
    Le prix que doivent payer aujourd'hui les employés qui ont créé des outils grâce à l'intelligence artificielle est-il l'élimination de leur emploi? Est-ce le début d'une baisse importante du nombre d'employés?
    Je suis le propriétaire d'une PME. Au moment où on se parle, dans le domaine des communications, il existe des outils, dont ChatGPT, qui permettent de créer un site Web en cinq minutes. Évidemment, cela ne me prend pas cinq minutes pour le faire. Il va falloir s'adapter à ces réalités d'aujourd'hui.
    À l'avenir, l'intelligence artificielle va-t-elle nous permettre de créer plus ou moins d'emplois dans le domaine des technologies de l'information?
    Par ailleurs, madame Craig, vous avez parlé de la recherche et du développement. Je pense que Mme Curran l'a fait aussi.
    Le projet de loi C‑27 risque-t-il de nuire à la recherche et au développement au Canada s'il établit des règles trop strictes en matière d'intelligence artificielle?
    Mes questions s'adressent à tout le monde. Vous pouvez y répondre l'un après l'autre si vous le voulez.
(1900)

[Traduction]

    Je suis toujours la première à répondre.
    Je peux parler un peu des répercussions sur les emplois. Nous savons très bien que les nouvelles technologies influent sur la situation de l'emploi. Rares sont ceux parmi nous qui côtoient encore dans leur milieu de travail des secrétaires et des réceptionnistes. Une bonne partie des fonctions liées à ces emplois sont désormais remplies par les technologies. Nous traversons indéniablement une transition économique, mais je crois que celle‑ci pourrait s'avérer en bonne partie extrêmement bénéfique.
    Au sujet de l'adoption de l'IA au Canada et des secteurs où nous voudrions favoriser une forte présence de cette technologie, il faudrait considérer les secteurs qui connaissent déjà une pénurie de main-d'œuvre. Les soins de santé sont un bel exemple, tout comme l'industrie de la construction. Si elle est appliquée de façon ciblée, l'IA pourrait contribuer à atténuer les pénuries de personnel. Ses diverses applications pourraient alléger le fardeau administratif des médecins et des infirmières et leur permettre de se concentrer davantage sur les patients.
    Des changements vont survenir. L'IA a parfois pour effet de créer de nouvelles possibilités économiques dans certains types d'emplois, mais le changement est une certitude.
    La parole est à vous, madame Curran.
    Je suis d'accord pour dire que l'IA va modifier le marché de l'emploi. En fait, je suis très optimiste. Il y a environ 200 ans, les agriculteurs comptaient pour 72 % des travailleurs nord-américains. Cette proportion se chiffre à moins de 2 % aujourd'hui. Soixante pour cent des emplois recensés en Amérique du Nord en 2018 n'existaient pas en 1940. Nous allons donc créer un tout nouveau groupe d'emplois. Le gouvernement et les décideurs devront toutefois travailler de concert avec les entreprises pour former la main-d'œuvre du futur et permettre aux Canadiens d'acquérir les compétences dont ils ont besoin pour faire partie des travailleurs qui occuperont des postes dans de toutes nouvelles catégories d'emplois. Je suis d'accord avec Mme Foster pour dire qu'en cette période de pénurie de main-d'œuvre, l'IA sera l'outil le plus approprié pour résoudre certains de ces problèmes.
    Quant à la R‑D, les recherches sur l'IA de calibre mondial au Canada sont menées à Montréal. Mme Joëlle Pineau, qui sera invitée, je l'espère, à venir témoigner devant le Comité, pourrait parler du travail passionnant qu'elle accomplit au Québec pour catalyser la recherche sur l'IA au niveau mondial.
    Selon moi, un mauvais cadre réglementaire ou une réglementation excessive de la part du gouvernement feraient fuir la R‑D. Vu que le Canada est un chef de file mondial de la recherche sur l'IA, ce serait vraiment dommage de perdre ce secteur.

[Français]

     Madame Craig, quelle est votre réponse?

[Traduction]

    Veuillez donner une répondre courte.
    Vous pouvez parler uniquement de l'innovation et de la recherche.
     Étant donné sa vaste portée qui englobe même la technologie à faible risque, le projet de loi pourrait affecter la recherche et l'innovation. Cela pourrait en fait freiner l'innovation. Les entreprises canadiennes, notamment les petites et moyennes entreprises, pourraient se montrer réticentes à adopter l'IA de peur de ne pas être en mesure de respecter les exigences réglementaires sur l'utilisation de l'IA dans un contexte d'innovation. La compétitivité de ces entreprises et du Canada pourrait finir par s'en ressentir.
(1905)

[Français]

    Merci beaucoup.
    Je dois maintenant mettre fin à ce tour de questions.
    Je cède la parole à Mme Lapointe pour cinq minutes.

[Traduction]

    Ma première question s'adresse à Mme Curran.
    Les médias ont rapporté la décision récente de Meta de conserver sur sa plateforme une vidéo retouchée du président des États‑Unis. Je signale que le conseil de surveillance de Meta a déclaré que cette brèche dans les politiques menaçait l'intégrité des élections dans le monde et qu'elle devait être colmatée dans les plus brefs délais. Cette déclaration est très forte et très grave. Je pense que les Canadiens s'attendent à ce que Meta observe les lois en vigueur.
    Pourriez-vous dire au Comité ce que fait votre organisation pour se protéger contre le contenu de vidéos retouchées? Que feriez-vous de différent si la LIAD était en vigueur?
    Nous avons des politiques claires contre les contenus truqués, qu'ils soient en format vidéo ou audio. Nous supprimons tout contenu trompeur.
    Il y a quelques années, nous avons mis sur pied un conseil de surveillance chargé de nous fournir des orientations pour nos politiques sur le contenu. Or, c'est exactement ce que les membres du conseil ont fait. Ils ont statué que nous avions pris la mauvaise décision. Ils ont également formulé des recommandations — que nous allons suivre — sur l'application de nos politiques.
    Nous disposons des outils les plus perfectionnés de l'industrie pour détecter et supprimer le contenu généré par l'IA. Évidemment, pour les publicités à teneur politique ou sociale, nous demandons aux annonceurs de nous dire s'ils utilisent du contenu généré par l'IA.
    Nous venons d'annoncer des exigences relatives à l'étiquetage pour le contenu produit par un humain. Nous allons étiqueter le contenu généré par l'IA pour avertir les abonnés, le cas échéant, que les images diffusées sur notre plateforme sont générées par l'intelligence artificielle. Nous collaborons avec les autres membres de l'industrie en vue d'étendre ces exigences aux contenus vidéo et audio lorsque c'est faisable sur le plan technique. Ce travail se poursuit.
    Merci.
    Ma prochaine question s'adresse à tous les témoins. Je vous demanderais de fournir des réponses courtes.
    Les gouvernements doivent travailler avec les plateformes de médias sociaux — vous l'avez dit sans équivoque aujourd'hui — pour protéger les personnes et les systèmes d'infrastructures essentielles. L'interopérabilité sera cruciale. Le projet de loi aide‑t‑il à définir les attentes auxquelles devra répondre votre organisation?
    Je vais commencer avec Mme Foster.
    Les discussions que nous tenons sur les cadres réglementaires et les mesures de contrôle nous aident à déterminer les aspects à considérer comme prioritaires lors du développement d'outils et de systèmes d'IA responsables destinés à nos clients. Nous voulons nous assurer que les clients peuvent se conformer aux lois à mesure qu'elles entrent en vigueur.
    Merci.
    Allez‑y, madame Curran.
    Si la question est de savoir si la LIAD nous aidera à établir des garde-fous au Canada, je répondrais « peut-être ». Tout dépendra de la suite des choses. Si un certain nombre des amendements qui ont été proposés par le ministre et qui suscitent des préoccupations sont intégrés au projet de loi, nous devrons réfléchir à ce que nous allons faire.
    Dans l'ensemble, la réglementation est une bonne chose, tout comme les garde-fous. De façon générale, la version originale de la LIAD est une bonne proposition. Il reste à savoir si nous pourrons régler correctement les détails.
    Madame Craig ou monsieur Weigelt, la parole est à vous.
    Innovation, Sciences et Développement économique Canada a mis sur pied un groupe de travail, le Forum canadien pour la résilience des infrastructures numériques. Je préside le groupe de travail sur l'intelligence artificielle et l'apprentissage machine. Les représentants de diverses entreprises qui le composent se penchent sur les infrastructures essentielles. Nous examinons et décortiquons les définitions de la LIAD ainsi que leur application aux infrastructures essentielles.
    Nous sommes des entreprises qui appuient les fournisseurs d'infrastructures essentielles, mais nous ne sommes pas nécessairement des fournisseurs. Nous devrons bientôt impérativement inviter des entreprises d'autres secteurs comme l'agriculture, l'eau et la fabrication pour comprendre comment ces outils et ces solutions se recoupent.
(1910)
    Merci.
    Je cède la parole aux témoins en ligne.
    Nous aimerions que les choses soient plus claires. Pour répondre à votre question, nous aurions vraiment besoin de précisions autant dans la mesure législative en tant que telle que dans son application.
    Merci.

[Français]

     Merci beaucoup, madame Lapointe.
    Monsieur Garon, vous avez la parole.
    Merci, monsieur le président.
    Nous arrivons presque à la fin des témoignages et de la comparution du groupe de témoins.
    J'essaie de me faire une opinion sur ce que j'ai entendu. J'essaie de voir où vous en êtes relativement à la réglementation, pour être pouvoir appuyer une réflexion constructive là-dessus.
    Je dois admettre que je suis un peu confus.
    D'une part, quand on vous demande collectivement s'il faut réglementer cela, la réponse est oui. Quand on vous demande s'il faut que des mesures soient prises rapidement, la réponse est oui.
    D'autre part, quand on entre dans les détails, vous nous dites que le projet de loi C‑27 n'est pas adéquat. Il contient trop de choses et touche à trop d'aspects. Vous nous dites alors, en quelque sorte, qu'il faudrait apporter des modifications à beaucoup de lois. Je note celles dont nous avons discuté aujourd'hui: la Loi canadienne sur la santé, la Loi électorale du Canada, la Loi sur la protection des renseignements personnels et les documents électroniques, le Code criminel, la Loi sur le droit d'auteur, la Loi sur les brevets et les mesures visant certaines publicités destinées aux enfants. De telles modifications requerraient un travail législatif interminable, particulièrement dans le genre de Parlement où nous siégeons aujourd'hui. Au bout du compte, cela ferait en sorte que nous n'aurions pas de réglementation.
    De plus, je pense que si nous vous présentions un projet de loi dans lequel on modifierait toutes ces lois en même temps, vous nous diriez probablement que nous revenons au problème de départ du projet de loi C‑27, et que tout cela revient au même.
    Si je comprends bien, c'est une question de relations publiques et de stratégie, entre autres.
    J'ai la mauvaise habitude d'être très direct. Je vous pose donc la question suivante. N'est-ce pas une façon un peu astucieuse de nous dire que vous ne voulez pas de réglementation?
    Prenez tout le temps qu'il reste pour répondre à ma question.

[Traduction]

    Notre but n'est pas de nous dispenser des règlements. Nous sommes tous en faveur de la mise en place de bons cadres réglementaires. Pour les aspects plus pressants, le gouvernement pourrait peut-être obtenir des résultats plus rapidement en recourant aux lois existantes.

[Français]

     Je vais vous poser une question précise.
    Pensez-vous qu'en ce moment, Santé Canada a l'expertise nécessaire pour faire cela rapidement? Le ministère a parfois de la difficulté à réglementer les médicaments.
    Pensez-vous vraiment que la commissaire aux élections fédérales a l'expertise nécessaire pour faire cela d'ici la prochaine élection, qui aura lieu d'ici un an?

[Traduction]

    La réglementation et la prise de décisions se feront plus rapidement en recourant aux textes existants. Le processus législatif à suivre pour adopter le projet de loi et élaborer des règlements de même que l'acquisition de l'expertise nécessaire pour comprendre le cas d'utilisation de Santé Canada prendront plus de temps. J'estime que les organismes de réglementation sectoriels sont en mesure de repérer rapidement les risques inhérents à leur secteur.

[Français]

    J'aimerais que vos entreprises déposent au Comité, par écrit, la liste de toutes les lois individuelles qui devraient être modifiées, selon vous, afin que nous ayons quelque chose d'à peu près équivalent. Cela pourrait être constructif. Si vous pouviez le faire, ce serait intéressant. J'aimerais bien lire cela.
    Monsieur le président, j'aimerais d'ailleurs vous demander de faire un suivi là-dessus.

[Traduction]

    Certaines lois n'auraient probablement même pas besoin d'être modifiées. Le gouvernement dispose peut-être déjà de pouvoirs neutres sur le plan technologique. Un grand nombre de points qui ont été débattus par le Comité ou qui ont été mentionnés apparaissent peut-être dans les lois en vigueur. En appliquant les lois de façon neutre sur le plan technologique, vous détiendriez peut-être déjà les pouvoirs en question.

[Français]

    Par souci d'apporter une contribution constructive, chacune de vos entreprises respectives pourrait déposer la liste de toutes les lois individuelles qui pourraient être modifiées de telle sorte que nous ayons un équivalent.
    Seriez-vous disposés à faire cela?

[Traduction]

    C'est une tâche titanesque que vous me demandez.

[Français]

    Merci, monsieur Garon.
    De plus, la liste devrait être fournie dans les deux langues officielles par la suite, évidemment.
    Sachez que vous pouvez toujours nous soumettre des documents. La demande a été faite. Libre à vous de nous fournir, par l'entremise de la greffière, ce que vous pensez être pertinent.
    Monsieur le président, je pense que Mme Craig veut ajouter quelque chose.
    Malheureusement, nous n'avons pas assez de temps, car je dois donner la parole à M. Masse. J'ai été un peu trop laxiste sur le temps de parole de tout un chacun.
    Monsieur Masse, vous avez la parole.

[Traduction]

    Je vous remercie, monsieur le président.
    Madame Curran, en réponse au projet de loi C‑18, Meta a bloqué l'accès aux nouvelles et leur transfert. De nombreux experts ont dit que cela allait rendre les enfants et les jeunes plus vulnérables aux abus. Votre PDG, Mark Zuckerberg, s'est à tout le moins excusé auprès des Américains lors des audiences du Congrès il y a quelques jours pour ce qui s'est passé.
     Pouvez-vous nous expliquer — c'est la question de la confiance qui m'intéresse ici — quel type d'analyse vous continuez de mener? Êtes-vous en désaccord avec les experts sur l'exploitation qui se fait par l'entremise de vos produits? Obtenons-nous les mêmes protections pour nos jeunes?
     Je suis surpris qu'il n'y ait pas eu d'excuses générales plus globales. Je ne sais pas quelle différence il y a, outre la citoyenneté, parmi ceux qui ont été touchés, et je pense aux problèmes importants que cela a causés, notamment aux liens avec le suicide et l'automutilation. Pouvez-vous assurer aux membres du Comité que vous poursuivez vos analyses concernant votre réponse au projet de loi C‑18, et nous dire si les jeunes Canadiens sont plus à risque en raison de la désinformation, qui les affecte mentalement?
(1915)
    Je pense qu'il s'agit de deux questions distinctes. La sécurité des jeunes et l'exploitation des jeunes en ligne sont une grande préoccupation pour nous. Nous venons d'annoncer la poursuite du déploiement d'une initiative avec le National Center for Missing & Exploited Children, le NCMEC, qui va permettre de retirer plus facilement des plateformes les images intimes et les images d'exploitation sexuelle. Nous attribuons un code numérique personnel à ces images. Les jeunes peuvent le faire eux-mêmes à partir de leurs appareils sans diffuser l'image. Une fois que le NCMEC et nous avons reçu ce code, nous pouvons nous assurer que ces images ne sont pas diffusées plus largement sur nos plateformes et sur l'ensemble de l'Internet.
     Nous prenons diverses mesures pour nous assurer que les jeunes sont protégés sur nos plateformes. C'est une bataille permanente, je dois l'admettre, et nous travaillons avec d'autres membres de l'industrie pour nous assurer que les jeunes sont protégés.
    Le cas du C‑18 et du contenu des nouvelles en ligne est très différent. Nous avons dû supprimer l'accès à ce contenu dans le cadre d'une stratégie de conformité. Nous ne voulions pas avoir à le faire. Si nous sommes exemptés de l'application de cette loi, nous serons heureux de rétablir le tout. J'espère que nous pourrons continuer à travailler avec le gouvernement dans ce dossier.
    Il ne me reste plus beaucoup de temps.
    Je suis vraiment préoccupé par le fait que la réponse au projet de loi C‑18 n'est pas la même que dans d'autres pays. La désinformation sur les sujets que j'ai notés est particulièrement inquiétante.
     Y a‑t‑il une analyse en cours au sujet du projet de loi C‑18 et de la réponse de Meta pour savoir si cela expose les jeunes à plus, ou à moins, de risques en raison de la désinformation? Encore une fois, votre PDG s'est à tout le moins excusé auprès des Américains sur cette question, mais pas auprès des Canadiens. Y a‑t‑il une analyse en cours de votre réponse au projet de loi C‑18 pour savoir si elle a causé plus de tort et de désinformation, en affectant ainsi la santé mentale des jeunes qui utilisent votre produit?
     Encore une fois, aucun autre gouvernement n'a fait adopter un projet de loi comme le C‑18. Nous serions heureux de collaborer avec le gouvernement pour réactiver l'accès au contenu des nouvelles, s'il est en mesure de nous exempter de son application. Le gouvernement canadien est le seul à avoir adopté un projet de loi de cette nature.
    Il s'agit d'une question distincte des efforts que nous déployons pour protéger les jeunes sur nos plateformes, des efforts que nous faisons en permanence. Nous avons récemment fait diverses annonces à cet égard. Nous allons poursuivre ce travail très activement, car il s'agit d'une priorité absolue pour nous.
     Encore une fois, il s'agit d'une question distincte de celle de l'accès à l'information en ligne au Canada, que nous avons dû supprimer dans le foulée de la Loi sur l'information en ligne du gouvernement.
    Je vous remercie, monsieur Masse.
    Nous n'avons plus de temps, mais j'accorde une minute supplémentaire à M. Perkins pour poser une dernière question. J'espère qu'il se souviendra de ce geste aimable lorsque nous passerons à l'étude article par article.
    Monsieur Perkins, allez‑y.
    Je me souviendrai de tous vos gestes aimables, et ce n'est pas le premier.
     J'ai juste une petite question, M. Weigelt.
     J'ai rencontré un de nos témoins précédents plus tard et, selon lui, ce qui manque dans ce projet de loi, lorsqu'on pense à l'avenir et à l'intelligence artificielle en général, c'est la capacité du gouvernement à réglementer en fonction de la puissance informatique. Faut‑il ajouter un article qui donne au gouvernement la possibilité de s'adapter à cela au fil du temps?
    Il existe différentes écoles de pensée concernant la puissance informatique requise pour ces modèles. L'Union européenne a, bien sûr, mis en place des paramètres à cet effet.
     Il y a de nouveaux développements passionnants dans ce que l'on appelle les petits modèles de langage, et la communauté des utilisateurs de codes sources libres, qui est très vaste, construit des modèles très puissants. Je suggère de ne pas parler de performance et de capacité de l'unité centrale. Il faut plutôt parler des caractéristiques et de ce que ces modèles font et de ce qu'ils offrent.
     Encore une fois, il est important que nous mettions en place des garde-fous pour l'avenir afin que, lorsque ces nouveaux outils apparaîtront, nous ayons des environnements réglementaires puissants qui nous aident à protéger les Canadiens contre les préjudices qui pourraient survenir.
(1920)
    Je vous remercie beaucoup.
    Je remercie tous nos témoins aujourd'hui. Les discussions ont été captivantes. Si vous avez d'autres renseignements pertinents à transmettre au Comité, n'hésitez pas à les faire parvenir par écrit à la greffière.

[Français]

     Je vous remercie beaucoup d'avoir participé à cette rencontre.
    La séance est levée.
Explorateur de la publication
Explorateur de la publication
ParlVU