Passer au contenu
Début du contenu

CHPC Réunion de comité

Les Avis de convocation contiennent des renseignements sur le sujet, la date, l’heure et l’endroit de la réunion, ainsi qu’une liste des témoins qui doivent comparaître devant le comité. Les Témoignages sont le compte rendu transcrit, révisé et corrigé de tout ce qui a été dit pendant la séance. Les Procès-verbaux sont le compte rendu officiel des séances.

Pour faire une recherche avancée, utilisez l’outil Rechercher dans les publications.

Si vous avez des questions ou commentaires concernant l'accessibilité à cette publication, veuillez communiquer avec nous à accessible@parl.gc.ca.

Publication du jour précédent Publication du jour prochain
Passer à la navigation dans le document Passer au contenu du document






Emblème de la Chambre des communes

Comité permanent du patrimoine canadien


NUMÉRO 125 
l
1re SESSION 
l
44e LÉGISLATURE 

TÉMOIGNAGES

Le jeudi 13 juin 2024

[Enregistrement électronique]

  (1545)  

[Français]

    Je déclare la séance ouverte.
    Je vous souhaite la bienvenue à la 125e réunion du Comité permanent du patrimoine canadien de la Chambre des communes.
    Je voudrais reconnaître que cette réunion a lieu sur le territoire traditionnel et non cédé du peuple anishinabe algonquin.

[Traduction]

    Conformément à l'article 108(2) du Règlement et à la motion adoptée par le Comité le 14 février 2022, nous poursuivons notre étude sur les préjudices en ligne.
    Avant de commencer, j'aimerais inviter les députés et les autres participants qui assistent à la réunion en personne à consulter les cartes sur la table et à prendre connaissance des mesures mises en place pour protéger la santé et la sécurité de tous, et particulièrement celles des interprètes. Utilisez seulement les oreillettes noires dûment approuvées et veillez à les tenir éloignées de tous les microphones. Il y a un petit autocollant devant vous. Vous pourrez y déposer votre oreillette à l'envers quand elle est inutilisée. Merci de suivre ces consignes pour éviter les réactions acoustiques qui se produisent parfois et qui sont dommageables pour nos interprètes.
    La réunion se déroule dans un cadre hybride. Suivant la motion de régie interne du Comité, je vous avise que tous les témoins ont effectué un essai sonore avant la réunion.
    J'ai quelques observations à formuler pour la gouverne des députés et des témoins. Veuillez attendre que je vous nomme avant d'intervenir. Vous pourrez lever la main pour demander la parole. Si vous nous joignez en ligne, vous pourrez le faire en activant l'icône de main levée et, si vous êtes dans la salle, vous pourrez simplement lever la main et je vais dire votre nom.
    Je vous rappelle de toujours vous adresser à la présidence. Par ailleurs, il est interdit de prendre des photos durant la réunion. Vous aurez accès à une diffusion des délibérations en ligne après la réunion.
    Conformément à la motion adoptée par le Comité le mardi 9 avril, M. Claude Barraud, qui est psychothérapeute au centre de santé Homewood, est présent dans la salle.
    Monsieur Barraud, pouvez-vous lever la main ou vous lever pour que les gens sachent où vous êtes?
    Si vous éprouvez de la détresse ou un malaise en entendant certaines choses et que vous souhaitez en parler, il pourra vous venir en aide.
    Je souhaite la bienvenue aux témoins. L'ordre de présentation a été établi, mais je souligne que deux témoins devront nous quitter à 16 h 30. Il s'agit de Mme Heidi Tworek, professeure agrégée à l'Université de la Colombie-Britannique, ainsi que de Mme Monique St. Germain, avocate générale au Centre canadien de protection de l'enfance. Toutes deux nous joignent par vidéoconférence et elles devront nous quitter à 16 h 30.
    De 15 h 30 à 17 h 30, ou si, en raison d'un vote, nous commençons plus tard… Nous recevons Mme Shona Moreau et Mme Chloe Rourke, toutes deux de la Faculté de droit de l'Université McGill; Mme Signa Daum Shanks, professeure agrégée à la Faculté de droit de l'Université d'Ottawa, ainsi que M. Keita Szemok-Uto, avocat.

  (1550)  

    Avant de donner la parole aux témoins, je précise que cinq minutes sont allouées non pas à chaque témoin, mais au groupe représenté. Je remarque qu'il y a deux personnes de l'Université McGill sur la liste. Je leur laisse le soin de décider qui sera leur porte-parole.
    À 30 secondes de la fin de votre temps de parole, je vais vous avertir en disant « 30 secondes » et vous pourrez conclure votre déclaration. Si vous n'avez pas eu le temps de finir, vous pourrez ajouter des éléments d'information durant la période des questions et réponses.
    Merci à tous.
    Nous allons commencer avec Mme Heidi Tworek, de la Colombie-Britannique. Vous avez cinq minutes.
    Merci, madame la présidente, de me donner la possibilité de vous joindre en ligne pour participer au débat sur ce sujet important.
    Je suis professeure et titulaire de la Chaire de recherche du Canada de l'Université de la Colombie-Britannique, à Vancouver. Je dirige le Centre for the Study of Democratic Institutions, où nous menons des recherches sur les plateformes et les médias. Il y a deux ans, j'ai siégé au groupe consultatif d'experts sur la sécurité en ligne du ministère du Patrimoine canadien.
    Aujourd'hui, je vais me concentrer sur trois grands aspects des préjudices liés au matériel sexuellement explicite illégal diffusé en ligne avant de parler brièvement de la manière dont le projet de loi C-63 pourrait contribuer à contrer certains de ces préjudices.
    Premièrement, l'enjeu du matériel sexuellement explicite illégal recoupe largement l'enjeu plus large des préjudices et du harcèlement en ligne, qui touchent les femmes de manière disproportionnée. Selon une enquête menée en 2021, les femmes journalistes au Canada étaient près de deux fois plus susceptibles de recevoir des images ou des messages à caractère sexuel, et six fois plus susceptibles de recevoir des menaces de viol ou d'agression sexuelle en ligne. Les journalistes queers, racisées, juives, musulmanes et autochtones ont subi le plus de harcèlement.
    Outre les répercussions sur leur santé mentale ou les craintes pour leur intégrité physique, beaucoup ont songé à quitter leurs fonctions ou sont moins enclines à accepter un poste qui leur donne une visibilité publique. D'autres ont été découragées de faire carrière dans le journalisme. Depuis cinq ans, mes travaux sur d'autres groupes professionnels, dans les domaines de la politique et de la communication en matière de santé notamment, ont révélé des dynamiques très similaires. Le harcèlement en ligne a un effet paralysant sur toute la société si les professionnels ne reflètent pas la diversité de la société canadienne.
    Deuxièmement, l'intelligence artificielle, ou IA, générative accentue le problème du matériel sexuellement explicite illégal. Prenons l'exemple des hypertrucages, qui sont des images ou des vidéos générées artificiellement dans lesquelles on substitue le visage d'une personne à celui d'une autre personne qui est nue pour représenter des actes qu'aucune des deux n'a commis. Récemment, des personnes célèbres comme Taylor Swift et la représentante au Congrès américain Alezandria Ocasio-Cortez ont été les cibles d'hypertrucages. Ce ne sont pas des exemples isolés. Comme l'a si bien résumé le journaliste Sam Cole, les hypertrucages sexuellement explicites ont toujours été utilisés principalement pour harceler, faire chanter ou menacer les femmes, ou tout simplement pour discréditer leur consentement.
    Les hypertrucages existent depuis quelques années, mais l'IA générative a considérablement facilité l'accès. Le nombre de vidéos hypertruquées a augmenté de 550 % de 2019 à 2023. Ces vidéos sont faciles à produire parce que le tiers des outils d'hypertrucage permet de créer du contenu pornographique, qui représente 95 % de toutes les vidéos hypertruquées. Comme dernière statistique, je mentionne que les femmes représentent 99 % des personnes figurant dans le contenu pornographique hypertruqué.
    Troisièmement, bien qu'il soit à première vue facile de définir ce qu'est le matériel sexuellement explicite illégal, une grande vigilance s'impose concernant les plateformes qui offrent exclusivement des solutions automatisées. Notamment, que se passera-t-il si une consultante en allaitement donne des conseils en ligne? Des systèmes de modération du contenu entièrement automatisés pourraient supprimer ce matériel, particulièrement s'ils ont été formés à chercher seulement certaines parties du corps comme les mamelons. Étant donné que les lois provinciales en matière de droits de la personne protègent l'allaitement presque partout au Canada, la suppression de ce type de contenu pourrait soulever des questions concernant la liberté d'expression. Si l'allaitement en public est autorisé dans la vie réelle, pourquoi ne pas en discuter en ligne? Cet exemple montre que les modérateurs de contenu humains restent nécessaires. Il est aussi nécessaire de leur donner une formation qui leur permettra de comprendre les lois et le contexte culturel du Canada, et de leur donner du soutien pour faire ce travail très difficile.
     Enfin, permettez-moi d'expliquer comment le projet de loi C-63 devrait traiter certains de ces enjeux.
    Le projet de loi C-63 propose des modifications au Code criminel et à la Loi canadienne sur les droits de la personne qui soulèvent des questions légitimes. Toutefois, pour ce qui concerne le sujet de cette réunion, je vais parler brièvement de la partie du projet de loi portant sur les préjudices en ligne.
    Le projet de loi C-63 s'inspire des excellentes mesures législatives adoptées par l'Union européenne, le Royaume-Uni et l'Australie. Le Canada deviendrait la quatrième ou la cinquième autorité dans le monde à adopter une telle mesure, et il se retrouve de plus en plus en position de marginalité au chapitre de la réglementation de la sécurité en ligne.
     Toutefois, le projet de loi C-63 préconise trois types d'obligations pour les plateformes. Les deux premières sont l'obligation de protéger les enfants et d'agir de manière responsable pour atténuer le risque associé à sept types de contenu préjudiciable. La troisième obligation, qui est la plus stricte et la plus pertinente dans le cadre de ce débat, est de rendre inaccessibles deux types de contenu, soit celui représentant l'exploitation sexuelle d'enfants et tout contenu intime communiqué de façon non consensuelle, y compris les hypertrucages. En principe, cette obligation devrait protéger les personnes dont le visage et le corps apparaissent dans un hypertrucage. La Commission canadienne de la sécurité numérique, nouvellement constituée, aurait le pouvoir d'exiger le retrait de ce contenu dans un délai de 24 heures et d'imposer des amendes ainsi que d'autres mesures en cas de non-respect.

  (1555)  

     Le projet de loi C-63 prévoit en outre la création d'un poste d'ombudsman de la sécurité numérique qui offrirait une tribune aux intervenants et qui recevrait les plaintes des utilisateurs advenant qu'une plateforme ne respecte pas ses obligations législatives. L'ombudsman pourrait aussi recevoir les plaintes des utilisateurs eu égard au retrait de contenu légitime.
    Le projet de loi C-63 ne réglera certainement pas tous les problèmes liés au matériel sexuellement explicite illégal. Par exemple, le traitement des copies de matériel enregistré sur des serveurs se trouvant à l'étranger…
    Merci, madame Tworek.
    Je vous demanderais de conclure. Vous pourrez donner des compléments d'information durant la période des questions. Merci.
    Vous pouvez finir votre phrase.
     Le projet de loi C-63 marque un pas dans la bonne direction pour nous attaquer à un problème qui, hélas, s'aggrave rapidement.
    Je serai heureuse de répondre à vos questions.
    Nous allons maintenant entendre la porte-parole du Centre canadien de protection de l'enfance, Mme Monique St. Germain.
    Madame St. Germain, vous avez la parole pour cinq minutes.
    Je m'appelle Monique St. Germain et je suis l'avocate générale du Centre canadien de protection de l'enfance, un organisme de bienfaisance national qui a pour mission de réduire l'incidence des disparitions et de l'exploitation sexuelle d'enfants.
    Nous gérons le site Web cyberaide.ca, une centrale nationale de signalement des cas d’exploitation sexuelle d’enfants sur Internet. Cyberaide.ca reçoit et traite des signalements venant du public, et transmet les renseignements pertinents aux services de police et de protection de l’enfance, le cas échéant. En moyenne, cyberaide.ca reçoit plus de 2 500 signalements par mois. Depuis le début des activités, plus de 400 000 signalements ont été traités.
    Quand le site cyberaide.ca a été lancé en 2002, Internet était encore assez rudimentaire et l'essor des médias sociaux restait à venir. Au fil des années, la technologie a évolué rapidement, sans garde-fous et sans intervention notable des gouvernements. Les vices de construction du réseau Internet ont permis aux cyberprédateurs de prendre contact avec des enfants en ligne et de les exploiter, mais surtout d'agir sous le couvert de l'anonymat. Ces vices ont également favorisé la prolifération de contenu d'exploitation sexuelle d'enfants, ou pédopornographique, à une vitesse jamais vue. Les victimes sont prisonnières d'un cycle sans fin d'exploitation.
    Et les choses empirent. Des regroupements de délinquants opèrent ouvertement sur le réseau Tor, ou le Web caché. Ils échangent des conseils et des astuces pour exploiter des enfants et éviter de se faire prendre. Ils partagent des renseignements extrêmement personnels sur leurs victimes. Le contenu pédopornographique est diffusé ouvertement, pas seulement dans les recoins les plus obscurs d'Internet, mais aussi sur les sites Web, les plateformes de partage de fichiers, les forums et les sites de clavardage accessibles à tous ceux qui ont une connexion Internet.
    Divers pays ont donné la priorité à l'arrestation et à la condamnation des délinquants sur une base individuelle. C'est primordial, certes, mais nous avons oublié des acteurs cruciaux, les entreprises elles-mêmes, dont les produits facilitent et amplifient le mal. Ainsi, au Canada, il existe un seul cas connu d'entreprise qui a été déclarée coupable et sanctionnée pour la diffusion de contenu pédopornographique. Les procédures se sont étendues sur huit ans et ont coûté des milliers de dollars. Le droit criminel ne peut pas être notre seul outil de lutte contre un problème d'une telle ampleur.
    En 2017, après avoir constaté la rapidité avec laquelle les contenus pédopornographiques prolifèrent sur Internet, nous avons lancé le projet Arachnid. Cet outil novateur détecte où ce genre de contenu est publié sur Internet et envoie un avis pour demander sa suppression. Déployé à grande échelle, l'outil transmet environ 10 000, parfois jusqu'à 20 000, demandes de retrait par jour. Jusqu'ici, plus de 40 000 millions d'avis ont été transmis à plus de 1 000 fournisseurs de services.
    Grâce au projet Arachnid, nous avons beaucoup appris sur la distribution de contenu pédopornographique, et grâce à cyberaide.ca, nous comprenons comment les enfants sont ciblés, pris pour victimes et subissent de la sextorsion sur les plateformes qu'ils utilisent tous les jours. L'ampleur des torts causés est effarante.
    Au fil du temps, le contenu pédopornographique diffusé en ligne est devenu plus troublant; on y retrouve aujourd'hui des actes de sadisme, du ligotage, de la torture et de la bestialité. Les victimes sont de plus en plus jeunes et les sévices deviennent de plus en plus explicites. Du contenu pédopornographique dans lequel figurent des adolescents est publié sur des sites pornographiques et c'est difficile de le faire retirer à moins que l'enfant se manifeste et donne une preuve de son âge. Les obstacles à franchir pour obtenir un retrait sont innombrables, alors que le téléchargement de ce matériel peut se faire en un clin d'oeil, au détriment des enfants.
    Bien évidemment, le contenu sexuellement explicite cause des torts aux enfants. Pendant des années, nos lois applicables au monde hors ligne les ont protégés, mais nous les avons abandonnés depuis l'apparition d'Internet. Nous savons que tous ceux qui sont exposés à du contenu pédopornographique subissent des préjudices. Il peut banaliser des actes sexuels préjudiciables, conduire à de fausses croyances sur la disponibilité sexuelle des enfants et exacerber les comportements agressifs. Le contenu pédopornographique nourrit les fantasmes et peut exposer d'autres enfants à des préjudices.
    Selon notre examen de la jurisprudence canadienne, 61 % des délinquants ayant produit du contenu pédopornographique au Canada en avaient aussi recueilli.
    Le contenu pédopornographique est aussi utilisé pour amadouer les enfants. Près de la moitié des survivants qui ont répondu à notre enquête sur le contenu pédopornographique ont déclaré avoir été la cible de cette tactique. Les enfants sont enregistrés à leur insu par des prédateurs durant une interaction en ligne, et beaucoup font ensuite l'objet de sextorsion. Les actes de violence sexuelle commis par des enfants sont en hausse et un nombre grandissant imitent les comportements prédateurs des adultes et ont ensuite des démêlés avec la justice criminelle.
    Le contenu pédopornographique est un enregistrement d'actes criminels commis contre des enfants et des vies sont ruinées parce que ce contenu reste accessible. Les survivants nous le répètent sans cesse: tant que les échanges du contenu pédopornographique où ils figurent sont possibles, ils ne peuvent pas aller de l'avant. Ils vivent dans la peur constante d'être reconnus et harcelés. Ce n'est pas normal.
    La gestion des préjudices liés à Internet retombe en grande partie sur les épaules des parents. C'est irréaliste et injuste. Nous accueillons avec énormément de satisfaction les propositions législatives du projet de loi C-63 qui obligent l'industrie à prendre ses responsabilités. Ce n'est pas trop tôt.

  (1600)  

    Pour protéger les citoyens, il faut absolument accorder la priorité au retrait du contenu pédopornographique et des images intimes. Nous accueillons favorablement les mesures visant à exiger l'intégration dès la conception de mécanismes de sécurité et de technologies de vérification ou de confirmation de l'âge pour tenir les enfants à l'écart de la pornographie. Nous aimerions aussi que des outils comme le projet Arachnid soient davantage utilisés pour qu'il y ait plus de retraits de contenu pédopornographique et empêcher les retéléversements. De plus, comme d'autres l'ont dit avant moi, la sensibilisation du public est fondamentale. Nous devons utiliser tout ce qui est offert dans la boîte à outils.
    Merci.
    Merci beaucoup.
    Je cède maintenant la parole à Mmes Moreau et Rourke.
    Laquelle d'entre vous agira comme porte-parole? Vous allez nous présenter chacune une partie de la déclaration?
    Vous avez quand même cinq minutes, comme vous le savez. Bien.
    Nous vous écoutons. Qui commence?
    Je vais commencer, si vous me le permettez. Merci beaucoup.
    Je vous en prie, madame Moreau.

[Français]

    Madame la présidente, mesdames et messieurs les membres du Comité permanent du patrimoine canadien, je vous remercie de m'avoir invitée à venir témoigner devant vous aujourd'hui.
    Bien que cette étude couvre un large éventail de sujets, nous sommes ici pour mettre en lumière une dimension bien précise, soit la nécessité de lutter contre la menace croissante que représente la pornographie hypertruquée et ses effets sur les femmes et les filles au Canada.

[Traduction]

    Notre exposé va porter sur trois aspects importants des hypertrucages. Premièrement, qu'est-ce qu'un hypertrucage? Deuxièmement, qui sont les personnes touchées? Et troisièmement, que peut-on faire à ce sujet?
    La technologie de l'hypertrucage, comme vous le savez, utilise l'IA générative pour créer du faux contenu audiovisuel en altérant l'apparence des personnes et en exploitant les similitudes. Avec les progrès technologiques, le contenu généré par l'IA est devenu de plus en plus raffiné et difficile à distinguer du contenu filmé dans la vie réelle. Des hypertrucages très réalistes peuvent maintenant être générés à partir d'une simple photographie, si bien que les personnes célèbres et les personnalités publiques ne sont pas les seules victimes potentielles. Cette technologie pose un risque pour tout le monde et, bien qu'il en existe d'autres, l'utilisation la plus courante de l'hypertrucage est de loi la pornographie non consensuelle.
    La grande majorité des hypertrucages sont de nature pornographique et ils mettent en scène des femmes dans une proportion écrasante. Le Comité doit bien comprendre que cette utilisation sexiste et sexualisée de la technologie n'est pas nouvelle. Le terme deepfake, ou hypertrucage, est apparu en 2017 pour désigner une pratique consistant à utiliser des outils en ligne pour superposer le visage de femmes célèbres sur celui d'autres femmes dans des vidéos pornographiques. Autrement dit, la pornographie non consensuelle est une des principales applications de cette technologie depuis le début.
    Si l'utilisation et la création non autorisées de fausses images intimes ne sont pas nouvelles — il suffit de penser à Photoshop, qui existe depuis des décennies —, l'avènement de la technologie d'IA générative a fait en sorte que le problème a atteint une proportion inédite. Aujourd'hui, du contenu pornographique truqué d'un grand réalisme et très convaincant peut être produit rapidement avec un minimum d'efforts et de compétences. Même si elles sont truquées, ces images causent des préjudices réels aux victimes sur les plans émotif, social et réputationnel.
    Maintenant, même les enfants sont touchés. Au cours de la dernière année, on a rapporté d'innombrables cas d'écolières qui se sont retrouvées dans des hypertrucages pornographiques que leurs collègues de classe s'échangeaient entre eux.
    Tout cela est la preuve que la pornographie hypertruquée n'est pas à prendre à la légère. C'est un enjeu réel. Elle représente une menace importante pour les personnes, elle porte atteinte à la dignité humaine et, pour cette raison, elle exige qu'on s'y attarde et qu'on prenne les mesures qui s'imposent.
    Merci.
    Madame Rourke, il vous reste 2 minutes et 16 secondes.
    Pour s'attaquer efficacement à cet enjeu, il faut tout d'abord comprendre comment les lois peuvent être élargies pour s'appliquer aux hypertrucages, mais aussi pourquoi les cadres réglementaires actuels sont insuffisants.
    Tout d'abord, les dispositions des lois canadiennes qui interdisent la distribution non consensuelle de pornographie — l'article 162.1 du Code criminel, entre autres — doivent être revues et élargies pour s'appliquer aux images modifiées comme les hypertrucages. Cette réforme enverrait le message très clair que ces pratiques sont répréhensibles et ne seront pas tolérées.
    Il faut toutefois réaliser que ce n'est pas suffisant. À la différence d'un enregistrement réel, un hypertrucage n'est pas lié à un moment, à un lieu ou à un partenaire sexuel précis. C'est facile de produire ce contenu et de le distribuer de façon anonyme. Par conséquent, il est difficile dans la pratique d'identifier les auteurs et de les tenir légalement responsables, et l'effet dissuasif réel de ces dispositions sera limité.
    De plus, même si l'auteur est identifié, les sanctions pénales ou civiles encourues ne permettront pas à la victime de recouvrer le respect de sa vie privée, sa dignité ou son sentiment de sécurité, a fortiori si le contenu reste dans le domaine public. Pour remédier au caractère permanent des préjudices, nous devons nous attaquer au rôle et à la responsabilité des plateformes numériques. Les plateformes technologiques comme Google et les sites pornographiques offrent déjà la possibilité à une personne de demander le retrait et le déréférencement de leurs sites Web d'images pornographiques non consensuelles dans lesquelles elles figurent. Il s'agit néanmoins d'une solution imparfaite, car après la diffusion publique d'un contenu, il est impossible de le faire disparaître complètement d'Internet. Il est par contre possible de le rendre moins visible et donc moins nuisible.
    La mise en place de ce genre de régimes contribuerait à atténuer les torts causés à la réputation par la pornographie non consensuelle, que le contenu soit réel ou synthétique, et offrirait un recours plus immédiat et plus pratique aux victimes. Les autorités publiques de réglementation devraient collaborer avec les grandes plateformes en ligne pour les obliger à adopter ce genre de procédures et en assurer l'efficacité, l'accessibilité et l'application réelle.

  (1605)  

    Enfin, il est important d'envisager cette technologie dans le contexte de la violence fondée sur le sexe et des attitudes sociales à l'égard de la sexualité des femmes.
    La diffusion non consensuelle de pornographie fait déjà partie de l'arsenal utilisé contre les femmes et elle est exacerbée par les hypertrucages parce que n'importe qui peut créer et distribuer ce type de contenu. Les femmes auront très peu de moyens pour se protéger. Les hypertrucages sont déjà utilisés pour cibler, harceler et museler les femmes journalistes et les politiciennes. Si rien n'est fait, cette technologie risque de réécrire des conditions de participation des femmes à la sphère publique.
    Cette technologie évolue rapidement et les préjudices sont déjà bien réels. Aucune loi ne pourra à elle seule en venir à bout, bien évidemment, mais nous pouvons agir et il appartient aux assemblées législatives d'ouvrir la voie.
    Merci.
    Merci, madame Rourke.
    Je donne maintenant la parole à Mme Shanks, de la Faculté de droit de l'Université d'Ottawa.
    Vous disposez de cinq minutes.
    Je suis professeure de droit à l'Université d'Ottawa et professeure de droit en congé à l'Osgoode Hall Law School. Je suis membre du Barreau de l'Ontario.
    Je suis spécialisée dans l'histoire des lois, leurs répercussions sur les groupes marginalisés, le droit et l'économie, ainsi que du droit de la responsabilité délictuelle. J'enseigne au niveau universitaire depuis 26 ans. Mon travail d'enseignement comporte un volet d'information de la magistrature sur les tendances en droit et l'animation de séances de perfectionnement professionnel à l'intention des juristes.
    Aujourd'hui, je vais me concentrer sur l'influence du droit de la responsabilité délictuelle sur la législation. Pourquoi? Parce qu'il s'intéresse expressément aux préjudices et à leurs conséquences. Le droit de la responsabilité délictuelle a aussi permis aux tribunaux d'arbitrer les questions sur lesquelles on n'a pas encore légiféré. Il a ses avantages et ses inconvénients pour ce qui est de rendre la société meilleure. Considéré comme faisant partie du droit privé, il traite de questions comme les sévices à la personne, l'infliction intentionnelle de détresse psychologique, l'intimidation et les manquements à un devoir de fiduciaire, notamment à l'égard d'enfants ou de personnes autochtones, dont on entend de plus en plus parler.
    Deux observations me semblent importantes à l'égard de ce projet de loi qui porte sur les préjudices.
    La première a trait aux interactions entre le droit privé et la législation. Historiquement, les juges ont été saisis de multiples questions intéressant le droit privé après que les parties et, au bout du compte, le juge aussi, ont conclu que la société reconnaîtrait qu'il y a eu un certain préjudice. Il est possible que ce préjudice n'ait pas encore été défini dans la législation et qu'il semble nouveau. Toutefois, ces questions sont interprétées au vu de la jurisprudence et, même si la désignation d'un préjudice peut être nouvelle, ses composantes peuvent être connues et déjà prises en considération.
    Le droit de la responsabilité délictuelle a contribué à la création d'outils qui ont été et qui continuent d'être intégrés aux lois. Comme pour d'autres questions de droit, il y a souvent ce qu'on appelle un dialogue. Les événements qui surviennent dans la société ont souvent une incidence sur les arguments invoqués devant les tribunaux, et ces arguments sont connus de ceux qui rédigent et mettent en oeuvre les lois, comme vous tous. Dans ce dialogue, il arrive que la législation introduise une idée, et les parties énonceront des points de vue sur cette législation devant le tribunal.
    L'idée du lien permanent entre le droit privé et la législation est cardinale pour comprendre que la plupart des litiges en matière de responsabilité délictuelle ne sont pas tranchés en première instance. Cela signifie que les plaidoiries, les négociations et les décisions surviennent aux premiers stades d'un litige. Ces premiers stades sont en fait organisés par les tribunaux et plusieurs parties, y compris les juges, y participent afin d'évaluer la nature et l'étendue du préjudice allégué. Si l'examen d'une question délictuelle n'est pas guidé par la législation, il faut du temps et de l'espace dans l'appareil judiciaire pour tirer les choses au clair.
    Nous avons tous entendu les récits de gens qui ne sont pas sentis bien écoutés en raison de la lenteur du processus judiciaire. Cette lenteur est possiblement amplifiée s'il n'existe pas de législation permettant de trancher rapidement une partie ou l'intégralité des facettes d'un problème. Le droit privé a contribué à une reconnaissance accrue de certains préjudices. Toutefois, si l'examen d'un préjudice en droit privé n'est pas guidé par la législation, il faut parfois du temps pour comprendre différents exemples de ce préjudice et empêcher qu'il se produise. On peut aussi penser qu'à cause de cela, ce préjudice sera infligé plus souvent.
    Ma seconde observation porte sur le moment où une mesure législative est proposée. À mon sens, toute mesure législative sur les préjudices en ligne, et particulièrement ceux qui sont infligés à des groupes considérés comme plus vulnérables, peut offrir les mêmes bénéfices que le droit privé tout en nous évitant certaines de ses limites. Exiger d'une partie qu'elle agisse de manière responsable, par exemple, s'apparente à une mesure qui pourrait relever du droit de la négligence. C'est un concept qui est aussi largement répandu en matière de délits intentionnels comme l'infliction intentionnelle de détresse psychologique. Même si nous commençons à peine à assimiler ce terme, il est déjà bien implanté.
    Qui plus est, nous pouvons apprendre des autres pays qui ont réussi à intégrer l'obligation d'agir de manière responsable dans un système fondé sur les droits comme celui du Canada. Je crois que les fondements de cette obligation ont déjà été établis en droit canadien.
    La législation a aussi un effet dissuasif que le droit privé n'a pas toujours, car elle peut, du moins on le souhaite, empêcher que la plupart des préjudices intentionnels soient infligés. Le traitement de ces questions dans une loi influencée par le droit de la responsabilité délictuelle, et particulièrement s'il s'agit de questions urgentes en raison de leur nature et de leur progression, peut assurer une efficacité sociale et judiciaire que les tendances en droit privé ne permettent pas la plupart du temps.
    Merci d'avoir inclus l'obligation d'agir de manière responsable dans cette législation afin de guider son évaluation par les tribunaux et la société. Cette obligation renforce le projet de loi et elle va réduire le risque de litiges.
    Merci de m'avoir donné la parole. Je me réjouis de discuter avec vous de ce sujet.

  (1610)  

    Merci, madame Shanks.
    Je cède maintenant la parole à M. Szemok-Uto, pour cinq minutes.
    Madame la présidente, mesdames et messieurs les membres du Comité, je vous remercie de me donner l'occasion de m'exprimer devant vous cet après-midi.
     En guise d'aperçu, je m'appelle Keita Szemok-Uto. Je suis originaire de Vancouver. J'ai été admis au barreau le mois dernier. J'exerce principalement dans le domaine du droit de la famille, mais aussi dans celui du travail et de la protection de la vie privée. J'ai fait mes études de droit à Dalhousie, à Halifax, et j'y ai suivi un cours sur le droit de la protection de la vie privée. J'ai choisi de rédiger mon mémoire sur le concept des hypertrucages, dont nous parlons aujourd'hui. Je m'intéressais à la manière dont une personne pouvait créer un hypertrucage, en particulier une vidéo sexuelle ou pornographique, et à la manière dont cela pouvait porter atteinte au droit à la vie privée d'une personne, et en rédigeant ce mémoire, j'ai découvert la dynamique clairement sexiste de la création et de la diffusion de ce genre d'hypertrucages.
    Je vous donne un exemple. Vers le mois de janvier de cette année, quelqu'un en ligne a créé au moyen de l'intelligence artificielle et diffusé publiquement de fausses images sexuellement explicites de Taylor Swift. Elles ont été rapidement partagées sur Twitter et visionnées une multitude de fois — je crois qu'une photo a été vue jusqu'à 50 millions de fois. Dans un article de l'Associated Press, une professeure de l'université George Washington, aux États-Unis, a qualifié les femmes de « canaris dans la mine de charbon » pour ce qui est de l'usage abusif de l'intelligence artificielle. Elle aurait dit: « Ce ne sera pas seulement une jeune fille de 14 ans ou Taylor Swift. Ce seront des hommes politiques, des dirigeants du monde entier, des élections. »
    Même avant cela, en avril 2022, il était frappant de voir la capacité de, essentiellement, n'importe qui de prendre des photos des médias sociaux de quelqu'un, de les transformer en hypertrucages et de les diffuser largement sans, vraiment, aucune réglementation. Encore une fois, les cibles de ces hypertrucages, bien qu'il puisse s'agir de célébrités ou de dirigeants mondiaux, sont souvent des personnes qui n'ont pas les moyens financiers ou les protections d'une célébrité bien connue. Pire encore, à mon avis, en rédigeant ce document, j'ai découvert qu'il n'existe pas encore de système de droit adéquat protégerait les victimes de ce genre d'atteinte à la vie privée. C'est une question qui n'est abordée que maintenant avec le projet de loi sur les préjudices en ligne.
     J'ai examiné l'article 162 du Code criminel, qui interdit la publication, la distribution ou la vente d'une image intime, mais la définition d'une « image intime » dans cet article est une vidéo ou une photo dans laquelle une personne est nue et dans des circonstances où la personne avait une attente raisonnable de protection en matière de vie privée au moment de la production de l'image ou de la perpétration de l’infraction. Encore une fois, je pense que l'élément « attente raisonnable de protection en matière de vie privée » reviendra souvent dans les débats juridiques sur les hypertrucages. Lorsque vous prenez la photo d'une personne sur un média social, qui est prise et affichée publiquement, on peut se demander si cette personne avait une attente raisonnable en matière de respect de la vie privée au moment où elle a été prise.
     Dans mon article, j'ai examiné différents genres de délits. Je me suis dit que si le droit pénal ne pouvait pas protéger les victimes, il y aurait peut-être une voie d'action privée permettant aux victimes d'intenter une action en justice et d'obtenir une indemnisation, par exemple. J'ai examiné la divulgation publique de faits privés, l'intrusion dans la vie privée et d'autres délits, mais je n'ai rien trouvé qui correspond vraiment aux circonstances d'un scénario d'hypertrucage pornographique — encore une fois, l'attente raisonnable de protection de la vie privée ne correspondait pas vraiment à la situation.
     D'après ce que j'ai compris aujourd'hui, il y a eu récemment des propositions de loi et des projets de loi qui sont entrés en vigueur. En Colombie-Britannique, il y a l'Intimate Images Protection Act, ou loi sur la protection des images intimes. Cette loi est entrée en vigueur en mars 2023. Dans cette loi, « image intime » est défini comme étant l'enregistrement visuel ou la représentation visuelle simultanée d'une personne se livrant à un acte sexuel, que la personne soit ou non identifiable et que l'image ait été ou non modifiée de quelque manière que ce soit.
     La loi sur la protection des images intimes élargit la définition d'« image intime » de sorte qu'elle ne se limite pas à l'image d'une personne se livrant à un acte sexuel au moment où la photo est prise, mais englobe l'altération de cette image pour produire cette représentation. L'inconvénient de cette loi est que, bien qu'elle prévoie un droit privé d'action, les dommages-intérêts se limitent à 5 000 $, ce qui semble négligeable dans ce contexte.
     Je suppose que nous parlerons davantage du projet de loi C-63au cours de ce débat, et je crois bien qu'il va dans la bonne direction à certains égards. Il impose aux exploitants l'obligation de contrôler et de réglementer le genre de contenu présenté en ligne. Un autre avantage est qu'il élargit les définitions, encore une fois, du genre de contenu qui devrait être retiré.

  (1615)  

    Cette loi, une fois adoptée, exigera de l'exploitant qu'il retire tout contenu qui victimise sexuellement un enfant ou revictimise un survivant...
    Merci, Monsieur Szemok-Uto. Pouvez-vous conclure, s'il vous plaît?
    Oui, je vais arrêter là.
    Nous passons maintenant aux questions.
     Mais avant de commencer, j'aimerais que le Comité sache que nous avons jusqu'à 17 h 45. Comme j'aimerais que nous ayons 15 minutes de travail à huis clos, je voudrais donc terminer à 17 h 30. Nous allons tenter de faire en sorte que tout le monde puisse poser ses questions durant ce temps.
     Nous allons maintenant passer à la première série de questions. Ce sont des périodes de six minutes. Je commencerai par les conservateurs.
     Allez-y, Madame Thomas; vous avez six minutes.
    Je vous remercie.
     Merci aux témoins de nous avoir accordé leur temps aujourd'hui et d'avoir partagé leur expertise.
     Ma première question s'adresse à Mme Moreau et Mme Rourke.
     Dans votre déclaration liminaire, vous avez dit que le Code criminel devrait inclure les hypertrucages. Vous avez ensuite ajouté que ce n'était pas suffisant. Nous devons également prendre en compte le rôle que jouent les plateformes, et la façon dont le gouvernement a la responsabilité de donner du mordant à la responsabilisation de ces plateformes.
     Dans un article que vous avez récemment écrit en février, vous avez déclaré: « Une réglementation des télécommunications actualisée peut jouer un rôle. Mais le Canada a également besoin de changements urgents dans ses cadres juridiques et réglementaires afin d'offrir des recours aux personnes déjà touchées et une protection contre des préjudices futurs. »
     Vous semblez dire que les deux sont nécessaires. Je me demande si vous pouvez nous en dire plus à ce sujet.
    Notre position est semblable à ce qui a été dit. Selon notre interprétation, la disposition du Code criminel devrait être modifiée si elle devait s'appliquer aux images modifiées et aux hypertrucages.
    Bien que ce soit important, cela ne constituera pas une solution dans de nombreux cas, notamment parce que les hypertrucages sont si faciles à produire de façon anonyme que leur auteur, dans de nombreux cas, ne sera pas identifiable. Comme nous l'avons dit, cela n'offrira pas nécessairement aux victimes la réparation complète qu'elles recherchent, étant donné que le contenu lui-même peut continuer à circuler et à nuire à leur réputation.
     Nous pensons également qu'il serait important de travailler avec les plateformes et de les rendre responsables du contenu distribué sur leurs sites Web. Ce sont elles qui contrôlent les algorithmes qui produisent les résultats, et ce sont elles qui peuvent retirer le contenu — ou tout du moins le rendre moins visible, voire le supprimer complètement.
     Je m'en remets à ma collègue pour d'autres observations.
    Oui, je me fais l'écho de tout ce qu'a dit ma collègue.
     En outre, ce qui nous désespère quelque peu, c'est de constater à quel point c'est facilement accessible par une simple recherche sur « deep SIA », « nude IA » ou quoi que ce soit de ce genre. L'outil d'intelligence artificielle apparaît simplement sur Google. On y met une photo, paie trois dollars et on peut générer une quantité massive d'hypertrucages d'une personne — ou de plusieurs personnes.
     C'est contre cette accessibilité que nous nous battons le plus, car, comme nous le savons, les procédures judiciaires peuvent durer des années. Souvent, elles ne permettent pas à la victime d'être indemne. Il s'agit vraiment de faire en sorte que ces plateformes ne rendent pas cette technologie aussi facilement accessible à tous. Par ailleurs, comme nous l'avons vu, les enfants sont capables d'utiliser ces technologies. Ils peuvent en ignorer les conséquences ou ne pas se rendre compte à quel point cela est préjudiciable aux victimes.

  (1620)  

    Je vous remercie.
     Le projet de loiC-63 fait quelque chose de très intéressant. Plutôt qu'une mise à jour du Code criminel pour y inclure l'hypertrucage... Ce n'est pas du tout ce qu'il fait. Les hypertrucages n'y sont pas mentionnés, et les gens ne sont pas protégés contre eux, comme un crime. Je pense que c'est un problème.
     Deuxièmement, les plateformes feront peut-être l'objet d'une évaluation et d'une décision de la part d'un organe bureaucratique extrajudiciaire qui sera créé, mais encore une fois, il n'est établi nulle part qu'il soit criminel pour les plateformes de permettre la perpétuation de choses comme les hypertrucages ou d'autres images non consensuelles.
     Cela ne vous préoccupe-t-il pas?
    Je peux commencer.
     Comme tous les témoins d'aujourd'hui l'ont dit, c'est un très bon pas dans la bonne direction. Nous sommes ici pour montrer qu'il s'agit d'un problème important et qu'il faut aller plus loin.
     Si nous pouvons en faire davantage pour protéger, en particulier — comme nous l'avons dit — les enfants, les femmes et les écolières contre cette technologie, il faut le faire. S'il est possible qu'un projet de loi supplémentaire suive, il serait très bénéfique d'avoir un organisme qui s'en occupe, ou plus d'études à ce sujet, parce que ce n'est pas un problème qui va disparaître.
     La technologie de l'intelligence artificielle se perfectionne rapidement, plus que nous pouvons même en prédire les effets. On pourrait même dire qu'il faut un comité et une étude permanents sur les questions nouvelles et innovantes que produit cette technologie.
     Je pense que ma collègue, Mme Rourke, aimerait ajouter quelque chose.
    Bien sûr. Je manque de temps, alors peut-être que les observations pourraient être brèves.
    J'allais simplement ajouter que les dispositions du Code criminel qui existent actuellement et qui s'appliquent à l'enregistrement réel d'images intimes, ou à ce que l'on appelle la pornographie de vengeance, sont à mon avis un remède incomplet dans l'état actuel des choses. C'est sans compter la question des hypertrucages et leur complexité. Il faut, en priorité, savoir quels sont les recours accessibles qui peuvent être mis en oeuvre dans la grande majorité des cas. De nombreux cas de pornographie de vengeance ne feraient jamais l'objet d'un procès ou de poursuites pénales, et le préjudice se perpétue. C'est pourquoi je pense qu'il est très important de faire participer les plateformes sur ce point.
    Merci beaucoup.
    Vous avez 35 secondes, madame Thomas.
    Monsieur Szemok-Uto, je suis désolée. J'avais l'intention de vous laisser plus de temps. Je ne suis pas sûre que vous souhaitiez faire une observation.
    Pourriez-vous répéter la dernière partie de la question?
    Nous n'avons probablement plus de temps.
     Je vais peut-être conclure en disant ceci. En fin de compte, ce qui est clair, c'est qu'il ne suffit pas d'afficher de bonnes intentions. Ce que les gens me disent, c'est que nous avons besoin d'un Code criminel actualisé pour poursuivre ceux qui créent et propagent des hypertrucages. C'est très important pour toutes les femmes de notre pays.
    Les témoins ont certainement attiré l'attention sur le fait qu'il s'agit d'un problème sexospécifique. Ce sont les femmes et les jeunes filles qui en sont victimes, bien plus que les hommes, et cela ruine des vies. Je pense que le gouvernement a la responsabilité d'agir à ce sujet.
    Madame Thomas, vous avez dépassé le temps imparti. Je vous remercie.
    C'est maintenant Michael Coteau qui a la parole pour les libéraux.
     Vous avez six minutes, monsieur Coteau.
    Merci beaucoup, monsieur le président.
     Merci à tous nos témoins ici présents. Je vous félicite du travail que vous faites pour protéger les jeunes et tous les Canadiens contre les préjudices en ligne.
     Ma première question s'adresse à Mme Tworek.
     Nous avons entendu le professeur Krishnamurthy du Colorado il y a quelques jours. Il a dit quelque chose d'intéressant. Il a dit que parfois, l'un des grands défis est « l'éléphant et les souris » dans la pièce. Les grandes plateformes sont évidemment celles qui ont le plus de contrôle, mais il y a aussi les petites entités en ligne qui vont et viennent rapidement. Pour les régulateurs, il est difficile de suivre l'évolution de ces sites Web qui n'existent que depuis peu.
     Que pensez-vous de la manière dont nous pourrions relever ce défi qui a été présenté lors de la dernière réunion sur le patrimoine ?

  (1625)  

    Merci beaucoup.
     J'ai siégé avec M. Krishnamurthy au sein du groupe consultatif d'experts. C'est un sujet sur lequel nous nous sommes beaucoup penchés. Bien sûr, les grandes plateformes comme Facebook et autres ont beaucoup d'employés et peuvent facilement disposer de personnel, mais nous voyons souvent, en particulier maintenant avec l'intelligence artificielle générative qui abaisse la barrière à l'entrée, ces préjudices causés par deux ou trois personnes ou de très petites entreprises qui créent des ravages.
     Cette question comporte deux aspects. Le premier est la question très importante de la coopération internationale sur ce plan. Nous parlons comme si toutes les personnes qui causent des dommages se trouvaient au Canada, mais, en réalité, beaucoup d'entre elles peuvent se trouver à l'étranger. Nous devons réfléchir à la forme que prend la coopération internationale. Nous l'avons fait pour la lutte contre le terrorisme en ligne, et nous devons l'envisager pour les hypertrucages.
     Dans le cas des petites entreprises, nous pouvons faire la part entre celles qui, selon moi, sont victimes d'abus et la question de savoir comment le nouveau projet de loi, le projet de loi C-63, pourrait créer un commissaire à la sécurité numérique qui aiderait réellement ces petites entreprises à supprimer ces hypertrucages.
     Enfin, il y a la question des acteurs plus néfastes des petites entreprises et la question de savoir s'il y a lieu d'élargir le projet de loi C-63 pour posséder l'agilité permettant d'arrêter plus rapidement ce genre d'acteurs néfastes, ou, par exemple, les outils qui n'existent que pour créer le terrible genre d'hypertrucages qui a été décrit par d'autres témoins.
     Je voudrais, enfin, simplement insister sur le fait que la coopération internationale est essentielle. Le fait de retirer des choses au Canada seulement pourrait conduire à une revictimisation, car quelque chose pourrait être stocké dans un serveur dans un autre pays et être ensuite continuellement republié.
    Vous avez parlé d'une augmentation massive des hypertrucages. Je crois que vous avez dit que c'était 550 % ou à peu près ça. De toute évidence, la technologie évolue vite. Au cours de ma vie, nous avons vu la technologie évoluer rapidement. Vous savez, j'ai acheté le même album sous forme de disque, de cassette, de CD et de MP3, et ce uniquement dans le domaine de la musique. La technologie évolue constamment.
     J'ai lu récemment un article sur les composants intelligents qui peuvent être créés et qui agissent de leur propre chef. Ils peuvent être programmés pour faire preuve d'initiative. Y a-t-il été question d'un composant intelligent particulier qui peut être programmé pour faire de son propre chef des choses dans le domaine des préjudices en ligne?
    Notre groupe n'a pas beaucoup débattu de l'IA générative, mais je pense que le projet de loi C-63 s'intéresse au moins à la question des hypertrucages. Il comporte une notion assez large de l'obligation d'agir de manière responsable qui permettra de traiter ce genre d'avancées technologiques. Quant aux entreprises d'intelligence artificielle, elles auront elles aussi l'obligation d'agir de manière responsable et je pense que la question est alors de savoir à quoi devrait ressembler exactement cette obligation d'agir de manière responsable dans le cas de l'IA générative. Bon nombre des choses dont nous avons parlé aujourd'hui en seraient évidemment un élément central.
    Merci beaucoup.
     J'ai une autre question. Elle s'adresse à Monique St. Germain.
     Je vous remercie de nouveau de votre présence. Merci pour votre travail de protection des enfants.
     Que se passe-t-il lorsque la technologie de l'intelligence artificielle est si perfectionnée qu'elle peut créer, sans recourir à l'hypertrucage, des images et des vidéos d'exploits et d'actes sexuels illégaux qui peuvent paraître réelles, mais qui sont en fait fausses? Il n'y a pas de victime vivante sur le plan technique, mais il est évident que cela a un grave impact sur un secteur et sur la société dans son ensemble. Est-ce un problème de plus en plus répandu, où la personne en cause n'existe pas, mais l'image est de plus en plus utilisée? Pouvez-vous nous en parler?
    Oui, absolument.
     Nous avons beaucoup parlé des adultes, mais cela se produit également dans le cas du matériel d'abus pédosexuel. Les systèmes de détection de ce genre de matériel, qui s'appuient sur les valeurs de hachage du vrai matériel, sont très préjudiciables. Dans le cas des faux documents, ces valeurs de hachage n'existent pas dans les bases de données sur lesquelles ils s'appuient, de sorte que leur suppression devient un défi incroyable.
     Il existe toutes sortes de nouveau matériel d'abus pédosexuel. Il y a déjà beaucoup de matériel d'abus pédosexuel, et nous parlons maintenant de les rendre encore plus...

  (1630)  

    Comment l'appelez-vous... matériel d'abus pédosexuel?
    Oui, c'est le matériel d'abus sexuel d'enfants. Le Code criminel l'appelle encore pornographie juvénile, malheureusement.
    C'est intéressant. C'est un grand changement de définition qui est nécessaire.
     Merci beaucoup pour votre temps et votre présence.
    Je vous remercie.
    Merci, monsieur Coteau.
     Je passe maintenant au Bloc québécois avec Martin Champoux.
    Monsieur Champoux, vous avez six minutes.

[Français]

    Merci, madame la présidente.
    Je remercie les témoins d'être ici aujourd'hui.
    Nous traitons d'un sujet très délicat qui, je pense, nous tient tous à cœur, au Comité. Même si nous divergeons parfois d'opinion sur la façon d'aborder cette question, je pense que chacun des membres du Comité, chacun des partis représentés ici, a un seul et même objectif commun, qui est de rendre la navigation sur Internet plus sécuritaire. Nous voulons tous faire en sorte que nos enfants, nos filles, nos femmes, nos sœurs puissent se sentir en sécurité et qu'ils puissent être à l'abri de ce genre de comportement répréhensible.
    Madame Moreau, madame Rourke, vous avez mentionné dans votre article, de même que dans votre allocution d'ouverture, que les hypertrucages ne touchent pas uniquement les vedettes. Or, c'est vraiment la perception que nous avons, soit que c'est utilisé généralement pour nous fournir des images, par exemple, de Taylor Swift dans des poses pornographiques — comme nous l'a mentionné un témoin un peu plus tôt. Toutefois, n'importe qui peut être victime de cela, pas seulement les politiciens en campagne électorale, mais aussi M. et Mme Tout-le-Monde.
    Y a-t-il beaucoup d'exemples de cela?
    Avez-vous noté beaucoup de cas où de simples citoyens, des gens qui ne sont pas connus, sont victimes d'hypertrucage sexuel?
    Nous en avons un peu parlé dans notre article. En effet, il y a vraiment des cas où des personnes — M. et Mme Tout-le-Monde, comme vous dites — en ont été victimes depuis 2017. Ce n'est donc pas un phénomène nouveau.
    Il y a aussi beaucoup d'articles dans des journaux qui montrent que c'est en train de prendre de l'ampleur dans les écoles. Nous avons lu un reportage, paru en décembre, selon lequel il y avait une école de Winnipeg où près de 40 jeunes filles avaient été victimisées au moyen de ces technologies. C'est beaucoup.
    S'il existe une histoire comme celle-là, je suis certaine qu'il y en a plus, partout. Cela devient vraiment plus populaire, puisque la technologie devient plus accessible.
     Ce type de contenu est facile à produire. Il y a même des applications pour cela. C'est assez épouvantable.
    On parle beaucoup du projet de loi C‑63, qui vise à encadrer le contenu haineux et inapproprié en ligne.
    Au-delà de la législation, avez-vous l'impression que les plateformes pourraient en faire davantage à ce sujet?
    Pensez-vous qu'elles sont maintenant en mesure d'en faire davantage, sur le plan technologique, contrairement à ce qu'elles affirment?

[Traduction]

    C'est possible. Il est certain qu'une fois que la technologie est devenue une source ouverte, il a été impossible d'éliminer complètement la technologie et la capacité de créer des hypertrucages sur Internet, c'est certain.
     Elle pourrait être moins accessible. Je crois qu'en réduisant l'accessibilité, la fréquence de ce genre d'attaques diminuerait. À titre d'exemple, pendant que nous faisions des recherches pour cet article, nous avons constaté que si l'on tape « deep nude » dans Google, les premiers résultats proposent 10 sites Web différents auxquels l'on peut accéder, et ce en quelques minutes.
     Il est possible de rendre la nudité moins visible et moins accessible qu'elle ne l'est aujourd'hui. Il est assez déconcertant de voir à quel point c'est facile et accessible. Je pense que c'est la raison pour laquelle les adolescents l'utilisent, et c'est la raison pour laquelle un recours pénal ou civil serait inadéquat, compte tenu de son accessibilité.

[Français]

    Comme vous l'avez dit, on tape des mots clés dans Google, et on se retrouve avec un paquet de contenus. Tout le monde le sait, mais certains prétendent qu'on ne peut pas imposer à ces grandes compagnies de contrôler ce contenu à la source. Je ne peux pas croire qu'ils ne sont pas en mesure de mettre en place un mécanisme afin qu'un drapeau rouge soit levé quand ce contenu inapproprié est demandé.
    Si on responsabilisait davantage les plateformes et qu'on leur imposait de mieux contrôler le contenu inapproprié qui peut s'y trouver, pensez-vous que cela améliorerait la situation?
    C'est bien beau, légiférer, encadrer cela et sévir contre les abus, mais si la technologie existe, c'est la moindre des choses que ces entreprises qui fournissent le contenu à qui le demande soient tenues pour responsables de ce qu'elles nous présentent.
    N'est-ce pas?

  (1635)  

    Je ne peux pas parler pour les plateformes, et je ne suis pas ici pour les représenter. Cependant, je crois qu'il serait avantageux pour tout le monde que l'on s'assure que ces types de technologie ne sont pas accessibles facilement.
    Pour préserver leur réputation, je crois que ces plateformes voudraient travailler là-dessus. On les voit déjà prendre des moyens pour enlever ces types de contenu quand elles voient qu'il y a un problème.
    On parle beaucoup de ce qu'on peut faire et des attentes que vous avez envers nous, comme politiciens et comme législateurs. Toutefois, comme parent, que dois-je dire à mes filles?
    Dites-leur que vous allez travailler, au cours de la prochaine année, pour vous assurer que ce ne sera plus un problème et qu'elles ne seront pas victimisées au moyen de ces technologies.
    Quelles mesures peuvent-elles prendre pour se prémunir contre cette menace? Y a-t-il quelque chose qu'elles peuvent faire? C'est sûr qu'elles partagent leurs photos avec leurs amis. Les photos, les informations et les données circulent partout.
    C'est pourquoi ces technologies me font tellement peur. On ne peut plus prendre de photos de soi pour les donner à son petit ami ou à un ami, par exemple. Cela se retrouve en ligne et on est complètement vulnérable, car on n'a pas le pouvoir de retirer cela.
    On doit faire preuve de leadership concernant ce problème, et il ne s'agit pas seulement de légiférer. On a besoin de gens qui trouvent des solutions pour enlever rapidement ce type de contenu du Web.
    Merci beaucoup.

[Traduction]

     Merci, madame Moreau.
     Je donne maintenant la parole aux néo-démocrates et à Niki Ashton pour six minutes.
     Je viens de voir, madame Rourke, que vous aviez levé la main. Voulez-vous ajouter quelque chose? J'ai quelques questions, mais vous pouvez ajouter ce que vous alliez dire.
    C'est très gentil. J'ajouterai simplement qu'il faut voir que cette technologie existe dans un contexte sociétal de violence et d'oppression fondées sur le sexe.
     L'éducation et la lutte contre ce contexte sociétal et culturel font partie de la solution. Cela ne va pas réparer la technologie, mais l'éducation dans les écoles pour comprendre les méfaits afin que les adolescents qui ont accès à la technologie sachent pourquoi elle est si nocive fait partie de la solution. Il n'y a pas qu'une seule chose qui va régler le problème.
    Je vous remercie.
     En parlant d'éducation, je voulais en fait adresser ma première question à Mme St. Germain C'est en partie parce qu'il est clair que nous manquons à nos obligations envers les enfants canadiens. Les statistiques le montrent clairement.
     Nous avons entendu parler des 15 630 infractions sexuelles en ligne contre des enfants et des 45 816 incidents d'abus pédosexuel en ligne signalés par la police au Canada entre 2014 et 2022. Nous savons que le taux d'abus pédosexuel en ligne signalé par la police a presque quadruplé depuis 2014. Vous avez parlé de certaines de ces tendances.
     En ce qui concerne la distribution non consensuelle d'images intimes, nous voyons également émerger un tableau déchirant. La plupart des personnes accusées de cette infraction ont à peu près le même âge que leurs victimes, et nous savons que celles-ci les connaissaient auparavant. Dans ces situations, il est clair qu'il s'agit d'enfants qui victimisent des enfants sans nécessairement comprendre toutes les ramifications, à la fois pour l'avenir de la victime et pour le leur, l'auteur de l'infraction.
     Je voudrais revenir sur le sujet de l'éducation dont vous avez parlé. Quelle est l'importance de l'éducation en matière de consentement et de sécurité sexuelle? En ce qui concerne les jeunes, que pouvons-nous faire de plus pour leur apprendre à se protéger et à protéger les autres?
    L'éducation est toujours une composante essentielle de toute politique ou initiative. Nous disposons d'un grand nombre d'outils différents dans la boîte à outils. Nous avons le droit pénal. Nous avons, éventuellement, le projet de loi C-63 qui fournira une certaine réglementation... Quant à l'éducation, il s'agit évidemment de veiller à ce que les jeunes soient sensibilisés au consentement sexuel et comprennent les conséquences du partage d'images intimes ou de la création de ce genre de matériel, etc.
     Nous ne devons pas perdre de vue que s'ils peuvent faire ces choses, c'est grâce aux plateformes qui facilitent ce genre de préjudices. Nous devons éduquer les parents et les enfants, par le truchement de l'école et de nombreux autres modes de communication et lieux fréquentés par les enfants. Si nous pouvons faire de l'éducation, nous devons également veiller à ne pas perdre de vue le fait qu'il y a d'autres acteurs dans l'écosystème qui contribuent aux préjudices que nous constatons tous.

  (1640)  

    Vous avez mentionné le Projet Arachnid dans votre exposé, je crois bien. J'aimerais y revenir.
     Pouvez-vous décrire le processus et le travail qu'il a fallu pour mettre au point ce projet, auquel je sais que vous avez renvoyé? Quels sont les autres outils qui vous manquent et pour lesquels nous devrions encourager le gouvernement à vous aider?
    Notre organisation, comme je l'ai mentionné, exploite cyberaide.ca depuis longtemps. Nous sommes très au fait de la technologie. Notre équipe technologique est très avancée pour ce qui est de s'assurer que notre travail se fait de la manière la plus efficace possible et que nous ne surexposons pas notre personnel à des choses auxquelles il n'a pas besoin d'être exposé.
     Dans le cadre du Projet Arachnid, nous tirons parti de la technologie de différentes manières. La mise au point de ce système a pris beaucoup de temps. Il a été perfectionné au cours des dernières années. Il est devenu de plus en plus performant.
     Nous disposons désormais d'une base de données très solide sur laquelle peuvent s'appuyer non seulement les entreprises, mais aussi les gouvernements et d'autres acteurs. Il y a beaucoup de matériel connu sur lequel les êtres humains ont déjà posé les yeux. Il est déjà classifié, et ce matériel peut provenir d'Internet. Cependant, nous devons commencer à utiliser ces outils de manière sensée, au lieu d'exposer inutilement les victimes à un examen répété de leurs images par différents modérateurs dans différents pays, où les garanties sont moins solides que celles appliquées par des institutions comme la nôtre et nos services policiers qui font ce travail au quotidien.
    Je voudrais aborder la grande question de la stigmatisation à laquelle les victimes sont confrontées lorsqu'elles se manifestent. Nous savons que les données les plus récentes fournies par Statistique Canada indiquent qu'en 2022, il y a eu plus de 2 500 rapports de police sur la distribution non consensuelle d'images intimes. Nous savons, bien sûr, en ce qui concerne les agressions sexuelles, qu'il y a un réel problème de sous-déclaration, étant donné le manque de confiance qu'ont les victimes dans le système judiciaire et le système policier, craignant la stigmatisation à laquelle elles seront aux prises.
     Je me demande comment nous pouvons résoudre cette question de la stigmatisation dans le cadre de votre travail et de ce que vous observez chez les jeunes.
    Vous avez 45 secondes.
    Pardon?
    Vous avez 45 secondes pour répondre.
    J'ai perdu le fil de la question. Je suis désolée.
    Pas de problème. Il s'agit de la stigmatisation et de la lutte contre la stigmatisation.
    Oui, les victimes vivent une véritable stigmatisation. Il s'agit des victimes de la diffusion non consensuelle d'images intimes et des victimes du contenu d'exploitation sexuelle d'enfants.
     Les types d'éléments que ces victimes vont inclure dans leur déclaration de la victime, par exemple, sont très similaires. Elles ont peur d'être reconnues. Elles ne sont pas disposées à participer publiquement de différentes manières parce qu'elles ne veulent pas être identifiées ou liées à un contenu d'exploitation sexuelle.
     Nous voyons beaucoup de stigmatisation en ligne. Cela s'explique en partie par le fait que nous laissons tout ce contenu à la vue de tous et que nous ne faisons pas grand-chose pour nous en débarrasser. Les grandes entreprises font ce qu'elles font, mais même elles ne parviennent pas à suivre le rythme. Ensuite, il y a tous les sites Web mineurs auxquels nous avons fait référence plus tôt dans la discussion.
     Beaucoup de problèmes se posent.
    Merci infiniment, madame St. Germain.
     Je vais passer au deuxième tour. C'est un tour de cinq minutes pour les conservateurs.
     Kevin Waugh, vous disposez de cinq minutes, je vous en prie.
     Merci, madame la présidente.
     Je souhaite la bienvenue à tous cet après-midi.
     Monsieur Szemok-Uto, vous êtes avocat depuis peu. Je vous en remercie.
     Comme vous le savez, le projet de loi C-63 n'a pas été élargi pour inclure le Code criminel. Il n'a pas été mis à jour pour inclure les hypertrucages. Cela semble être une préoccupation non seulement autour de cette table, mais partout.
     Je ne sais pas pourquoi, lorsqu'on présente un projet de loi, on ne le ferait pas... Nous avons vu que, depuis 2017, les hypertrucages se multiplient dans le monde entier et pourtant, cela ne figure pas dans ce projet de loi. À quoi sert le projet de loi si on ne parle pas des hypertrucages?
     Qu'en pensez-vous?
    Je me fais l'écho de vos préoccupations.
     Je suppose qu'un problème se pose avec l'élément international qu'Internet et les hypertrucages présentent. L'auteur peut se trouver en Russie ou dans une petite ville d'un pays que nous ne connaissons pas très bien. Il serait difficile de poursuivre ces auteurs malveillants.
     J'ai souligné dans mon document qu'il y a une limite inhérente à la poursuite de l'interdiction pénale visant les hypertrucages. Là encore, la norme du doute raisonnable limite peut-être qui peut être reconnu coupable de ces crimes ainsi que la portée et les ressources nécessaires pour prévoir et faire respecter des interdictions pénales visant les comportements de cette nature.
     Je pense qu'avec le droit privé, les recours civils et les mesures qui sont basées sur la prépondérance des probabilités, le champ d'application pourrait être plus grand non pas pour la justice pénale, mais pour une certaine forme de justice et au moins une certaine forme de dissuasion à se livrer à ce type de comportement. Ce serait ma réponse.

  (1645)  

    Le problème lié à l'existence d'un organe bureaucratique extrajudiciaire, ce que prévoit le projet de loi C-63, à mon avis, c'est qu'il peut en fait perpétuer le préjudice.
     Nous pouvons le constater parce que des victimes — certaines en ont parlé ici aujourd'hui — doivent s'avancer courageusement et raconter leur histoire à un commissaire ou à un organisme qu'elles ne connaissent pas vraiment. En réalité, cela ne leur confère aucun pouvoir réel. Je pense que la victime, dans ce cas, est amenée à espérer, mais cet espoir est ensuite différé parce que le projet de loi n'a pas vraiment de mordant.
     Qu'en pensez-vous?
     Je pense que le projet de loi C-63 est un cauchemar bureaucratique prêt à exploser si la Chambre devait l'adopter.
    Je suis d'accord pour dire que l'on pourrait faire plus que ce que le projet de loi C-63 prévoit.
     Au moins, je fais remarquer que le terme « hypertrucage » est inclus dans le projet de loi. Au minimum, je pense que c'est un bon pas en avant pour essayer de nous attaquer aux problèmes et d'actualiser les définitions utilisées.
     Je souligne qu'une loi récemment adoptée en Pennsylvanie est une loi pénale qui interdit la diffusion de représentations sexuelles de personnes générées artificiellement. Je ne vais pas lire la définition en entier. Elle est assez large.
     Le projet de loi C-63 fait référence aux hypertrucages, au moins, bien qu'il ne fournisse aucune définition. Je pense qu'à cet égard, l'élargissement de la terminologie... Comme je l'ai dit, les délits en droit de la protection de la vie privée sont limités par leurs définitions et leur terminologie et n'incluent pas ce nouveau problème que nous essayons de traiter. Dans la mesure où cela permet d'actualiser les définitions, je pense que c'est un pas dans la bonne direction.
    Madame Moreau ou madame Rourke, la plus grande vedette du monde est bien sûr Taylor Swift. Elle a été victime d'hypertrucage à deux reprises cette année. L'un était sexuellement explicite, et l'autre était la débâcle qui s'est produite aux Grammys, où ce n'était pas sa voix. Ce n'était pas elle.
     Comment réagissez-vous à cela? Il n'y a pas de plus grande vedette au monde que Taylor Swift, et pourtant cette affaire s'est éteinte sans que l'on en entende parler ou presque. Elle s'est éteinte assez rapidement.
     Allez-y, madame Rourke.
    Je pense que les hypertrucages de Taylor Swift sont à l'origine d'un grand nombre des conversations qui ont eu lieu au cours des derniers mois. Je pense en fait que cela a mis davantage en lumière cette conversation.
     J'ajouterais toutefois que Taylor Swift dispose de beaucoup plus de ressources que l'individu moyen pour lutter contre ce phénomène et réagir aux problèmes, mais cela montre la difficulté d'interdire la technologie et d'empêcher sa réutilisation et la création de nouveaux préjudices à de nouvelles personnes.
    Je vous remercie.
     Je donne la parole à Taleeb Noormohamed, du Parti libéral, pour cinq minutes.
    Merci beaucoup aux témoins d'être parmi nous.
     Je vais partager mon temps de parole avec ma collègue, Mme Lattanzio.
     L'une des choses que nous avons cherché à faire en répondant à certaines préoccupations liées aux préjudices en ligne, et en particulier à certains enjeux qui ont été soulevés au cours de l'étude, c'est de nous assurer que notre projet de loi, le projet de loi C-63 sur les préjudices en ligne, s'attaque de front à certains de ces défis et s'emploie... Comme nous l'avons dit, nous sommes prêts à collaborer avec tous les partis pour faire en sorte que ce projet de loi soit le meilleur possible.
     Je ne sais pas si vous avez eu l'occasion de suivre les délibérations de notre séance de mardi, mais notre collègue, Mme Thomas, a soulevé ce qui, à mon avis, est une préoccupation très importante dans plusieurs de ses questions. Du moins d'après ce que j'ai lu, il semblerait qu'elle préconise — je ne veux pas lui mettre des mots dans la bouche, mais c'est ainsi que j'ai compris ce qu'elle suggérait — que nous adoptions une approche fondée sur le risque dans l'élaboration de la réglementation relative aux plateformes de médias sociaux. Nous croyons que c'est exactement ce que le projet de loi C-63 propose de faire.
     Tout d'abord, êtes-vous favorable au projet de loi C-63 et à ce que nous essayons de faire, et croyez-vous que la bonne approche pour réglementer les plateformes des médias sociaux consiste vraiment à adopter une approche basée sur le risque, comme Mme Thomas et d'autres le suggèrent?
    Cette question s'adresse à vous, madame Daum Shanks.

  (1650)  

    Merci beaucoup.
     Pour dire franchement, je ne suis pas concernée. Dans le souci d'être brève, je tiens également à dire que j'étais moi aussi membre du groupe consultatif. Je tiens également à dire que nous n'étions pas d'accord sur tout. L'atmosphère était très conviviale et nous étions tous très reconnaissants, je pense, pour les contributions de chacun, mais nous avions des opinions divergentes sur certains points.
     Je pense que je penche pour l'idée de la gestion des risques. J'aimerais croire aussi que je suis plus optimiste à ce sujet parce que, dans cette idée de concepts et d'interrogations à savoir si... Je pense que nous avons entendu le terme « mordant ». Ce qui est pratique dans l'absence de détails, c'est que ces concepts peuvent être ce qu'ils doivent être au moment où un sujet est abordé.
     Il existe une autre idée en droit qui se manifeste parfois lorsque les choses sont trop détaillées et que nous n'avons pas une approche « prospective » qui pourrait nous permettre d'essayer d'améliorer les choses à certains moments. Il s'agit du concept de « gel des droits ». L'endroit le plus frappant où nous avons peut-être pensé à ce concept se situe peut-être dans l'interprétation des obligations fiduciaires, principalement à l'égard des Autochtones.
     Ce qui finit par se produire, c'est que la jurisprudence doit revenir au tribunal pour qu'on redéfinisse ensuite un élément, puis cette affaire est comparée à des affaires antérieures qui ont une définition très circonscrite. Ensuite, les dispositions législatives doivent être revues. Elles doivent être redéfinies. S'il y a des règlements, il faut les évaluer, ce qui nous amène à la situation actuelle, et c'est ce que je crains le plus.
     À mon sens, le droit est en constante évolution. Il y a une idée qui fait très cliché, pour ne pas dire qu'elle a un certain cachet, selon laquelle le droit ressemble à un arbre vivant. Cette idée consiste à faire confiance à des gens comme vous pour évaluer la situation et, lorsqu'il est important de contribuer à la réglementation, nous pouvons approfondir l'analyse pour atténuer les risques que nous voyons soudainement apparaître. Ce qui peut être très intimidant pour les autres parties, c'est qu'il n'y a pas d'exemple précis, et qu'elles peuvent donc être très inquiètes à l'idée que ce qu'elles vont potentiellement faire pourrait être nuancé, même si ce n'est pas mentionné. C'est pourquoi je suis très favorable à cette idée.
    Je vous remercie.
     Je vais céder la minute qu'il me reste à ma collègue, Mme Lattanzio.
     Dans votre déclaration, vous avez dit que vous vouliez faire deux observations. Vous venez de parler de la première. Je vais m'attarder à la responsabilité.
     Comment le projet de loi C-63 traite-t-il la notion de responsabilité?
    Je vais encore faire une mise au point. Je le vois comme une « manière responsable » au lieu de parler de « responsabilité », parce que ce mot peut aussi figurer dans le droit et dans un projet de loi. Je le vois comme un moyen de prévenir certains problèmes qui surviennent surtout dans les poursuites civiles. J'estime qu'il s'agit d'une idée très comparable, par exemple, au devoir de diligence en cas de négligence. Je le vois également comme étant très similaire à ce que l'on appelait autrefois un « choc nerveux » et que l'on appelle aujourd'hui la « détresse mentale ».
     Ce qui me plaît vraiment dans le projet de loi, c'est que — et c'est peut-être déjà lié à ce que j'ai dit précédemment — cela va contribuer à accélérer certaines évaluations très importantes qui, à mon avis, pourraient être vraiment ralenties si, par exemple, l'on envisageait les choses d'un point de vue civil.
     Je vous remercie.

  (1655)  

    Merci beaucoup. Nous avons largement dépassé le temps imparti.
     Je donne maintenant la parole à M. Martin Champoux pour deux minutes et demie.

[Français]

    Merci, madame la présidente.
    Professeure Shanks, je suis désolé, mais je dispose de peu de temps. Je vais essayer de poser des questions assez brèves.
    Vous avez fait partie du groupe consultatif d'experts sur la sécurité en ligne. Ce groupe a été nommé par le gouvernement pour conseiller celui-ci.
    Les membres de ce groupe se sont-ils inspirés de lois étrangères pour faire des recommandations au gouvernement?
    Y a-t-il quelque chose qui se fait quelque part, ailleurs dans le monde, dont on peut s'inspirer pour lutter contre ces contenus en ligne?

[Traduction]

    Nous avons pu nous entretenir très régulièrement avec des gens du Royaume-Uni, de l'Union européenne et de l'Australie. Je n'étais pas du tout à même de contribuer à ces moments précis, mais je dirais, surtout avec le Royaume-Uni, que je me suis surprise à penser que la façon dont nous étions influencés par ce que nous aurions pu faire était basée sur, peut-être, les imperfections, voire les changements de perspective, que nous pouvions tirer des leçons de ce qui se passait au Royaume-Uni.
     Parfois, l'avantage d'être un peu lent — ou, malheureusement, beaucoup plus lent — est que l'on peut remarquer ce qui se passe ailleurs et que l'on peut reproduire ou pas ce qu'ils ont fait ou n'ont pas fait. Ce qui a été également utile, surtout en ce qui concerne ces comparaisons, c'est d'en savoir plus sur des étapes très similaires à ce que nous avons fait ici et de réfléchir à cette idée d'intrant et à la façon dont les choses pourraient évoluer au fil du temps quand les gens apprendront de nouveaux termes, comme l'hypertrucage. Comment améliorer la connaissance de ces termes?

[Français]

    Madame Moreau, croyez-vous que, tant et aussi longtemps qu'une très forte majorité de nations civilisées, partout dans le monde, notamment celles dont on parle aujourd'hui, ne se seront pas unies pour légiférer là-dessus, nous serons toujours exposés à la propagation de ce type de contenu?
    Oui, je le crois.
    De plus, ce n'est pas que tout le monde a besoin de légiférer pour contrer ce problème, mais plutôt que les endroits où ces compagnies sont basées ont besoin de légiférer pour enrayer cela.
    Merci, madame Moreau.
    Madame la présidente, je vais répondre à cela en quelques secondes.
    Selon ce que je comprends, un simple amendement...

[Traduction]

    Merci, monsieur Champoux. Il ne vous reste même pas une seconde.

[Français]

    Vous avez tout à fait raison, madame la présidente. Toutefois, compte tenu du temps qu'il faut accorder à l'interprétation, nous avons parfois un peu de latitude quant au temps de parole.
    Je vais simplement conclure en disant que, de façon générale, d'après ce que j'entends de la part des témoins, si nous ajoutions dans le Code criminel la définition du terme « hypertrucage » relativement aux images, je pense que ce serait un pas important en avant dans ce projet législatif. Je voulais simplement ajouter ce commentaire pour conclure.

[Traduction]

    Merci, monsieur Champoux.
     C'est au tour de Mme Ashton, pour deux minutes et demie.
     Allez-y, madame Ashton, je vous en prie.
    Je vous remercie.
     Mes questions s'adressent à Mme Moreau et à Mme Rourke.
     Nous savons que les plateformes numériques ne sont pas tenues responsables des contenus nuisibles et illégaux qu'elles hébergent, et le NPD n'a cessé de réclamer cette responsabilisation. Dans vos écrits, auxquels vous avez fait référence, vous avez souligné qu'une personne comme Taylor Swift a tellement d'admirateurs fidèles que Twitter a été forcé de retirer les hypertrucages d'elle, mais nous savons que les femmes ordinaires n'ont tout simplement pas cette option.
     Selon vous, un commissaire à la sécurité numérique qui pourrait forcer le retrait d'images de cette nature serait-il utile?
    Je pense que le rôle d'un organe de réglementation public est nécessaire. Il n'est pas réaliste de laisser à chacun le soin de contrôler son propre contenu ou d'être constamment à la recherche ou à l'affût de l'utilisation de sa propre image sur le Web. Je pense que l'on sous-estime le niveau d'accessibilité et l'utilisation généralisée de la technologie, ainsi que la difficulté pour chacun d'assurer sa propre protection de cette manière.
     Je sais que cela est également arrivé à des acteurs de jeux vidéo. Pour les personnes qui ont ces tonnes d'admirateurs, comme vous l'avez dit, si elles ne sont pas Taylor Swift... Les personnes qui ont moins d'admirateurs peuvent être reconnues et il leur est difficile de localiser tous les contenus et d'aviser constamment les différentes plateformes d'hébergement pour les faire retirer.
     Je ne pense pas que cette idée d'autorégulation soit une solution pratique.

  (1700)  

    Cette question a également été soulevée mardi. Nous connaissons l'impact dévastateur que tout cela a sur la santé mentale, y compris les impacts à long terme, surtout en ce qui concerne la distribution non consensuelle d'images intimes. L'un des témoins de mardi, Mme Lalonde, a expliqué que les groupes de première ligne spécialisés dans l'aide aux personnes confrontées aux contrecoups de ces situations n'ont pas le soutien dont ils ont besoin.
     Êtes-vous d'accord avec cette affirmation? Pensez-vous que le gouvernement fédéral devrait financer des services de santé mentale en mettant l'accent sur le travail auprès des victimes et des survivants dans ce domaine?
    Je ne veux pas être extrêmement normative, mais je pense que oui, sans équivoque, il serait bénéfique pour les victimes d'obtenir ce soutien, d'où qu'il vienne. Je pense que la Chambre des communes a le leadership nécessaire pour agir en la matière — coordonner, financer ou trouver des moyens de rendre ce soutien plus accessible au public.
    Merci beaucoup, madame Ashton.
     C'est le tour de M. Gourde, pour les conservateurs, pour cinq minutes.
     Messieurs Lawrence et Gourde, M. Gourde a maintenant la parole pour cinq minutes.
     Je vous remercie.

[Français]

    Merci, madame la présidente.
    J'aimerais remercier tous les témoins qui sont avec nous aujourd'hui.
    Ma question s'adresse à deux des représentantes de la Faculté de droit de l'Université McGill, Mmes Moreau et Rourke.
    Tout à l'heure, vous avez parlé de sensibilisation et de prévention. Ce serait peut-être important d'entreprendre cette démarche.
    La sensibilisation devrait-elle se faire dans les écoles, ou le problème devrait-il être publicisé de façon plus large, par exemple à la télévision ou sur les réseaux sociaux, puisque les gens se trouvent toujours sur ces réseaux?
    Il faudrait cependant que l'on mette ce matériel en place.
    Est-ce que ce serait une option possible?
     Ce serait certainement une option.
    D'ailleurs, je crois que toutes les options que vous avez données sont bonnes.
    Les écoles ont un rôle à jouer, puisque c'est l'endroit physique où il y a beaucoup d'interactions sociales. Elles connaissent les étudiants et les jeunes qui socialisent.
    Selon moi, les plateformes ont aussi un rôle à jouer pour sensibiliser les gens qui les utilisent pour distribuer ou même créer du matériel. Je crois que beaucoup de plateformes permettent la création de matériel, comme l'application Deep Nude, ainsi que des trucs du genre. Les plateformes disent qu'il faut s'assurer d'obtenir le consentement des personnes visées au moment où on est en train de créer tout ce contenu. Cependant, elles savent très bien que personne ne le fait.
    Selon moi, il faut que les gens sachent ce qui en est. Les utilisateurs ont besoin de plus de protection par rapport à ces plateformes, notamment s'ils créent des contenus destinés au public et qu'ils veulent essayer de faire de l'argent avec cela.
    Je suis grand-père, et j'ai sept petits-enfants. Cela me donne froid dans le dos quand je réalise qu'on ne peut pas contrôler l'intelligence artificielle et que des producteurs utilisent des applications d'intelligence artificielle pour créer du contenu qui peut vraiment détruire les vies de ce que nous avons de plus précieux. Je parle de notre jeunesse, qui représente notre avenir.
    Pouvons-nous créer des outils en nous servant de la même arme, c'est-à-dire l'intelligence artificielle, pour venir à bout de ce problème? Il est impossible que des gens puissent assurer une surveillance 24 heures sur 24. Il va falloir trouver une solution.
    Ce serait peut-être une bonne chose d'adopter des mesures législatives pour punir les gens qui font la promotion de tout cela.
    Cela dit, quand une personne s'aperçoit que ses enfants ou ses petits-enfants naviguent sur un tel site, la démarche est tellement longue avant de faire retirer le contenu que ce dernier peut demeurer accessible pendant longtemps.
    Peut-on inventer des outils pour être en mesure de rayer cela de la carte?

[Traduction]

    Nous ne sommes pas spécialistes de la programmation de l'intelligence artificielle, mais je pense que c'est tout à fait possible, et je pense que c'est l'une des raisons pour lesquelles les organes de réglementation publics devraient travailler avec des plateformes. Ils comprendraient comment ces systèmes fonctionnent et comment ils pourraient contribuer à réguler le contenu. Les plateformes font déjà de la modération de contenu, toutes les grandes plateformes technologiques comme YouTube, Google, Facebook, etc.
     Il s'agit d'une nouvelle vague de contenus qu'elles devront prendre en compte dans leurs systèmes.

  (1705)  

[Français]

     Si vous aviez une baguette magique pour nous aider dans le cadre de cette étude afin que nous changions vraiment les choses, quels conseils nous donneriez-vous?

[Traduction]

    J'y reviens toujours, mais je pense vraiment qu'il faut établir une relation avec les plateformes et leur demander des comptes.
     Ce qui me choque le plus, c'est vraiment de voir à quel point cette technologie est accessible. Tant qu'elle restera aussi accessible, il est inévitable que plus de gens subiront des préjudices.
     Une chose qui m'a vraiment contrariée lorsque je me suis penchée sur le sujet, c'est la manière dont la technologie est présentée. Elle est présentée de manière très neutre et sans distinction de genre, presque comme si elle n'était pas délibérément destinée à nuire et à créer de la pornographie non consensuelle. Voici un exemple de la manière dont ces plateformes se décrivent: « des algorithmes d'IA sophistiqués pour transformer des images de personnes habillées ». Elles affichent une clause d'exonération selon laquelle l'IA doit être conforme à la loi et consensuelle, alors que ce n'est manifestement pas ainsi qu'elles sont conçues et qu'il n'existe aucun mécanisme de contrôle permettant de vérifier que les images utilisées le sont d'une manière consensuelle.
     Je pense que tant que la technologie sera aussi accessible et qu'elle ne sera pas remise en question, nous continuerons à voir ces préjudices. Je commencerais par là.
    Merci beaucoup, monsieur Gourde.
     Je donne maintenant la parole à Rachel Bendayan, pour les libéraux, pour cinq minutes.

[Français]

    Merci beaucoup, madame la présidente, et merci à mes collègues de m'accueillir. Je ne siège pas à ce comité habituellement, mais cela me fait plaisir d'être avec vous aujourd'hui.
    J'aimerais commencer en disant que je suis assez d'accord sur l'idée d'amendement suggérée par M. Champoux. J'espère que le Comité se penchera là-dessus.
    Maître Moreau, je crois que vous avez dit qu'un procès, c'est long et coûteux. Dans le passé, j'ai été avocate plaidante, et je suis assez d'accord avec vous à ce sujet.
    Cela dit, je veux juste m'assurer de bien comprendre vos propos.
    Vous dites que le temps que cela prend pour avoir un jugement est un peu trop long.
    Est-ce exact?
     C'est exact.
    D'abord, j'aimerais apporter une petite clarification. Je n'ai pas encore le titre de maître. Il reste six mois avant que je puisse l'obtenir.
    En ce qui concerne votre question, je crois que c'est juste, en effet. Il n'est pas vraiment réaliste de penser que chaque personne dont une photo hypertruquée circule quelque part sur Internet passera par tout le processus de contestation devant un tribunal. Il y a tellement de contenus qui causent des problèmes et qui ont vraiment des effets sur les gens que nous avons besoin de trouver des solutions un peu plus pratiques.
     Pour faire suite aux propos de M. Gourde, j'aimerais vous poser la question suivante.
    Je sais que vous n'êtes pas technicienne, mais ne serait-il pas intéressant, voire préférable que les plateformes puissent rapidement reconnaître les hypertrucages, même après qu'ils ont été mis en ligne?
    Je ne sais pas si cette technologie existe déjà. Si ce n'est pas le cas, j'espère qu'elle sera bientôt mise au point.
    S'il existe une possibilité, les plateformes devraient l'utiliser. Des plateformes sont déjà en train de mettre à l'essai des systèmes d'intelligence artificielle pour faire la modération de leur contenu. Je crois que la nudité est déjà un aspect qu'elles sont en train de regarder.
    Merci.

[Traduction]

    Madame Daum Shanks, je vais enlever mon chapeau d'avocate et mettre peut-être celui de mère pour vous demander comment le projet de loi sur les préjudices en ligne que nous avons présenté donnera les moyens aux utilisateurs de signaler les contenus préjudiciables.
     Je crains que nous ne demandions littéralement aux parents de contrôler l'Internet et j'aimerais vous entendre sur les outils prévus par le projet de loi qui pourraient être utiles à cet effet.
    Je pense que c'est une excellente question. Je vais cependant garder mon chapeau d'avocate pour y répondre.
    Oui, je vous en prie.
    L'une des choses que j'aimerais faire ressortir dans toute situation éventuelle... et c'est ainsi que je vais m'exprimer: « dans toute situation éventuelle ».
     Je pourrais peut-être le dire aussi en raison de votre chapeau professionnel, mais j'aime vraiment l'idée de prévoir certaines fonctions très similaires à ce qui a été la tendance en droit administratif. Mon souhait le plus cher, c'est que les gens sentent qu'ils peuvent être eux-mêmes — les gens qui ont moins accès à un conseiller juridique et ceux qui travaillent avec l'éventuel bureau de protection du citoyen du commissaire, quel qu'il soit — et qu'ils peuvent disposer eux aussi de l'espace dont le droit administratif a souvent disposé pour penser à des ajustements spontanés de la procédure, ce qui englobe tout, depuis les interprètes qui ne parlent que l'anglais et le français, par exemple, jusqu'à des choses telles que, carrément, un fauteuil confortable.
     Je pense que Cindy Blackstock a abordé de nombreux sujets dans ses travaux sur la longue liste de petites choses qui peuvent faire en sorte que les gens se sentent davantage en sécurité. C'est probablement ma plus grande préoccupation: penser à un moment où nous imaginons qu'une personne puisse appeler un espace officiel, qu'il s'agisse d'une ligne téléphonique sans frais ou du dépôt d'un signalement écrit, ou peu importe pour qu'elle ait l'impression que le système de soutien est à portée de main.
     Ayant beaucoup travaillé pour la Couronne et ayant été ensuite en contact avec des cabinets d'avocats, je pense que dans les fonctions du droit pénal, cette première étape pour démarrer le processus est incroyablement intimidante pour ceux qui n'ont pas de formation en droit. Je veux trouver autant de moyens que possible pour l'éviter, et je pense que nous avons l'obligation de les fournir. J'ai mentionné tout à l'heure l'idée d'obligations fiduciaires, qui est à mon avis l'un des meilleurs moyens de nous aider à imaginer ces moyens, parce que...

  (1710)  

    Merci, madame Daum Shanks. Je pense que nous avons largement dépassé le temps imparti.
    Très bien.
    Merci beaucoup.
     Je vais maintenant passer au tour suivant, mais je ne pense pas que nous puissions faire un tour complet. Allons-y pour deux tours de cinq minutes, puis le Bloc et le NPD auront chacun deux minutes et demie. Il nous reste 15 minutes, ce qui nous mènera exactement à 17 h 30. Je vous remercie.
     Je commence par Philip Lawrence pour les conservateurs.
    Vous avez la parole pour cinq minutes, monsieur Lawrence.
    Merci, madame la présidente.
     Je veux m'adresser d'abord à vous, madame St. Germain. En premier lieu, je tenais simplement à confirmer que j'ai bien entendu ce que j'ai cru entendre dans un témoignage précédent. Vous avez dit que votre organisme a déjà repéré, je ne pense pas que vous ayez employé le mot « quantum », mais je suppose, une grande quantité de contenus que vous avez déjà classés comme non consensuels ou autrement inappropriés. Ai-je bien compris?
     Est-elle toujours là? Non, elle est partie. Très bien, je suis désolé.
     Je vais adresser mes questions, à vous, madame Rourke, et à vous, madame Moreau.
     Mon problème avec ce projet de loi est que, bien que je sois d'accord avec son orientation, je ne pense pas qu'il aidera assez de gens assez rapidement. L'Internet est déjà inondé de pornographie non consensuelle et de pédopornographie. Avec ce projet de loi, il faut que quelqu'un s'en plaigne, qu'il s'adresse à un commissaire et que le contenu soit retiré.
     Je vois des possibilités d'améliorer ce projet de loi en prévoyant le retrait automatique des hypertrucages ou de la pornographie non consensuelle qui a déjà été signalée et étiquetée. Pensez-vous qu'il y a là une possibilité ou non?
    Je pense que je ne serais pas normative en ce qui concerne un amendement à ce projet de loi, mais je pense effectivement qu'il faudrait travailler en ce sens. S'il s'agit d'un futur projet de loi, d'un rapport ou même d'une simple collaboration avec les organes de réglementation pour être en mesure de faire quelque chose du genre, je pense que ce serait vraiment bien. Oui.
     Merci.
    Dans le même ordre d'idées, il existe plusieurs niveaux différents auxquels nous pourrions appliquer la loi. Le premier est le créateur de pornographie illégale ou d'hypertrucages illégaux. Il y a aussi les plateformes, puis les appareils, les ordinateurs, les ordinateurs portables et les téléphones.
     Le projet de loi ne saisit rien de tout cela. Je ne pense pas que, parce qu'il nous est impossible d'appliquer la loi à toutes les souris, nous devrions donc laisser le champ libre aux éléphants. Je pense que nous devrions envisager de nous attaquer directement aux plateformes.
     Êtes-vous d'accord?

  (1715)  

     Il y a une expression en français qui dit que « le mieux est l'ennemi du bien ».
     Je pense que c'est une bonne chose que des travaux sont en cours sur cette question. La technologie ne disparaîtra pas. L'IA n'est pas près de disparaître, et d'autres technologies vont suivre. Espérons que vous, en tant que législateurs, serez en mesure de faire ce travail assez rapidement pour rattraper le retard.
     Je pense que cela nous permet également de comprendre que, lorsque nous rédigeons des projets de loi aujourd'hui, nous devons nous projeter dans cinq à dix ans, voire parfois dans 25 ans. Nous ne pouvons pas nous contenter de légiférer et de travailler sur des questions d'actualité. Nous devons presque travailler sur des enjeux futurs.
    Je suis tout à fait d'accord.
    Je n'ai pas entendu beaucoup de témoignages — et je serais curieux de savoir si l'un des témoins a quelque chose à dire — à propos de l'appareil, parce que le fabricant, presque par définition, doit être un éléphant. Très peu d'entreprises fabriquent des téléphones intelligents et des ordinateurs.
     Est-ce que quelqu'un a vu dans ses recherches un moyen de réduire les préjudices en ligne?
    La différence entre la fabrication d'un ordinateur ou d'un téléphone et la technologie de l'intelligence artificielle est que, même si le logiciel initial est créé par une grande entreprise, il est désormais disponible en source ouverte. Une fois en source ouverte, ce code peut être modifié ou accaparé, et il n'y a vraiment aucun moyen de le retirer du domaine public une fois qu'il s'y trouve.
     C'est une question difficile chaque fois que l'on parle d'innovation dans le contexte des technologies innovantes, et plusieurs applications différentes sont disponibles. Quelle est l'éthique et comment équilibrer cela avec ce qui est essentiellement un énorme encouragement financier à investir dans la technologie de l'IA et son développement et à disposer de la capacité d'expérimenter avec cette technologie et de voir son évolution, tout en reconnaissant qu'une technologie comme celle-ci a beaucoup d'applications néfastes?
     Pour autant que l'on sache, la technologie a une application commerciale assez limitée, comme dans le cinéma, les médias et ce genre de domaines, mais elle peut évidemment être manipulée, pas seulement pour du contenu sexuellement explicite, mais à bien d'autres fins.
    Je crois que mon temps est écoulé.
     Je vais simplement vous remercier pour votre excellent travail. Je vous en suis reconnaissant.
    Merci. C'est tout.
     Je donne maintenant la parole à Mme Lattanzio pour les libéraux.
    Vous disposez de cinq minutes.
    Merci, madame la présidente.
     Ma question s'adresse à Mme Daum Shanks.
     Connaissez-vous les modifications proposées dans le projet de loi C-63 en ce qui concerne la Loi concernant la déclaration obligatoire?
    Je l'ai sous les yeux en ce moment.
    Y a-t-il des articles précis que vous aimeriez que je consulte?
    J'aimerais que vous nous expliquiez ce que vous comprenez de ces modifications.
     Je ne veux pas vous mettre sur la sellette.
    Je dois avouer qu'en raison du peu de temps que j'ai eu pour me préparer, je ne veux pas dire que je passerai la main sur ce point, mais si on ne me laisse pas assez de temps maintenant, j'aimerais bien passer la main.
    Très bien.
     Permettez-moi de revenir sur le processus de consultation auquel vous avez participé en 2020.
     Pouvez-vous m'en dire un peu plus sur les consultations qui ont eu lieu et sur les progrès qui, à votre avis, ont été réalisés depuis lors?
    C'est une excellente question.
     En tout cas, dans ce processus, j'ai beaucoup apprécié le sentiment que chacun possédait un type d'expertise différent et que tout le monde pouvait être sur la même longueur d'onde en voulant que quelque chose se produise. J'ai trouvé que le fait d'assurer notre confidentialité et de nous en tenir à nos objectifs signifiait que l'impact sur moi, en tout cas, était qu'il n'y aurait pas seulement un projet de loi qui réglerait ce problème. Le remue-méninges que nous avons fait ensemble et celui qui a été fait pour tout projet de loi qui intéresse quelqu'un ici n'en resteront pas là.
     L'un des points les plus importants que nous devons retenir est de planter cette graine chez tout le monde: il y aura d'autres projets de loi qui pourront être améliorés pour correspondre aux finalités dont nous parlons en ce moment. Par exemple, j'ai été inspirée de penser qu'en particulier, la Loi sur la protection des consommateurs a été l'un des meilleurs moyens de garantir que les notions de préjudice dans un domaine soient ensuite encore plus affinées dans un autre projet de loi.
     Dans l'esprit de réaliser que quelque chose n'est peut-être pas sous la forme parfaite que tout le monde souhaite ici, l'idée de ralentir est impensable. D'après mon expérience, cela m'a procuré au moins beaucoup plus d'énergie et l'espoir d'une créativité accrue dans d'autres projets de loi dans lesquels ce sujet, que ce projet de loi vise à régler, pourra être soulevé par la suite. Je vais vous donner un exemple: les préjudices en ligne subis par les enfants dans des situations très pénibles. Qu'il s'agisse de parents qui se séparent ou de frères et soeurs qui sont particulièrement méchants, des mesures peuvent être prises à l'avenir dans le cadre du droit de la famille.
     L'idée fait tellement cliché — que ce n'est que le début —, mais l'un de mes espoirs est que tout le monde se rende compte que ce n'est que le début, et que ce projet de loi n'est pas la fin.

  (1720)  

    Dans votre introduction, madame Daum Shanks, vous avez parlé de la difficulté pour les victimes de faire reconnaître des préjudices précis, car ils ne sont pas couverts par la jurisprudence. Je suis curieuse de savoir comment la commission de la sécurité numérique et l'ombudsman de la sécurité numérique proposés dans le projet de loi C-63 nous aideraient à mieux aider les victimes et à faire en sorte qu'elles soient entendues.
    L'une des façons les plus familières de l'envisager est de le voir dans une perspective très similaire à l'idée du devoir de diligence: avoir un lieu où les personnes ont un moyen de parler des préjudices qu'elles ont subis d'une manière peut-être inédite. La façon dont le devoir de diligence a été envisagé dans le passé, dans certaines de ses autres itérations, est que nous devons être prêts à entendre parler d'un nouveau type de relation. Il peut s'agir d'étudiants dans la même salle de classe. Il peut s'agir d'un superviseur au travail ou d'un ancien partenaire, d'une ancienne petite amie ou d'un ancien petit ami. Nous devons être prêts...
    Nous devons conclure, s'il vous plaît. Nous devons terminer. Il reste encore M. Champoux et Mme Ashton.
     Merci beaucoup.

[Français]

     Merci, madame la présidente.
    Ce que je comprends, et nous le comprenons tous, c'est que la recherche de solutions quant à ce problème n'est pas l'affaire d'une seule organisation ou d'un seul ordre de gouvernement. Cette question touche toute la société, et tout le monde doit apporter sa contribution. Évidemment, l'organe législatif doit faire son devoir, tout comme les plateformes technologiques, à mon avis. Cependant, comme citoyens et comme société, nous devons aussi fournir notre part d'effort.
    Je réalise que, malgré la menace que vous décrivez aujourd'hui, on ne fait pas beaucoup de sensibilisation au primaire, au secondaire et au cégep à ce sujet. Il n'y a pas beaucoup de connaissances sur le phénomène de l'hypertrucage, et cela me préoccupe. Je ne suis pas né dans une décennie où il est courant d'avoir des téléphones cellulaires offrant un accès à Internet. Je ne veux pas présumer de votre âge, madame Moreau, mais j'ai l'impression que vous avez probablement grandi avec cette technologie, contrairement à moi.
    Croyez-vous qu'on réussirait à sensibiliser suffisamment les jeunes générations si on commençait très tôt à leur donner des outils pour se prémunir contre ce genre de danger? Je suis sûr que vous le croyez. On donne à des enfants de 7 ans des téléphones cellulaires ayant un accès à Internet. Il y a des enfants, très jeunes, qui sont capables d'accéder à ce contenu et, par conséquent, qui sont susceptibles d'être victimes de cette situation.
    D'après vous, pourquoi ne sensibilise-t-on pas vigoureusement les jeunes à l'école, dès le primaire, aux risques qu'ils courent en partageant leur contenu et en naviguant simplement sur Internet? Pourquoi ne le fait-on pas encore?

  (1725)  

    Il faut vraiment entreprendre un projet de société sur cette question. Il faudrait peut-être intervenir dans les écoles de toutes les provinces. Je ne connais pas la réponse à votre question, mais il est important de souligner deux choses.
    Premièrement, il faut se pencher sur la façon dont on montre aux enfants à utiliser les nouvelles technologies. Ils adoptent souvent ces nouvelles technologies encore plus vite que nous, la plus vieille génération.
    Deuxièmement, il est important de comprendre pourquoi la pornographie hypertruquée fait autant de mal et pourquoi elle constitue une violation importante. C'est pourquoi nous nous concentrons tellement sur ce problème. On a besoin de sensibiliser les jeunes pour qu'ils comprennent que ce qui se passe sur Internet a beaucoup d'effets sur eux dans le monde physique. Il faut qu'ils sachent que, lorsqu'ils parlent à un ou à une camarade de classe, par exemple, la même personne, une fois à la maison, peut utiliser leur image et fabriquer de la pornographie hypertruquée. Je crois qu'il est parfois un peu dur de se voir à l'écran à la suite d'un hypertrucage.
    Merci beaucoup.

[Traduction]

    Merci beaucoup.
     Je donne la parole à Mme Ashton.
     Madame Ashton, vous disposez de deux minutes et demie.
    Merci.
     Je voudrais revenir sur un point, madame Moreau, que vous avez mentionné en français, soit un projet social.
    Manifestement, le but de notre présence ici et de vous entendre est de formuler des recommandations destinées au gouvernement. Tous les témoins ont parlé explicitement de cette réalité très troublante en ce qui concerne l'utilisation abusive de l'intelligence artificielle, l'utilisation d'hypertrucages et la victimisation des femmes, en particulier.
     Je me demande si vous avez des idées sur la façon dont il faudrait également renforcer l'éducation et, surtout, l'action en faveur de l'égalité et de la lutte contre la violence faite aux femmes. Il me semble que nous ne pouvons pas parler de l'utilisation d'hypertrucages et de la victimisation des femmes en ligne si nous n'en parlons pas également hors ligne. En vue de formuler des recommandations, je me demande si vous avez des suggestions à nous faire à ce sujet.
     Mme Daum Shanks pourrait peut-être nous faire part brièvement de ses réflexions à ce sujet.
     Merci.
    La première chose à se demander est pourquoi l'image d'une femme nue est si préjudiciable. Pourquoi la diffusion de cette image nuit-elle à la réputation? Quel type de réponse culturelle avons-nous à l'égard de la sexualité des femmes pour que ce soit explicitement les femmes qui soient ciblées — de sorte que 99 % des hypertrucages pornographiques sont de femmes? Il y a un énorme biais de genre dans tout cela. Je pense qu'il faut en tenir compte dans le contexte du traitement que nous réservons aux femmes de manière plus générale.
     Il faut également l'examiner dans le contexte de la violence physique, comme vous l'avez dit, de la violence faite aux femmes dans le monde réel, qui est souvent associé à la violence faite aux femmes en ligne. Bon nombre des affaires de pornographie vengeresse qui ont été portées devant les tribunaux l'ont été dans le contexte de la violence entre partenaires intimes. La pornographie vengeresse est souvent utilisée pour menacer les partenaires: « Si tu pars, je publierai ceci de toi ». Je pense que ces choses sont indissociables. Je pense qu'il faut travailler sur l'éducation pour lutter contre les deux et les considérer comme fondamentalement liées.
    Je voulais intervenir brièvement, pour être sûre de ne pas prendre tout le temps.
    Il vous reste sept secondes.
    Les bureaux des ombudsmans peuvent faire beaucoup.
     Je vous remercie.
    Très bien fait. Je vous remercie.
     Je tiens à remercier les témoins d'être venus nous présenter leur point de vue et nous faire profiter de leurs vastes connaissances sur ce sujet très complexe et des réponses aux questions qui leur ont été posées.
     Je tiens également à remercier M. Barraud d'être resté assis ici si patiemment pendant ces séances, prêt à nous aider au besoin. Merci, monsieur Barraud.
    Je tiens également à faire une remarque en tant que présidente.
     Je pense que vous avez entendu que des enfants de sept ans sont désormais exposés à ce type de contenus. Je discutais avec l'une de nos témoins la semaine dernière, et elle m'a dit que cela signifiait que nous allions avoir un grand nombre de membres des jeunes générations qui allaient y prendre part à un âge très précoce. Nous devons y penser à l'avenir. Il ne s'agit pas seulement des victimes, mais aussi des auteurs. Je pense que c'est une question intéressante à poser. Nous avons ces deux réunions. J'aurais aimé que nous disposions de plus de temps, car c'est un sujet très important et très intéressant.
    Je vous remercie encore une fois d'être venus.
     Je vais suspendre la séance pour que nous puissions nous réunir à huis clos. Merci.
     [La séance se poursuit à huis clos.]
Explorateur de la publication
Explorateur de la publication
ParlVU