CHPC Rapport du Comité
Si vous avez des questions ou commentaires concernant l'accessibilité à cette publication, veuillez communiquer avec nous à accessible@parl.gc.ca.
Torts causés par le matériel sexuellement explicite illégal en ligne
Introduction
Motion adoptée par le Comité permanent du patrimoine canadien de la Chambre des communes
Le 14 février 2022, le Comité permanent du patrimoine canadien (CHPC) de la Chambre des communes a adopté la motion suivante :
Que, conformément au paragraphe 108 (2) du Règlement, le Comité entreprenne une étude sur les torts que cause aux enfants, aux femmes et aux hommes la facilité d’accès à du contenu illégal sexuellement explicite en ligne et le fait de consulter ce contenu, et sur la mesure dans laquelle l’accès à ce contenu contribue à la prévalence de la violence envers les femmes et les filles et à la traite de personnes à des fins d’exploitation sexuelle au Canada; que le Comité entende des organismes, des victimes et des spécialistes de l’application de la loi; qu’il tienne au moins deux réunions à cette fin; qu’il examine les cadres juridiques visant à prévenir les torts causés par l’accès en ligne à du contenu illégal sexuellement explicite; et qu’il fasse rapport de ses conclusions et recommandations à la Chambre[1].
Le Comité s’est réuni le 11 et le 13 juin 2024, a entendu 12 témoins et a reçu deux mémoires. Étant donné la brièveté de l’étude, il n’a pas discuté avec les survivants de la violence en ligne fondée sur le sexe.
Le contexte de l’étude
Les préjudices en ligne
Les plateformes de médias sociaux facilitent la connectivité et la communication à l’échelle mondiale, mais il reste qu’elles permettent la propagation d’un large éventail de contenus nuisibles ainsi qu’illicites, y compris le matériel d’exploitation sexuel d’enfants (MESE) et la distribution non consensuelle d’images intimes (DNCII). Plus récemment, l’essor de l’intelligence artificielle (IA) générative a permis la création et la diffusion d’hypertrucages (« deepfakes ») sexuellement explicites (images et documents audio et vidéo retouchés au moyen d’outils numériques ou générés en totalité par l’IA), notamment des contenus montrant l’exploitation sexuelle d’enfants et d’images intimes non consensuelles.
La circulation de matériel illégal et sexuellement explicite ainsi que la facilité d’accès à un tel matériel peuvent causer des préjudices directs et graves aux victimes. En 2012, Amanda Todd, une adolescente de Port Coquitlam, en Colombie-Britannique, s’est suicidée après avoir subi des actes de cyberintimidation et de harcèlement incessants à propos d’un incident au cours duquel elle s’était exposée par mégarde à un prédateur en ligne[2]. À peine un an plus tard, Rehtaeh Parsons, une adolescente de 17 ans de la Nouvelle-Écosse, s’est suicidée après avoir été victime de cyberintimidation et de harcèlement à la suite d’une agression sexuelle[3]. Il s’agit certes de cas extrêmes, mais la circulation de contenu à caractère pédopornographique ainsi que d’images intimes non consensuelles, y compris les hypertrucages générés par l’intelligence artificielle, est un problème grandissant au Canada et à l’échelle mondiale.
L’exploitation et l’abus sexuel d’enfants en ligne « englobent un large éventail de comportements, y compris ceux liés au contenu montrant l’exploitation sexuelle d’enfants, au sextage (dont le contenu est souvent distribué sans consentement), à la sextorsion, à la manipulation psychologique et au leurre d’un enfant, à la diffusion continue en direct de violence sexuelle à l’endroit des enfants et à la production de contenu sur demande[4] ». Ils sont réputés être très rarement signalés, avec « seulement une fraction des incidents … rapportés à la police et aux tribunaux[5] », avec une tendance marquée à la hausse « depuis que les premières données nationales sont devenues accessibles en 2014[6] ». Statistique Canada rapporte que, entre 2014 et 2022, « la police a déclaré 15 630 affaires d’infractions sexuelles contre des enfants en ligne et 45 816 affaires de pornographie juvénile en ligne » et que le « taux de pornographie juvénile en ligne a augmenté de 290 % » au cours de la même période[7].
La DNCII « comporte la communication d’images intimes, souvent par un ancien partenaire, à des tiers… sans le consentement du sujet de l’image[8] ». Elle constitue une forme de violence basée sur le genre facilitée par la technologie (VBGFT)[9]. Justice Canada explique qu’elle « peut survenir dans différentes situations mettant en cause des adultes et des jeunes, notamment lors d’une rupture et de cyberintimidation[10] ». Il est difficile de déterminer la prévalence de cette activité, mais, en 2023, Statistique Canada a recensé 1 168 signalements à la police d’incidents de DNCII[11].
L’hypertrucage, qui consiste à utiliser l’IA générative pour créer des images ou des vidéos, sert de plus en plus à créer du matériel sexuellement explicite au moyen de l’image de vraies personnes, généralement sans leur consentement. De telles images peuvent être distribuées sur des plateformes de médias sociaux facilement accessibles et sur des sites pornographiques, entre autres[12]. « Leur utilisation la plus fréquente est toutefois la pornographie » et, en 2022, « [p]lus de 90 % des hypertrucages visibles en ligne sont des vidéos pornographiques non consensuelles de femmes[13] », selon le Service canadien du renseignement de sécurité. De plus, cette technologie même est devenue largement accessible, au point que des enfants d’âge scolaire peuvent facilement créer de fausses images pornographiques de leurs compagnons d’études[14].
Le contexte juridique
Le Code criminel
Tandis qu’il est légal de produire et de distribuer de la pornographie au Canada, le Code criminel en limite le contenu ainsi que la diffusion. La pédopornographie et la distribution non consensuelle d’images intimes sont deux exemples de matériel sexuellement explicite qui est illégal en vertu du Code criminel.
Plus précisément, le paragraphe 162 (1) du Code criminel érige en infraction le fait d’enregistrer (photographie, film ou vidéo) une personne qui est nue, qui expose ses organes génitaux, la région anale ou ses seins ou qui participe à une activité sexuelle lorsque cette personne pouvait raisonnablement s’attendre à ce que sa vie privée soit protégée au moment de l’enregistrement[15]. De même, il est interdit de distribuer ou de posséder un tel contenu pour distribution si la personne sait que le contenu a été enregistré dans les circonstances énumérées au paragraphe 162(1)[16].
Selon le Code, il est aussi interdit de distribuer[17] l’image intime[18] d’une personne si le distributeur sait que cette personne n’a pas consenti à la distribution de l’image ou s’il ne se soucie pas de savoir si son consentement a été obtenu ou non[19]. Ce type de distribution est devenu une infraction fédérale en 2015.
L’article 163.1 du Code interdit de produire, de distribuer ou de posséder de la pornographie juvénile ou d’y accéder[20]. Selon cet article, « pornographie juvénile » est définie comme suit :
- a) toute représentation photographique, filmée,
vidéo ou autre, réalisée ou non par des moyens mécaniques ou électroniques,
- (i) soit où figure une personne âgée de moins de dix-huit ans ou présentée comme telle et se livrant ou présentée comme se livrant à une activité sexuelle explicite;
- (ii) soit dont la caractéristique dominante est la représentation, dans un but sexuel, d’organes sexuels ou de la région anale d’une personne âgée de moins de dix-huit ans;
- b) de tout écrit, de toute représentation ou de tout enregistrement sonore qui préconise ou conseille une activité sexuelle avec une personne âgée de moins de dix-huit ans qui constituerait une infraction à la présente loi;
- c) de tout écrit dont la caractéristique dominante est la description, dans un but sexuel, d’une activité sexuelle avec une personne âgée de moins de dix-huit ans qui constituerait une infraction à la présente loi;
- d) de tout enregistrement sonore dont la caractéristique dominante est la description, la présentation ou la simulation, dans un but sexuel, d’une activité sexuelle avec une personne âgée de moins de dix-huit ans qui constituerait une infraction à la présente loi[21].
Il est important de noter que les hypertrucages, ou les images générées au moyen de l’intelligence artificielle, pourraient ne pas être actuellement visés par les dispositions du Code criminel sur la distribution non consensuelle d’images intimes, sauf lorsqu’une personne y figurant est ou paraît être âgée de moins de 18 ans[22].
La Loi concernant la déclaration obligatoire de la pornographie juvénile sur Internet par les personnes qui fournissent des services Internet
En 2011, le Parlement a édicté la Loi concernant la déclaration obligatoire de la pornographie juvénile sur Internet par les personnes qui fournissent des services Internet, qui impose aux fournisseurs de services Internet l’obligation de signaler si leur service est utilisé pour la commission d’une infraction de pornographie juvénile. S’ils sont avisés d’une telle infraction, les fournisseurs de services doivent signaler l’adresse de protocole Internet ou le localisateur de ressource uniforme en cause au Centre canadien de protection de l’enfance (CCPE). De plus, si le fournisseur de services a des motifs raisonnables de croire que son service sert à commettre une infraction de pornographie juvénile, il doit en informer « un agent de police ou toute autre personne chargée du maintien de la paix publique » dès que possible, selon les articles 10 à 12 du Règlement sur la déclaration de la pornographie juvénile sur Internet[23].
Les initiatives du gouvernement visant à lutter contre le matériel illégal et sexuellement explicite en ligne
Le gouvernement du Canada met en œuvre un certain nombre de mesures de lutte contre le MESE et la DNCII, en collaboration avec les forces de l’ordre, les organismes à but non lucratif et ses partenaires internationaux. Il s’agit, sans s’y limiter, des suivantes :
La Stratégie nationale pour la protection des enfants contre l’exploitation sexuelle sur Internet, lancée en 2004 et renouvelée et prolongée en 2009 ainsi qu’en 2019, repose sur quatre piliers : Prévention et sensibilisation; repérage, arrêt et poursuite en justice; protection de la victime; partenariats, recherche et soutien stratégique[24]. L’amélioration de la stratégie a fait l’objet de la plus récente consultation des parties prenantes en 2018[25], et, dans le budget de 2019, on a engagé 22,24 millions de dollars sur trois ans destinés à son expansion[26]. Dans le budget de 2022, on a prévu 41,6 millions de dollars supplémentaires sur cinq ans, et 8,9 millions de dollars par la suite, afin de permettre de soutenir les activités de prévention et de sensibilisation, d’améliorer la capacité du gouvernement du Canada de repérer et de poursuivre en justice les délinquants, d’élargir et de mettre en commun les connaissances, ainsi que d’améliorer la collaboration avec les partenaires et les intervenants[27].
Les partenaires à but non lucratif qui font partie de la Stratégie nationale sont notamment le Centre canadien de protection de l’enfance (CCPE), un organisme de bienfaisance dont les membres sont déterminés à réduire la victimisation des enfants. Le CCPE est responsable de Cyberaide.ca, un service national de signalement des cas d’exploitation sexuelle d’enfants en ligne, et du projet Arachnid, un outil qui permet de détecter les images de MESE et d’envoyer des avis de retrait aux fournisseurs de services électroniques[28]. Le CCPE propose également des programmes, des services ainsi que des ressources pour les familles, les éducateurs, les survivants, les services à l’enfance, les forces de l’ordre et d’autres intervenants[29].
En juin 2017, le gouvernement du Canada a annoncé sa stratégie du Canada pour prévenir et contrer la violence fondée sur le sexe, menée par Femmes et Égalité des genres Canada (FEGC). La Stratégie repose sur trois piliers : la prévention, le soutien des survivants et de leur famille ainsi que l’amélioration de la réactivité des systèmes juridique et judiciaire. Dans le cadre des budgets de 2017 et de 2018, Sécurité publique Canada a reçu 11,4 millions de dollars sur cinq ans et 2,3 millions de dollars par année par la suite pour le soutien de la mise en place du projet Arachnid et de la Stratégie, afin d’accroître les initiatives consacrées à la lutte contre l’exploitation sexuelle d’enfants en ligne en sensibilisant la population, en coordonnant les politiques et en effectuant de la recherche[30]. Au total, le gouvernement du Canada a investi plus de 800 millions de dollars, et 44 millions de dollars par an par la suite, dans sept ministères et organismes fédéraux pour soutenir la Stratégie[31], reconnaissant la VBGFT[32], parmi d’autres types d’abus.
Le Plan d’action national pour mettre fin à la violence fondée sur le sexe, d’une durée de 10 ans, vise à faire participer la population canadienne au changement des normes, des attitudes et des comportements qui contribuent à la violence fondée sur le sexe (VFS), à s’attaquer aux facteurs sociaux et économiques qui y contribuent, à établir un cadre d’accès rapide et fiable à une protection et à des services accessibles et adaptés à la culture, ainsi qu’à améliorer les retombées dans les domaines de la santé, de la société, de l’économie et de la justice pour les victimes de VFS[33]. Dans le cadre du budget de 2021, 601,3 millions de dollars sur cinq ans étaient prévus pour contribuer à faire progresser le nouveau plan d’action, et, dans le budget de 2022, on proposait 539,3 millions de dollars sur cinq ans pour appuyer les initiatives que déploient les gouvernements des provinces et des territoires pour le mettre en œuvre[34]. Depuis 2022, des accords bilatéraux ont été signés avec les gouvernements de l’ensemble des provinces et des territoires pour un total de 525 millions de dollars sur quatre ans[35].
De 2020 à 2022, Patrimoine canadien a dirigé l’élaboration d’un cadre législatif visant à contrer les préjudices en ligne, en commençant par la tenue de consultations publiques en 2021, la nomination d’un comité consultatif d’experts en 2022, l’organisation d’une série de tables rondes en 2022 et la mise sur pied de l’Assemblée citoyenne sur l’expression démocratique canadienne[36]. Le projet de loi C-63 qui en a résulté, qui est expliqué ci-après, vise à s’attaquer à la fois au MESE et à la DNCII, y compris à la question des hypertrucages.
Les initiatives internationales
Le gouvernement du Canada contribue à plusieurs groupes de travail et organismes qui se consacrent à la lutte contre le contenu illégal ainsi que sexuellement explicite.
Il est membre du Groupe de travail du G7 sur l’exploitation et les abus sexuels concernant les enfants, qui suit les progrès du Plan d’action du G7 sur la lutte contre l’exploitation et l’abus sexuels des enfants, « notamment en encourageant l’industrie à jouer son rôle, en renforçant les régimes nationaux et la coopération en matière d’application de la loi, ainsi qu’en protégeant les enfants dans le monde entier[37] ».
Le gouvernement du Canada a collaboré avec ses partenaires du Groupe des cinq[38] pour élaborer et lancer les Principes volontaires pour contrer l’exploitation et l’abus sexuels des enfants en ligne, qui « fournissent un cadre commun et cohérent pour lutter contre les crimes sexuels en ligne à l’endroit d’enfants […] ainsi que favoriser une intervention collective de la part des gouvernements et des partenaires du milieu[39] ».
De plus, le gouvernement du Canada est membre de l’Alliance mondiale WePROTECT pour mettre fin à l’exploitation sexuelle en ligne, qui est une alliance de pays, de partenaires de l’industrie ainsi que d’organismes de la société civile qui évaluent le contexte de menace global, sensibilisent les gens, accroissent la coopération internationale et aident les pays membres à adopter des mesures législatives harmonisées mondialement pour prévenir et contrer l’exploitation sexuelle des enfants en ligne[40]. En 2022, il s’est aussi joint au WePROTECT Task Force on Child Sexual Abuse Online[41].
Présidé par la National Crime Agency (Agence nationale de lutte contre le crime) du Royaume-Uni, le Virtual Global Taskforce est une alliance internationale qui regroupe 15 organismes chargés de l’application de la loi, y compris la Gendarmerie royale du Canada[42].
Dirigé par Affaires mondiales Canada, le troisième Plan d’action national du Canada pour les femmes, la paix et la sécurité, qui s’inscrit dans le cadre de la réaction actuelle du Canada à la Résolution 1325 du Conseil de sécurité des Nations Unies sur les femmes, la paix et la sécurité, se penche notamment sur « la réduction de la violence sexuelle et fondée sur le genre — y compris la violence en ligne — dans les contextes de conflit, d’après-conflit et humanitaires », tant au Canada qu’à l’étranger[43].
En 2022, en tant que président de la Freedom Online Coalition (Coalition pour la liberté en ligne), le Canada « s’est engagé à collaborer avec ses partenaires pour lutter contre la violence en ligne fondée sur le genre, au moyen d’activités de recherche et de sensibilisation[44] ». La même année, il a également adhéré au Partenariat mondial pour l’action contre la violence et le harcèlement sexiste en ligne, une alliance de pays, d’organisations internationales, de la société civile et du secteur privé qui se sont réunis pour lutter contre la violence sexiste en ligne[45].
Le 8 juillet 2024, le gouvernement du Canada a annoncé l’affectation d’une somme de cinq millions de dollars sur trois ans pour le programme « Making All Spaces Safe » du Fonds des Nations Unies pour la population, qui vise à ce que les femmes et les filles profitent des avantages d’une technologie exempte de violence et de discrimination. Le Canada est le premier contributeur national à ce programme phare[46].
Les études parlementaires antérieures
En 2017, le Comité permanent de la santé de la Chambre des communes a examiné « les effets de santé publique liés à la facilité de trouver et de visionner en ligne du contenu violent et sexuellement explicite avilissant sur les enfants, les femmes et les hommes[47] ». Dans son rapport, il a recommandé à l’Agence de santé publique du Canada de mettre à jour les Lignes directrices canadiennes pour l’éducation en matière de santé sexuelle, d’élaborer une stratégie canadienne pour l’éducation en matière de santé sexuelle ainsi que de dresser une liste de pratiques exemplaires et d’outils destinés aux parents pour leur permettre de protéger les enfants contre l’exposition au contenu sexuellement explicite en ligne. Il a également recommandé aux entreprises technologiques et aux créateurs de logiciels ainsi que de moteurs de recherche de créer de meilleurs filtres de contenu et des instruments permettant de respecter le droit à la vie privée tout en donnant aux parents la possibilité de protéger leurs enfants en ligne[48].
En 2021, le Comité permanent de l’accès à l’information, de la protection des renseignements personnels et de l’éthique (Comité ETHI) de la Chambre des communes a mené une étude sur la protection de la vie privée et de la réputation sur les plateformes comme Pornhub. L’étude portait sur la réaction de Pornhub/Mindgeek[49] à l’affichage de contenu nonconsensuel et d’autre contenu illégal sur Pornhub, ainsi que sur son incapacité alléguée d’interdire et de retirer des vidéos illégales qui se trouvent sur son site. Dans son rapport, le Comité a recommandé que le gouvernement élabore des dispositions réglementaires exigeant « la vérification de l’âge pour toutes les personnes qui figurent dans le contenu téléversé pornographique » et qu’il contraigne les fournisseurs de services Internet à modérer ainsi qu’à éliminer le contenu illégal[50].
Ce que le Comité a entendu
L’ampleur du problème et les préjudices causés
Les témoins ont fait ressortir la prévalence du MESE et de la DNCII, ainsi que certains des motifs de leur prolifération sur Internet.
Carol Todd est une éducatrice canadienne et une défenseure de la santé mentale. Elle lutte contre la cyberintimidation. Elle est également la mère d’Amanda Todd, l’adolescente dont le suicide en octobre 2012 a attiré l’attention du monde entier sur le problème de la cyberintimidation et du harcèlement en ligne. Après le décès d’Amanda, Mme Todd a fondé l’Amanda Todd Legacy Society, un organisme voué à la sensibilisation aux effets que l’intimidation peut avoir, aux problèmes de santé mentale et aux dangers de l’exploitation en ligne.
Mme Todd a souligné au Comité que la « prévalence du matériel sexuellement explicite a augmenté en raison de l’utilisation généralisée d’Internet », et que le « volume augmente de façon exponentielle de jour en jour[51] ». Mme Todd a donné l’explication suivante :
Au cours de la dernière décennie, nous avons observé des changements rapides dans le paysage technologique. Auparavant, la technologie était surtout utilisée comme outil de communication… et maintenant, on voit [l’évolution] des applications pour le plaisir. On nous a expliqué qu’elles étaient sécuritaires, mais nous savons maintenant que c’est faux, car elles ont accru le chaos, l’inquiétude et les comportements indésirables en ligne pour les Canadiens et pour tous… C’est un enjeu mondial[52].
Dianne Lalonde, spécialiste de la mobilisation de la recherche et des connaissances au Centre de recherche et d’éducation sur la violence contre les femmes et les enfants, a décrit la distribution non consensuelle d’images intimes ainsi que l’exploitation sexuelle par hypertrucage, abordée plus en détail ci-dessous, comme des « formes de violence » qui ont « augmentées dans le contexte canadien », et elle a indiqué que 92 % des 295 cas canadiens signalés à la police en 2016 constituaient de la persécution ciblée des femmes. Elle a ajouté que, bien qu’« il nous manque des données canadiennes intersectionnelles », des études menées aux États-Unis et en Australie démontrent que les images intimes distribuées non consensuellement « ciblent également de façon disproportionnée les personnes noires, autochtones et 2SLGBTQ2IA+, ainsi que les personnes handicapées[53] ».
Mme Lalonde a décrit le lien entre la DNCII et « d’autres formes de violence ». Elle a ajouté que les auteurs de l’exploitation l’utilisaient « pour contrôler, surveiller et harceler leur partenaire intime actuel ou passé » ou « comme tactique pour faire de la publicité, recruter des personnes et maintenir le contrôle sur les victimes de traite de personnes à des fins sexuelles[54] ». Elle a ajouté que bien des gens, « surtout de jeunes garçons », s’y livraient « en raison des pressions sociales auxquelles ils font face en ce qui concerne la masculinité traditionnelle et les attentes liées à l’expérience sexuelle[55] ».
Marc-Antoine Vachon, lieutenant de la Sûreté du Québec (SQ), a fait ressortir la prévalence des images d’abus pédosexuels dans cette province, ainsi que les moyens que déploie la Sûreté pour les combattre. Il a déclaré que « depuis 2019 […] nous avons noté une hausse de 295 % des signalements reçus et traités, dont le nombre est passé de 1 137 à 4 493 », et que la SQ avait procédé à « l’arrestation de plus de 1 100 individus et l’identification de plus de 230 victimes réelles » désignées au cours de la même période[56].
Monique St. Germain est l’avocate en chef du CCPE. Elle a déclaré au Comité que Cybertip.ca « reçoit plus de 2 500 signalements par mois » et a traité « plus de 400 000 signalements » depuis sa création en 2002[57], tandis qu’avec le projet Arachnid, « l’outil transmet environ 10 000, parfois jusqu’à 20 000, demandes de retrait par jour ». Mme St. Germain a expliqué que, depuis son lancement, en 2017, le projet Arachnid avait contribué à fournir « plus de 40 000 millions d’avis… à plus de 1 000 fournisseurs de services[58] ».
Les témoins ont également relevé les conséquences de la DNCII et du MESE sur les victimes et les personnes survivantes, ainsi que sur ceux qui y ont accès.
Mme Lalonde a attiré l’attention sur les répercussions intersectionnelles de la VBGFT, en indiquant que « les deux poids, deux mesures en matière de sexualité font en sorte que les femmes sont plus susceptibles… d’être blâmées, discréditées et stigmatisées en raison des images sexuelles en ligne ». Elle a ajouté que les « personnes 2SLGBTQ2IA+ ont déterminé que la [DNCII] a été un outil pour “afficher” leur orientation sexuelle et leur identité de genre[59] ».
Mme Lalonde a souligné que les conséquences de la DNCII, y compris l’hypertrucage, étaient « émotionnelles, économiques, physiques et sociales », et que les survivants « ont comparé ces violences à d’autres formes de violence sexuelle où on les prive de leur autonomie[60] ». Elle a fait remarquer que, selon les survivants, « l’une des choses qui distinguent les torts causés en ligne, c’est la façon dont ils deviennent externalisés[61] » lorsque les utilisateurs échangent et retransmettent l’expérience violente. Mme St. Germain était d’accord, notant que du « contenu pédopornographique dans lequel figurent des adolescents est publié sur des sites pornographiques et c’est difficile de le faire retirer[62], et que, du fait que celui-ci « reste accessible », « des vies sont ruinées. Les survivants nous le répètent sans cesse : tant que les échanges du contenu pédopornographique où ils figurent sont possibles, ils ne peuvent pas aller de l’avant. Ils vivent dans la peur constante d’être reconnus et harcelés[63]. »
Dans la même veine, dans le mémoire qu’il a présenté au Comité, Defend Dignity, un organisme national œuvrant pour mettre fin à l’exploitation sexuelle au Canada, a décrit le traumatisme chez les survivants « de la perte de contrôle sur des images intimes non consensuelles d’elles-mêmes » :
Les plateformes qui hébergent les abus profitent de leur souffrance, tandis que les utilisateurs des services consultent, commentent et, parfois, partagent le contenu abusif pour leur propre plaisir. Il est impossible de faire disparaître définitivement le contenu du Web, et il peut refaire surface n’importe quand et n’importe où. Il y a aussi leur crainte de ne pas savoir qui verra le contenu abusif : seront-elles reconnues par un étranger? Leurs enfants le verront-ils? … Ces abus peuvent gravement nuire au bien-être général et avoir des répercussions à long terme sur la santé mentale, sociale, physique et relationnelle[64].
Des témoins ont fait état des répercussions plus vastes en matière de santé publique de la circulation de matériel comme le MESE. Mme St. Germain a déclaré que les « actes de violence sexuelle commis par des enfants sont en hausse[65] », ce qu’elle voit comme pouvant « banaliser des actes sexuels préjudiciables, conduire à de fausses croyances sur la disponibilité sexuelle des enfants et exacerber les comportements agressifs ». Elle a cité des éléments de la jurisprudence canadienne démontrant que « 61 % des délinquants ayant produit du contenu pédopornographique au Canada en avaient aussi recueilli[66] ». Defend Dignity a également établi un lien entre la disponibilité de MESE et « un risque accru de chercher à abuser des enfants », les incidents de leurre ayant augmenté de 815 % entre 2018 et 2022, et les délinquants ayant déclaré que l’exposition à du MESE était un facteur qui avait contribué à leurs propres infractions[67].
Les hypertrucages générés par l’IA
Plusieurs témoins, dont Chloe Rourke et Shona Moreau, de nouvelles diplômées de la faculté de droit de l’Université McGill, ont axé leurs observations sur le phénomène de la pornographie par hypertrucage.
Mme Moreau a indiqué que le phénomène des hypertrucages générés par l’IA était « devenu de plus en plus raffiné et difficile à distinguer du contenu filmé dans la vie réelle », que des « hypertrucages très réalistes peuvent maintenant être générés à partir d’une simple photographie », et que « l’utilisation la plus courante [de l’hypertrucage] est de loin la pornographie non consensuelle », qui met « en scène des femmes dans une proportion écrasante[68] ». Elle a expliqué :
[C]ette utilisation sexiste et sexualisée de la technologie n’est pas nouvelle. Le terme deepfake, ou hypertrucage est apparu en 2017 pour désigner une pratique consistant à utiliser des outils en ligne pour superposer le visage de femmes célèbres sur celui d’autres femmes dans des vidéos pornographiques. Autrement dit, la pornographie non consensuelle est une des principales applications de cette technologie depuis le début[69].
Mme Moreau a déclaré que ce contenu constituait « une menace importante pour les personnes, elle porte atteinte à la dignité humaine », qu’il « peut être produit rapidement avec un minimum d’efforts et de compétences », et que ces contenus « causent des préjudices réels aux victimes sur les plans émotif, social et réputationnel[70] ». Elle a ajouté que « même des enfants… se sont retrouvées dans des hypertrucages pornographiques que leurs collègues de classe s’échangeaient entre eux[71] ».
Mme Rourke a dit, en parlant des hypertrucages, qu’il « s’agit d’une nouvelle vague de contenus [que les plateformes] devront prendre en compte dans leurs systèmes [de contrôle][72] ». Elle a déclaré au Comité qu’elle était sous le choc « de voir à quel point cette technologie est accessible[73] » et a indiqué « qu’il n’existe aucun mécanisme de contrôle permettant de vérifier que les images utilisées le sont d’une manière consensuelle[74] ».
Mme St. Germain a ajouté que les hypertrucages contournaient les « systèmes de détection de ce genre de matériel », comme le projet Arachnid : « Dans le cas des faux documents, ces valeurs de hachage [empreintes digitales] n’existent pas dans les bases de données sur lesquelles ils s’appuient, de sorte que leur suppression devient un défi incroyable[75]. »
Mme Heidi Tworek, professeure agrégée de l’Université de la Colombie-Britannique, a convenu que les hypertrucages constituaient un problème grave et de plus en plus préoccupant. Elle a expliqué que, bien qu’il ne s’agisse pas d’une nouvelle technologie, « l’IA générative a considérablement facilité l’accès ». Elle a déclaré au Comité que le « nombre de vidéos hypertruquées a augmenté de 550 % de 2019 à 2023 » et a ajouté que « le tiers des outils d’hypertrucage permet de créer du contenu pornographique, qui représente 95 % de toutes les vidéos hypertruquées[76] ».
Mme Lalonde a souligné : « Bon nombre de ces formes d’applications et de technologies ne fonctionnent que sur le corps des femmes et des filles » et que, en « 2023, une étude portant sur 95 000 vidéos d’hypertrucage a révélé que 98 % des vidéos étaient sexuellement explicites et que 99 % d’entre elles ciblaient des femmes[77] ». Elle a fait remarquer que l’hypertrucage compromettait également les travailleuses du sexe : celles-ci « se font voler leurs reproductions, qui sont utilisées pour infliger de la violence, et… s’exposent ensuite à la stigmatisation et à la criminalisation[78] ».
Mme Rourke a parlé du fait que le phénomène préexistant de la DNCII était « exacerbé » par les hypertrucages, « parce que n’importe qui peut créer et distribuer ce type de contenu », et que ceux-ci « sont déjà utilisés pour cibler, harceler et museler les femmes journalistes et les politiciennes ». Elle a prévenu que, si « rien n’est fait, cette technologie risque de réécrire des conditions de participation des femmes à la sphère publique[79] ».
La réglementation du matériel sexuellement explicite et illégal
Des témoins ont parlé des occasions et des problèmes liés à la réglementation du matériel sexuellement explicite et illégal en ligne. Ils se sont attachés à certaines mesures, notamment à la vérification de l’âge et à l’apport d’une modification au Code criminel afin d’y intégrer une référence aux hypertrucages et d’imposer aux plateformes la responsabilité juridique de prévenir, de traiter ainsi que de retirer ce genre de matériel. Ce dernier fait l’objet de la première partie du projet de loi C-63, qui porte sur les préjudices en ligne.
Les témoins ont généralement reconnu que l’actuel manque de réglementation était inacceptable. Mme St. Germain a indiqué que, pendant « des années, nos lois applicables au monde hors ligne les ont protégés ([les enfants]), mais nous les avons abandonnés depuis l’apparition d’Internet[80] ». Elle a ajouté : « La gestion des préjudices liés à Internet retombe en grande partie sur les épaules des parents. C’est irréaliste et injuste[81]. » Emily Laidlaw, professeure agrégée et titulaire de la Chaire de recherche du Canada en droit de la cybersécurité à l’Université de Calgary, était d’accord pour dire que « la sécurité est généralement reléguée au second plan et passe après bien d’autres choses », que les « médias sociaux ont toujours été peu réglementés », et que la « sécurité en ligne dépend du bon vouloir des entreprises ou des pressions du marché ». Elle a ajouté : « Il n’y a pas de normes minimales ni de moyen de tenir les entreprises responsables[82]. »
Mme Todd a déclaré : « Amanda est décédée en 2012. Nous sommes maintenant en 2024. Cela fait presque 12 ans. » Elle a pointé du doigt le nombre « d’obstacles… érigés par un parti politique par rapport à un autre », les accusant d’être responsables de l’inadéquation chronique de la réglementation ou d’autres solutions[83]. Elle a ajouté :
J’ai comparu devant six comités permanents depuis 2012, qu’ils aient examiné la violence facilitée par la technologie, la violence fondée sur le sexe, l’exploitation des enfants et des jeunes ou les images intimes, et me voilà maintenant devant celui‑ci.
Je pourrais faire un copier-coller des faits dont je parle : il faut plus de financement, plus de lois, plus d’éducation, plus de sensibilisation. Les comités permanents publient ensuite un rapport. Nous voyons ces rapports, mais nous ne savons jamais ce qui se passe au bout du compte. Donne‑t‑on vraiment suite à ces recommandations? Y a‑t‑il plus de financement dans le domaine de l’exécution de la loi pour former les agents et en étoffer les connaissances? Des changements législatifs sont-ils apportés?…
Quand les mesures législatives ne sont pas adoptées, ce sont les Canadiens, nos enfants et nos citoyens qui pâtissent… Nous sommes un pays industrialisé, et les Canadiens méritent d’être protégés[84].
La confirmation et la vérification de l’âge
Selon le Commissariat à la protection de la vie privée du Canada, « la confirmation de l’âge … fait référence à divers processus par lesquels l’âge (ou le groupe d’âge) d’un utilisateur est déterminé selon des niveaux variables de précision et de certitude[85] ». L’un de ces processus consiste à exiger de l’utilisateur qu’il prouve son âge, directement au moyen d’une pièce d’identité émise par le gouvernement ou indirectement par l’intermédiaire d’un service tiers[86]. Une autre méthode est l’estimation de l’âge, qui consiste à examiner la biométrie ou des comportements pour déterminer l’âge de l’utilisateur[87]. Les méthodes les plus utilisées que l’on possède consistent à demander aux utilisateurs de communiquer des renseignements sensibles comme des cartes d’identité officielles, des données bancaires ou des données biométriques (par exemple, la reconnaissance faciale), qui, dans le cas des sites Web pornographiques, sont ensuite mises en lien avec des données sur la consommation de pornographie[88]. Les critiques ont souligné que, à l’exception des préoccupations en matière de confidentialité et de sécurité des données, de telles lois peuvent facilement être contournées au moyen d’un réseau privé virtuel[89].
Dans un certain nombre d’États américains, on a déjà mis en place diverses lois en matière de vérification de l’âge[90], mais ces lois ont fait l’objet de contestations judiciaires et sont largement controversées[91]. Pornhub bloque l’accès à son site dans les États où l’on exige que les utilisateurs fournissent une pièce d’identité pour prouver leur âge, ce qui, selon l’entreprise, constitue une menace pour les renseignements personnels ainsi que la sécurité des utilisateurs[92]. Des groupes de la société civile ont également prévenu que de telles lois minaient les protections de la liberté d’expression visées par le premier amendement[93]. La loi texane est actuellement devant la Cour suprême des États‑Unis[94].
Deux projets de loi portant sur la vérification de l’âge font présentement l’objet d’un examen au Parlement. L’un est le projet de loi S-210, Loi limitant l’accès en ligne des jeunes au matériel sexuellement explicite, en vertu duquel il serait illégal pour des organismes de mettre du matériel sexuellement explicite à la disposition des jeunes sur Internet et qui habiliterait le gouverneur en conseil à désigner par règlement des méthodes de vérification de l’âge[95]. Au moment de la rédaction du présent document, le projet de loi S-210 en est à l’étape du rapport à la Chambre des communes.
L’autre est le projet de loi C-270, Loi modifiant le Code criminel (matériel pornographique), en vertu duquel il serait illégal de produire, de distribuer ou de publiciser de la pornographie à des fins commerciales sans s’être préalablement assuré que chaque personne qui y figure soit âgée de 18 ans et qu’elle ait donné son consentement à l’époque où le matériel pornographique a été produit. En vertu du projet de loi C-270, un accusé ne pourrait pas prétendre avoir cru qu’une personne était âgée de 18 ans ou plus à moins qu’il ait « tenté de vérifier l’âge de la personne en demandant et en examinant une pièce d’identité délivrée par une autorité fédérale ou provinciale ou par un gouvernement étranger — ou tout document prévu par règlement — sur laquelle figure la photographie de la personne, sa date de naissance et sa signature[96] ». Au moment de la rédaction du présent document, le projet de loi C-270 a été renvoyé au Comité permanent de la justice et des droits de la personne de la Chambre des communes.
Mme Laidlaw a déclaré que le projet de loi S-210 était « déficient » et « inutile », décrivant la vérification de l’âge comme une technologie « qui évolue » et dont l’utilisation « doit être examinée de près » à la lumière des engagements démocratiques en ce qui a trait à « la liberté d’expression, à la protection de la vie privée et à la cybersécurité[97] ».
De même, M. Krishnamurthy a fait remarquer que « les lois sur la technologie de vérification de l’âge qui ont été adoptées aux États-Unis » étaient « inefficaces », en partie à cause des réseaux privés virtuels. Il partageait les préoccupations de Mme Laidlaw, soulignant que les méthodes actuelles de vérification de l’âge « obligent les gens à divulguer des détails personnels, ce qui signifie que quelqu’un suit leurs activités sur Internet d’une quelconque façon », et que l’utilisation de données biométriques comportait « d’importantes imprécisions », tout en permettant de recueillir « des renseignements de nature très délicate[98] ». Il a souligné que la technologie « s’améliorera peut-être », mais que le « projet de loi du Sénat [S-210] est mal avisé en ce moment[99] ».
Jocelyn Monsma Selby est une thérapeute clinique et une chercheuse spécialisée de la sexologie médico-légale et de la toxicomanie, ainsi que la présidente de Connecting to Protect, une initiative mondiale visant à lutter contre l’accès des enfants à la pornographie en ligne. Elle s’est prononcée en faveur des mécanismes de vérification de l’âge, mais en précisant qu’elle préférait des « contrôles sur les appareils au point d’accès en ligne par l’entremise de Google, d’Apple ou de Microsoft ». Elle a affirmé que cette approche « est technologiquement possible et relativement rapide à mettre en œuvre » et qu’elle a « une portée et une efficacité beaucoup plus grandes » que ce que l’on proposait dans le projet de loi S‑210[100]. Elle a expliqué que, « si on installe sur l’appareil un contrôle ayant une technologie de vérification de l’âge, alors on englobera la majorité des plateformes », alors qu’il y a trop de sites différents pour que l’on puisse les réglementer individuellement : « [V]ous avez besoin d’un outil installé sur l’appareil qui englobe tous ces sites… Les gens trouvent du contenu sexuellement explicite partout sur l’Internet usuel, pas sur le Web caché[101]. » Elle était d’accord avec M. Krishnamurthy à savoir que les lois sur la vérification de l’âge de certains États américains comme le Texas « ne se sont pas avérées efficaces[102] ».
Selon un mémoire déposé par Defend Dignity, il « existe un large éventail de méthodes de vérification de l’âge » qui ne permettent pas « d’identifier l’utilisateur ». Ce regroupement préconise l’adoption du projet de loi S-210 en fournissant des critères « pour garantir que la technologie de vérification de l’âge utilisée est efficace et préserve la vie privée[103] ». Defend Dignity recommande également d’adopter le projet de loi C‑ 270 « dans les plus brefs délais[104] ».
Modifier le Code criminel pour y inclure les hypertrucages
Certains témoins ont déclaré au Comité que l’on devrait modifier le Code criminel afin de prendre en compte la pornographie par hypertrucage.
Chloe Rourke a déclaré que les dispositions de l’article 162.1 du Code, qui interdit la publication non consensuelle d’images intimes, « doivent être revues et élargies pour s’appliquer aux images modifiées comme les hypertrucages », et que cela « enverrait le message très clair que ces pratiques sont répréhensibles et ne seront pas tolérées[105] ».
Mme Lalonde a informé le Comité que le Royaume-Uni avait connu quelques réussites en ce qui concerne la criminalisation des hypertrucages, indiquant que l’un « des plus grands sites Web d’hypertrucages sexuels a été fermé au Royaume-Uni » après leur criminalisation[106]. Elle a ajouté que, si l’on faisait la même chose au Canada, cela « permettrait de signaler qu’il s’agit d’une forme de violence, étant donné les doutes que cela suscite ». Elle a fait référence à titre d’exemple à une étude au cours de laquelle « on a évalué 95 000 vidéos d’hypertrucage sexuel et on a demandé aux gens s’ils se sentaient coupables de les regarder. La grande majorité d’entre eux ont répondu non[107]. »
Keita Szemok-Uto, un avocat qui a étudié la pornographie par hypertrucage en relation avec le droit de la vie privée, a souligné des défis liés à la criminalisation des hypertrucages aux termes de l’article 162.1 du Code, invoquant l’élément « attente raisonnable de protection en matière de vie privée » de la disposition : « Lorsque vous prenez la photo d’une personne sur un média social, qui est prise et affichée publiquement, on peut se demander si cette personne avait une attente raisonnable en matière de respect de la vie privée au moment où elle a été prise[108]. »
Me. Szemok-Uto a également déclaré que « la norme du doute raisonnable limite peut‑être qui peut être reconnue coupable de ces crimes ainsi que la portée et les ressources nécessaires pour prévoir et faire respecter des interdictions pénales visant les comportements de cette nature[109] ». Il a déclaré qu’au cours de ses études sur la pornographie par hypertrucage, il avait « découvert qu’il n’existe pas encore de système de droit adéquat qui protégerait les victimes de ce genre d’atteinte à la vie privée », et qu’il s’agissait d’« une question qui n’est abordée que maintenant avec le projet de loi sur les préjudices en ligne [le projet de loi C-63, qui correspond à la mesure législative proposée par le gouvernement sur les préjudices en ligne][110] ».
Mme Rourke était d’accord avec M. Szemok-Uto, en ajoutant : « À la différence d’un enregistrement réel, un hypertrucage n’est pas lié à un moment, à un lieu ou à un partenaire sexuel précis. C’est facile de produire ce contenu et de le distribuer de façon anonyme. Par conséquent, il est difficile dans la pratique d’identifier les auteurs et de les tenir légalement responsables, et l’effet dissuasif réel de ces dispositions sera limité[111]. »
Elle a affirmé que, même si l’auteur d’un acte pouvait être identifié, et si l’on pouvait porter des accusations, « les sanctions pénales ou civiles encourues ne permettront pas à la victime de recouvrer le respect de sa vie privée, sa dignité ou son sentiment de sécurité, a fortiori si le contenu reste dans le domaine public[112] ». Elle a déclaré : « Pour remédier au caractère permanent des préjudices, nous devons nous attaquer au rôle et à la responsabilité des plateformes numériques », puisque ce « sont elles qui contrôlent les algorithmes… et ce sont elles qui peuvent retirer le contenu — ou tout du moins le rendre moins visible, voire le supprimer complètement[113] ». Pour Mme Rourke, les dispositions du Code « qui existent actuellement et qui s’appliquent à l’enregistrement réel d’images intimes… sont [à mon avis] un remède incomplet », même si l’on met de côté la question des hypertrucages. Elle a ajouté qu’il fallait, « en priorité, savoir quels sont les recours accessibles qui peuvent être mis en œuvre dans la grande majorité des cas… C’est pourquoi je pense qu’il est très important de faire participer les plateformes[114]. »
Le projet de loi C-63 (Loi sur les préjudices en ligne)
La partie 1 du projet de loi C-63, Loi sur les préjudices en ligne, qui a été déposée au Parlement le 26 février 2024 et en est actuellement à l’étape de la deuxième lecture à la Chambre des communes, porte sur la reddition de comptes des plateformes. Ce projet de loi est le fruit, entre autres, de la consultation et des travaux stratégiques menés par le ministère du Patrimoine canadien de 2019 à 2023[115]. Le ministère de la Justice a assumé la direction du dossier à la fin de l’année 2023[116].
Selon le gouvernement, ce projet de loi « obligerait les plateformes en ligne… à rendre compte des choix de conception qui mènent à la diffusion et à l’amplification de contenu préjudiciable. En outre, le projet de loi les obligerait à mettre en œuvre des stratégies pour réduire l’exposition des utilisatrices et utilisateurs à du contenu préjudiciable[117]. »
Il exigerait de supprimer « (1) le contenu représentant de la victimisation sexuelle d’enfants ou perpétuant la victimisation de survivants et survivantes, et (2) le contenu intime communiqué de façon non consensuelle », y compris les hypertrucages, de fournir des outils accessibles permettant de signaler des contenus et de bloquer des utilisateurs, et de mettre en œuvre des moyens de protéger les enfants ainsi que de « réduire l’exposition » à du contenu préjudiciable pour tout le monde. Le projet de loi vise également à modifier le Code criminel ainsi que la Loi canadienne sur les droits de la personne pour permettre de lutter contre la haine en ligne et à améliorer la Loi concernant la déclaration obligatoire de la pornographie juvénile sur Internet par les personnes qui fournissent des services Internet. Enfin, il entraînerait l’établissement d’une commission de la sécurité numérique pour le contrôle et l’application de la loi, ainsi que d’un ombudsman de la sécurité numérique, qui serait « chargé d’appuyer et de défendre l’intérêt du public en ce qui a trait aux enjeux systémiques touchant la sécurité en ligne[118] ».
Les témoins ont semblé globalement favorables au projet de loi. Selon Mme Laidlaw, qui a fait partie du comité consultatif d’experts nommés par le gouvernement ayant travaillé à l’élaboration du projet de loi[119], celui-ci « s’inspire d’autres lois du genre qu’on trouve dans le monde » et « serait le meilleur moyen de lutter contre le contenu illégal sexuellement explicite et l’exploitation sexuelle[120] ».
M. Krishnamurthy, qui a aussi fait partie du Comité consultatif d’experts, a déclaré devant le Comité que le projet de loi « propose de bonnes pistes pour relever une partie du défi de la distribution » en créant « le devoir d’agir de façon responsable », ce qui nous amène au problème systémique de la façon dont les plateformes organisent et modèrent le contenu, et ainsi « de réduire le risque que ce genre de contenu soit diffusé sur ces plateformes[121] ». Il a ajouté que l’obligation de retirer le contenu illégal « dans la mesure où les efforts de modération des plateformes ou les signalements des utilisateurs permettent de déterminer que ce contenu est illégal » constituait une « approche très sensée » qui est « tout à fait conforme à la Charte [des droits et libertés] dans ses grandes lignes[122] ».
Mme Signa Daum Shanks a également été membre du comité consultatif d’experts. Elle a déclaré au Comité que « l’obligation d’agir de manière responsable » imposée par la Loi sur les préjudices en ligne « renforce le projet de loi et elle va réduire le risque de litiges[123] ». Elle a précisé qu’une telle mesure législative « peut offrir les mêmes bénéfices que le droit privé … tout en nous évitant certaines de ses limites[124] », et qu’elle pourrait, « du moins on le souhaite, empêcher que la plupart des préjudices intentionnels soient infligés[125] ».
Mme Tworek, qui a aussi fait partie du Comité consultatif d’experts, a fait valoir que le projet de loi C-63 abordait « la question des hypertrucages », et que « l’obligation d’agir de manière responsable » était « assez large » et « permettra de traiter ce genre d’avancées technologiques ». Elle a ajouté : « [Si on vise les] entreprises d’intelligence artificielle, elles auront elles aussi l’obligation d’agir de manière responsable[126]. »
Me. Szemok-Uto a indiqué que le projet de loi C-63 « va dans la bonne direction » et « impose aux exploitants l’obligation de contrôler et de réglementer le genre de contenu présenté en ligne », et que « le terme “hypertrucage” est inclus dans le projet de loi »; « c’est un bon pas en avant pour essayer de nous attaquer aux problèmes et d’actualiser les définitions utilisées[127] ». Il a cependant mentionné que, dans le projet de loi, on ne fournissait « aucune définition [des hypertrucages] », et il a renvoyé à des textes législatifs adoptés récemment en Pennsylvanie[128] comme établissant un modèle pour une telle définition[129].
Le lieutenant Marc-Antoine Vachon de la Sûreté du Québec a déclaré au Comité que le projet de loi C-63 était « un très bon début » et qu’il « doit obliger les personnes qui hébergent des données informatiques à savoir ce qu’elles hébergent[130] ». Il était d’accord avec les dispositions de retrait en 24 heures du projet de loi, notant que, « dans le cas des demandes de retrait relatives aux signalements faits sur le site Web du Centre canadien de protection de l’enfance, qui n’obtiennent pas toujours des réponses ». Il a ajouté qu’il était également important « d’imposer des amendes pour pénaliser les fournisseurs de services qui ne respectent pas ce délai[131] » pour le retrait des contenus.
Des témoins estimaient aussi qu’il fallait établir un nouvel organisme de réglementation, soit des postes de commissaire à la sécurité numérique ainsi que d’ombudsman à la sécurité numérique, tel que proposé dans le projet de loi C-63. Mme Laidlaw a fait remarquer que « [l]es tribunaux ne seront jamais assez prompts pour régler ce genre de litiges », alors que le « pouvoir du commissaire d’ordonner le retrait des pires formes de contenu est essentiel pour assurer l’accès à la justice[132] ». Elle a ajouté que les tribunaux n’étaient « tout simplement pas en mesure de surveiller la sécurité dès la conception, qui découlera nécessairement d’un processus itératif entre la commission et les entreprises[133] ». Mme Daum Shanks voyait l’idée d’un nouvel organisme de réglementation comme « une perspective très similaire à l’idée du devoir de diligence : avoir un lieu où les personnes ont un moyen de parler des préjudices qu’elles ont subis d’une manière peut-être inédite[134] ».
Dans un mémoire présenté au Comité, l’organisme Defending Dignity a fait remarquer que, si les dispositions du projet de loi concernant « des questions plus complexes, telles que le discours haineux … nécessitent un examen plus approfondi », les « mesures relatives au MAP et à la diffusion non consensuelle d’images intimes pourraient être traitées rapidement », ajoutant que ce préjudice devrait être indépendant de l’autre et figurer dans « une loi distincte qui pourrait être traitée de manière urgente[135] ».
Les témoins étaient également conscients de certaines difficultés et de certains points faibles de mesures législatives sur les préjudices en ligne, notamment le projet de loi C‑63.
M. Krishnamurthy a fait remarquer qu’il était « difficile de juger à l’avance de leur efficacité », « parce qu’il est difficile de déterminer à la fois le numérateur et le dénominateur [le rythme auquel les plateformes retirent le contenu illégal et la prévalence globale de ce contenu][136] ». Il a aussi expliqué comment il était difficile de réglementer l’emplacement de contenus illégaux sur toutes les plateformes, faisant une analogie avec « des éléphants et des souris » :
Il y a des éléphants dans la pièce, ce sont les grands acteurs importants, puissants et visibles. Il s’agit des Meta et TikTok de ce monde, ou même d’une entreprise comme Pornhub, qui est très présente et très importante. Ces acteurs ne peuvent pas se soustraire à la loi, mais ce qui est difficile dans ce contexte, c’est qu’il y a beaucoup de souris. Les souris sont petites, elles sont furtives et se reproduisent très rapidement. Elles se déplacent dans l’obscurité. Il sera très difficile de faire appliquer cette loi à ce genre d’acteurs, à ceux qui se trouvent dans les recoins les plus sombres d’Internet[137].
Mme Tworek a parlé du point soulevé par M. Krishnamurthy, donnant à entendre que les petites plateformes qui étaient « victimes d’abus » pourraient bénéficier de l’aide du commissaire à la sécurité numérique prévu par le projet de loi pour supprimer le contenu offensant, les « acteurs plus néfastes des petites entreprises » ou « les outils qui n’existent que pour créer le terrible genre d’hypertrucages[138] » pouvant être abordés dans un projet de loi élargi qui exigerait que de tels sites soient mis hors service.
Des témoins ont également indiqué que le projet de loi C-63 ne vise pas les services de messagerie chiffrée tels que WhatsApp et Messenger, qui, selon M. Krishnamurthy, constituent « un vecteur principal par lequel ce genre de contenu circule ». Si celui-ci estimait que l’exclusion des services de messagerie est « une bonne décision », il a ajouté que leur usage pour le partage de contenus illégaux posait un problème pour lequel il « faudrait une étude approfondie[139] ». Mme Laidlaw a manifesté son accord et a ajouté : « L’une des façons d’intégrer les messages privés au projet de loi sans compromettre ces protections [de la vie privée et de la cybersécurité] » serait « d’imposer des obligations de sécurité sur tout ce qui entoure les messages privés… comme les mécanismes de plaintes, les demandes d’amitié suspectes, et ainsi de suite[140] ».
Mme Tworek a constaté : « Nous parlons comme si toutes les personnes qui causent des dommages se trouvaient au Canada, mais, en réalité, beaucoup d’entre elles peuvent se trouver à l’étranger. Nous devons réfléchir à la forme que prend la coopération internationale… Le fait de retirer des choses au Canada seulement pourrait conduire à une revictimisation, car quelque chose pourrait être stocké dans un serveur dans un autre pays et être ensuite continuellement republié[141]. »
Mme Moreau a souligné que d’autres technologies seront développées pour permettre de contrer les préjudices en ligne et que les législateurs devraient être « en mesure de faire ce travail assez rapidement pour rattraper le retard ». Elle a expliqué : « [L]orsque nous rédigeons des projets de loi aujourd’hui, nous devons nous projeter dans cinq à dix ans, voire parfois dans 25 ans. Nous ne pouvons pas nous contenter [de légiférer et] de travailler sur des questions d’actualité. Nous devons presque travailler sur des enjeux futurs[142]. »
Mme Daum Shanks a déclaré « qu’il n’y aurait pas seulement un projet de loi qui réglerait ce problème… il y aura d’autres projets de loi qui pourront être améliorés pour correspondre aux finalités dont nous parlons en ce moment[143] ». Elle a expliqué que « l’idée de ralentir est impensable », malgré le fait que le projet de loi « n’est… peut-être pas sous la forme parfaite ». Elle a ajouté que : « [L]’un de mes espoirs est que tout le monde se rende compte que ce n’est que le début, et que ce projet de loi n’est pas la fin[144]. »
Le soutien aux personnes survivantes
Certains témoins ont soulevé le fait que le soutien aux survivants de l’exploitation sexuelle en ligne et de la DNCII, y compris les hypertrucages, était un élément essentiel de la gestion des préjudices, y compris dans le projet de loi C-63. Dianne Lalonde a indiqué « qu’on a surtout mis l’accent sur la réglementation et le retrait du contenu ». « Nous devons… reconnaître… les survivantes, et les personnes vers qui elles se tournent. Elles s’adressent aux services de lutte contre la violence fondée sur le sexe pour faire face à ces préjudices et s’en remettre. Il y a une dimension supplémentaire lorsque nous parlons de lutter contre les préjudices en ligne. Il faut s’assurer de soutenir les organismes de lutte contre la violence fondée sur le sexe qui font le travail de soutien des survivantes » :
À moins que [la Commission de sécurité et l’ombudsman] n’aient pour mandat de soutenir les survivants — ce qui serait nouveau et il leur faudrait établir des liens avec ces gens —, ce dont nous avons besoin, c’est de soutien au secteur de la violence fondée sur le sexe pour continuer à améliorer la situation des survivants et à favoriser les possibilités de guérison… [L] e projet de loi, il est beaucoup question de réglementation, ce qui signifierait que ce sont les survivants qui signaleraient la violence qu’ils subissent. Comment pouvons-nous être au courant de la violence si nous n’aidons pas les survivants à la signaler et à s’en remettre[145]?
Mme Shona Moreau a répondu au Comité qu’il serait « bénéfique » pour les victimes de bénéficier d’un soutien en matière de santé mentale, « d’où qu’il vienne », et que ce soutien devrait être financé et davantage accessible au public[146].
Mme Daum Shanks croit que la création du poste d’ombudsman de la sécurité numérique, comme il est proposé dans le projet de loi C-63, permettrait de régler le problème. Elle a expliqué : « Mon souhait le plus cher, c’est que les gens sentent qu’ils peuvent être eux-mêmes — les gens qui ont moins accès à un conseiller juridique et ceux qui travaillent avec l’éventuel bureau de protection du citoyen du commissaire, quel qu’il soit. » Elle a dit, « [c]’est probablement ma plus grande préoccupation : penser …qu’une personne puisse appeler un espace officiel, qu’il s’agisse d’une ligne téléphonique sans frais ou du dépôt d’un signalement écrit, ou peu importe pour qu’elle ait l’impression que le système de soutien est à portée de main ». Elle a déclaré qu’en droit criminel, « cette première étape pour démarrer le processus est incroyablement intimidante pour ceux qui n’ont pas de formation en droit. Je veux trouver autant de moyens que possible pour l’éviter[147].»
L’éducation et la sensibilisation
Les témoins ont insisté sur l’importance d’enseigner aux enfants, aux jeunes et aux adultes les dangers de l’exploitation sexuelle en ligne, les conséquences de la diffusion non consensuelle d’images intimes, y compris de la création et du partage de la pornographie par hypertrucage, ainsi que le contexte social plus large de l’inégalité des sexes et de la violence fondée sur le sexe.
Marc-Antoine Vachon de la Sûreté du Québec a souligné le rôle important que joue l’éducation en matière de prévention et a reconnu aux activités de sensibilisation des membres de la Sûreté le mérite d’avoir « fait augmenter le nombre de signalements reçus et traités par nos policiers[148] » :
Aujourd’hui, à la Sûreté du Québec, nous faisons des vidéos que nous mettons en ligne, sur YouTube. Nous sommes sur les réseaux sociaux. C’est ce qui va nous permettre de joindre les adolescents. Nous maintenons notre présence sur les réseaux sociaux; nous adaptons le message de prévention à l’âge; nous rendons cela comique et un peu plus léger, au lieu de simplement dire qu’il ne faut pas faire telle ou telle chose. …
[L]e continuum de prévention commence dès la première année. Il faut marteler un message de prévention, mais il faut aussi marteler les possibles conséquences à vie, car il y a des conséquences à vie. Je crois que c’est ainsi que nous allons pouvoir joindre notre jeunesse actuelle[149].
M. Vachon a ajouté que la sensibilisation à « la loi de l’offre et de la demande » était une étape nécessaire : « [N]ous voyons fréquemment… une banalisation de ces images [les images pédopornographiques] tant par les familles que par les suspects, dans le sens où ils vont prétendre qu’ils n’ont pas touché un enfant. … On doit travailler pour changer la mentalité des prévenus et des familles. On voit souvent les familles protéger la personne arrêtée en prétendant qu’elle n’a abusé de personne. Consommer cette image revient toutefois à alimenter la personne qui la produit[150]. »
Carol Todd a déclaré qu’il était essentiel de donner « aux élèves, aux enseignants et aux familles les connaissances et les compétences nécessaires pour naviguer dans le monde numérique en toute sécurité ». Elle a rappelé que sa fille, Amanda, avait « créé une vidéo [qu’elle a diffusée sur YouTube] cinq semaines avant son décès », qui « a été visionnée 50 millions de fois dans le monde » et qui « est maintenant utilisé comme outil d’apprentissage pour que d’autres entament la discussion et que les étudiants en sachent… les raisons pour lesquelles il est si important que nous continuions à parler de la sécurité, de l’exploitation et de la sextorsion en ligne[151] ». L’organisme qu’elle représente s’adresse « aux enfants lorsqu’ils n’ont que quatre ou cinq ans… et nous prenons du temps pour discuter de la sécurité en ligne, de l’apprentissage social et émotionnel, du respect et de la façon d’interagir avec les autres. Tout part de là, et nous misons là‑dessus année après année. » Elle a également noté que « certains [des enseignants] ne comprennent pas. Ils ne comprennent pas que c’est important[152]. »
Mme Todd a en outre insisté sur la nécessité de communiquer avec les parents : « Les parents ne sont pas renseignés. Ils donnent des appareils à leurs enfants lorsqu’ils n’ont que sept ou huit ans, et ils se plaignent ensuite de ce qui se produit. … Mon rôle en tant qu’éducatrice consiste à transmettre l’information à ceux qui en ont besoin. Oui, l’industrie de la technologie et les gouvernements doivent tous participer, mais il y a de multiples niveaux[153]. »
Mme St. Germain a convenu que « [l]'éducation est toujours une composante essentielle de toute politique ou initiative », avant d’ajouter qu’il était important de veiller à ce que « les jeunes soient sensibilisés au consentement sexuel et comprennent les conséquences du partage d’images intimes ou de la création de ce genre de matériel [les hypertrucages] ». Elle a affirmé : « Nous devons éduquer les parents et les enfants, par le truchement de l’école et de nombreux autres modes de communication et lieux fréquentés par les enfants[154]. »
Mme Moreau a reconnu l’importance de l’éducation, signalant : « [I]l faut se pencher sur la façon dont on montre aux enfants à utiliser les nouvelles technologies[155]. » Elle a ajouté que les enfants devaient être conscients des dangers : « Il faut qu’ils sachent que, lorsqu’ils parlent à un ou à une camarade de classe, par exemple, la même personne, une fois à la maison, peut utiliser leur image et fabriquer de la pornographie hypertruquée. Je crois qu’il est parfois un peu dur de se voir à l’écran à la suite d’un hypertrucage[156]. » Elle a ajouté que les écoles ont un rôle à jouer, « puisque c’est l’endroit physique où il y a beaucoup d’interactions sociales », ajoutant que « les plateformes ont aussi un rôle à jouer pour sensibiliser les gens qui les utilisent pour distribuer ou même créer du matériel[157] ».
En outre, certains témoins ont souligné que le MESE et la DNCII ne se déroulaient pas en vase clos. Ils ont mentionné que les initiatives d’information devraient prendre en compte le contexte élargi de l’inégalité entre les sexes ainsi que de la violence fondée sur le sexe afin d’aider les gens à comprendre le phénomène et ses impacts.
Mme Lalonde a souligné que la connaissance du numérique était importante, mais « [i]l s’agit également de s’attaquer aux causes profondes… nous devons également parler de misogynie. Nous devons parler d’égalité entre les sexes. Toutes ces questions sont étroitement liées, surtout lorsqu’il est question de formes de violence qui ciblent de manière disproportionnée les femmes et les filles[158]. » Elle a indiqué que les jeunes garçons étaient souvent les auteurs de l’exploitation sexuelle en ligne « en raison des pressions sociales auxquelles ils font face en ce qui concerne la masculinité traditionnelle et les attentes liées à l’expérience sexuelle[159] ».
Mme Rourke a aussi souligné l’importance de comprendre l’hypertrucage « dans un contexte sociétal de violence et d’oppression fondées sur le sexe[160] ». Elle a expliqué qu’il fallait se questionner « pourquoi l’image d’une femme nue est si préjudiciable » :
Pourquoi la diffusion de cette image nuit-elle à la réputation? Quel type de réponse culturelle avons-nous à l’égard de la sexualité des femmes pour que ce soit explicitement les femmes qui soient ciblées — de sorte que 99 % des hypertrucages pornographiques sont de femmes? Il y a un énorme biais de genre dans tout cela. Je pense qu’il faut en tenir compte dans le contexte du traitement que nous réservons aux femmes de manière plus générale. Il faut également l’examiner dans le contexte de la violence physique, comme vous l’avez dit, de la violence faite aux femmes dans le monde réel, qui est souvent associé à la violence faite aux femmes en ligne. Bon nombre des affaires de pornographie vengeresse qui ont été portées devant les tribunaux l’ont été dans le contexte de la violence entre partenaires intimes. … Je pense que ces choses sont indissociables. Je pense qu’il faut travailler sur l’éducation pour lutter contre les deux et les considérer comme fondamentalement liées[161].
En outre, Mme Rourke a déclaré ceci : « L’éducation et la lutte contre ce contexte sociétal et culturel font partie de la solution. Cela ne va pas réparer la technologie, mais l’éducation dans les écoles pour comprendre les méfaits afin que les adolescents… sachent pourquoi elle est si nocive fait partie de la solution[162]. »
Conclusion
Les témoignages entendus par le Comité démontrent sans équivoque que la propagation du matériel d’exploitation sexuelle d’enfants et la communication sans consentement d’images intimes, y compris les hypertrucages, sont des problèmes urgents et croissants qui nécessitent l’adoption d’une stratégie globale en plusieurs volets, stratégie dans le cadre de laquelle les gouvernements, les autorités policières, les plateformes en ligne, la société civile, les enseignants ainsi que les parents ont un rôle à jouer.
En général, les témoins étaient favorables à la partie 1 du projet de loi C-63, le projet de loi du gouvernement sur les préjudices en ligne, bien que plusieurs aient déclaré qu’il s’agissait seulement d’un premier pas, et que l’on devrait le modifier. La reddition de compte des plateformes dans la lutte contre la propagation du matériel pédopornographique, la communication sans consentement d’images intimes et les solutions d’hypertrucage ont été reconnues comme des approches efficaces pour lutter contre la prolifération du matériel sexuellement explicite et illégal.
La montée rapide de la technologie des hypertrucages générés par l’IA est très préoccupante, car elle contribue à exacerber considérablement le risque que représente la propagation du MESE et de la DNCII. Plusieurs témoins s’entendaient sur le fait que les hypertrucages devraient être explicitement ajoutés au Code criminel. De plus, la coopération internationale et la reddition de compte des plateformes constituent d’autres mesures à prendre pour faire face aux nouvelles technologies et aux abus qu’elles engendrent.
Les témoignages convergent vers la nécessité d’organiser des campagnes d’éducation et de sensibilisation destinées aux enfants, aux jeunes ainsi qu’au grand public, non seulement en ce qui concerne la sécurité en ligne, mais également dans l’ensemble du contexte de la violence sexiste.
Les derniers mots reviennent à Carol Todd, mère d’Amanda Todd, qui s’est suicidée en 2012 après avoir été longuement victime de harcèlement et de cyberviolence en ligne :
En tant qu’enseignante, je crois fermement qu’il est essentiel d’accroître l’éducation. Il faut sensibiliser et éduquer nos enfants, nos jeunes adultes et nos familles.
Il faut renforcer la réglementation et les lois. Le projet de loi C-63 fait partie de la solution. Je sais qu’en Colombie-Britannique, d’autres mesures législatives ont été adoptées et sont mises en œuvre.
Nous devons améliorer nos plateformes en ligne et les responsabiliser. Nous devons accroître les contrôles et la surveillance des parents, et nous devons encourager la dénonciation.
Nous devons également promouvoir des comportements positifs en ligne. L’apprentissage social et émotionnel et la responsabilité sociale doivent faire partie de la sensibilisation et de l’éducation.
Nous devons nous faire entendre. Nous devons nous tenir debout, et nous devons aussi en faire plus[163].
Recommandations
Le Comité recommande :
Recommandation 1
Que la collecte de, et l’accès aux, données intersectionnelles locales et nationales en lien avec la diffusion non consensuelle d’images intimes soient facilités, notamment par la création d’une base de données en collaboration avec les services de statistiques fédéraux et provinciaux.
Recommandation 2
Qu’une campagne de sensibilisation soit mise en place en ayant comme objectif d’informer les enfants et les adolescents, en plus d’outiller les pédagogues et les parents, sur :
- Les répercussions du visionnement de contenus sexuellement explicites présentant des comportements sexuels violents et abusifs, en particulier chez les mineurs;
- Les impacts de la diffusion non consensuelle d’images intimes sur les victimes, incluant la création et la diffusion d’hypertrucage à caractère sexuel; et
- Les outils pour lutter contre la sextorsion.
Recommandation 3
Que des mesures pour améliorer l’accessibilité des ressources aux victimes, notamment celles de dénonciation soient mises en place.
Recommandation 4
Que les plateformes numériques mettent en places des processus de détection et de dénonciation des contenus sexuellement explicites et illégaux, telles que le matériel d’exploitation sexuelle d’enfants et les images intimes diffusées sans consentement (incluant les hypertrucages); que de tels contenus soient immédiatement retirés dès lors qu’identifiés sous peine de sanctions.
Recommandation 5
Que l’article 162.1(2) du Code criminel, concernant la définition d’« image intime », soit modifié afin d’y inclure le concept d’hypertrucage à caractère sexuel.
Recommandation 6
Qu’une étude sur l’implication des plateformes de messageries privées dans la diffusion de contenus sexuellement explicites et illégaux, telle que le matériel d’exploitation sexuelle d’enfants , ainsi que sur des mesures législatives possibles pour encadrer ces plateformes et protéger les utilisateurs soit lancée.
Recommandation 7
Que le développement de technologies permettant de lutter contre la diffusion de contenu sexuellement explicite et illégal, tels que le matériel d’exploitation sexuelle d’enfants et d’images intimes non consensuelles, soit soutenu.
Recommandation 8
Reconnaître que l’action visant à mettre fin à l’utilisation de matériel illégal et sexuellement explicite doit faire partie d’un agenda plus large du gouvernement du Canada pour promouvoir l’égalité des genres et mettre fin à la violence fondée sur les genres.
[1] Comité permanent du patrimoine canadien de la Chambre des communes, Procès-verbal, 14 février 2022.
[2] Société du legs Amanda Todd [disponible en anglais seulement].
[3] Société Rehtaeh Parsons [disponible en anglais seulement].
[4] Statistique Canada, L’exploitation sexuelle des enfants et la violence sexuelle à l’égard des enfants en ligne : cheminement, dans le système de justice criminelle, des affaires déclarées par la police au Canada, 2014 à 2020, 9 mars 2023.
[5] Sécurité publique Canada, À propos de l’exploitation sexuelle des enfants en ligne, 8 août 2023.
[6] Ibid.
[7] Laura Savage, L’exploitation sexuelle des enfants en ligne : un profil statistique des affaires déclarées par la police au Canada, 2014 à 2022, Statistique Canada, 12 mars 2024.
[8] Ministère de la Justice du Canada, Groupe de travail du Comité de coordination des hauts fonctionnaires sur le cybercrime - Rapport aux ministres fédéraux/provinciaux/territoriaux responsables de la Justice et de la Sécurité publique, Cyberintimidation et distribution non consensuelle d’images intimes, juin 2013, p. 3.
[9] Centre régional d’information pour l’Europe occidentale, Nouvelles technologies : des armes de la violence de genre, 30 novembre 2023.
[10] Ministère de la Justice du Canada, Groupe de travail du Comité de coordination des hauts fonctionnaires sur le cybercrime - Rapport aux ministres fédéraux/provinciaux/territoriaux responsables de la Justice et de la Sécurité publique, Cyberintimidation et distribution non consensuelle d’images intimes, juin 2013, p. 16.
[11] Statistique Canada, Cybercrimes déclarés par la police, selon l’infraction reliée à la cybercriminalité, Canada (certains services de police), base de données, consulté le 12 juillet 2024.
[12] Eliza Strickland, Deepfake Porn Is Leading to a New Protection Industry, IEEE Spectrum, 16 juillet 2024 [disponible en anglais seulement].
[13] Service canadien du renseignement de sécurité, Les hypertrucages, une vraie menace pour l’avenir du Canada, 16 novembre 2023.
[14] Voir, par exemple, Natasha Singer, Teen Girls Confront an Epidemic of Deepfake Nudes in Schools, The New York Times, 8 avril 2024 [disponible en anglais seulement].
[15] Code criminel, L.R.C. 1985, ch. C-46, art. 162(1).
[16] Une personne commet une infraction liée à la distribution en vertu de cet article si elle « imprime, copie, publie, distribue, met en circulation, vend ou rend accessible un enregistrement ou en fait la publicité, ou l’a en sa possession en vue de l’imprimer, de le copier, de le publier, de le distribuer, de le mettre en circulation, de le vendre, de le rendre accessible ou d’en faire la publicité ». Ibid., paragraphe 162(4).
[17] Une personne commet une infraction liée à la distribution en vertu de cet article si elle « publie, distribue, transmet, vend ou rend accessible [une image intime d’une personne,] ou en fait la publicité ». Ibid., article 162.1.
[18] Dans cet article, une image intime est un enregistrement photographique, filmique ou vidéo d’une personne dans lequel cette personne « y figure nue, exposant ses seins, ses organes génitaux ou sa région anale ou se livrant à une activité sexuelle explicite » et qui avait des attentes raisonnables en matière de vie privée au moment de l’enregistrement et de la perpétration de l’infraction. Ibid., paragraphe 161.1(2).
[19] Ibid., article 161.1.
[20] Aux fins du présent article, une personne commet une infraction liée à la distribution si elle « transmet, rend accessible, distribue, vend, importe ou exporte de la pornographie juvénile ou en fait la publicité, ou en a en sa possession en vue de la transmettre, de la rendre accessible, de la distribuer, de la vendre, de l’exporter ou d’en faire la publicité ». Ibid., article 163.1.
[21] Ibid., paragraphe 163.1(1).
[22] Voir Mahdi Benmoussa et al., Résumé législatif du projet de loi C-63 : Loi édictant la Loi sur les préjudices en ligne, modifiant le Code criminel, la Loi canadienne sur les droits de la personne et la Loi concernant la déclaration obligatoire de la pornographie juvénile sur Internet par les personnes qui fournissent des services Internet et apportant des modifications corrélatives et connexes à d’autres lois, Version préliminaire (non révisée), Bibliothèque du Parlement, 20 mars 2024, p. 10.
[23] Loi concernant la déclaration obligatoire de la pornographie juvénile sur Internet par les personnes qui fournissent des services Internet, L.C. 2011, ch. 4, art. 2–3. Pour l’application de l’article 2, l’article 9 de la Loi prévoit ce qui suit : « La personne qui communique des renseignements en application de la loi d’une province ou d’un État étranger sur la déclaration obligatoire de la pornographie juvénile est réputée s’être conformée à l’article 2 à l’égard de ces renseignements. »
[24] Sécurité publique Canada, Initiatives de lutte contre l’exploitation sexuelle des enfants en ligne, 23 août 2023.
[25] Gouvernement du Canada, Lutter contre l’exploitation sexuelle des enfants en ligne : Partager les connaissances, renforcer la sécurité - Consultation fermée, 9 mai 2018.
[26] Sécurité publique Canada, Évaluation de l’expansion de la Stratégie nationale pour la protection des enfants contre l’exploitation sexuelle sur Internet, 24 mai 2022.
[27] Sécurité publique Canada, Initiatives de lutte contre l’exploitation sexuelle des enfants en ligne, 23 août 2023.
[28] Centre canadien de protection de l’enfance, Un outil pour contrer la propagation des images d’abus pédosexuels à l’échelle mondiale fête ses cinq ans, 17 janvier 2022.
[30] Sécurité publique Canada, Plan d’action national pour mettre fin à la violence fondée sur le sexe, 20 octobre 2020.
[31] Femmes et Égalité des genres Canada, Faits, statistiques et incidence de FEGC : Violence fondée sur le sexe, 9 juillet 2024.
[32] Femmes et Égalité des genres Canada, Glossaire de la violence fondée sur le sexe.
[33] Femmes et Égalité des genres Canada, Le Plan d’action national pour mettre fin à la violence fondée sur le sexe, 24 juillet 2023.
[34] Femmes et Égalité des genres Canada, Plan d’action national pour mettre fin à la violence fondée sur le sexe Document d’information, 11 avril 2024.
[35] Femmes et Égalité des genres Canada, Faits, statistiques et incidence de FEGC : Violence fondée sur le sexe, 9 juillet 2024.
[36] Voir Mahdi Benmoussa et coll., Résumé législatif du projet de loi C-63 : Loi édictant la Loi sur les préjudices en ligne, modifiant le Code criminel, la Loi canadienne sur les droits de la personne et la Loi concernant la déclaration obligatoire de la pornographie juvénile sur Internet par les personnes qui fournissent des services Internet et apportant des modifications corrélatives et connexes à d’autres lois, Version préliminaire (non révisée), Bibliothèque du Parlement, 20 mars 2024.
[37] Sécurité publique Canada, Efforts internationaux et coopération, 23 août 2023.
[38] Le Groupe des cinq est une alliance des services de renseignements de l’Australie, du Canada, de la Nouvelle-Zélande, du Royaume-Uni et des États-Unis.
[39] Sécurité publique Canada, Efforts internationaux et coopération, 23 août 2023.
[40] Ibid.
[41] Ibid.
[42] Virtual Global Taskforce, Tackling the global threat from child sexual abuse (Lutter contre la menace mondiale que représentent les abus sexuels sur les enfants) [disponible en anglais seulement].
[43] Affaires mondiales Canada, Plan d’action national du Canada pour les femmes, la paix et la sécurité, 28 mars 2024.
[44] Gouvernement du Canada, Promouvoir l’égalité des genres à l’ère numérique : Des programmes de lutte contre la violence facilitée par la technologie, 3 mars 2023.
[45] Tech for Democracy, The Global Partnership for Action on Gender-Based Online Harassment and Abuse (Partenariat mondial d’action contre le harcèlement et les abus en ligne fondés sur le sexe) [disponible en anglais seulement].
[46] Le Fonds des Nations Unies pour la population, l’UNFPA et le Canada lancent un programme mondial pour lutter contre la violence sexiste facilitée par la technologie, 8 juillet 2024 [disponible en anglais seulement].
[47] Chambre des communes, Parlement du Canada, « Motion », Journaux, 42e législature, 1re session, 8 décembre 2016.
[48] Chambre des communes, Comité permanent de la santé, Rapport sur les effets de santé publique liés à la facilité de trouver et de visionner en ligne du contenu violent et sexuellement explicite avilissant sur les enfants, les femmes et les hommes, 42e législature, 1re session, juin 2017, p. 13.
[49] En 2023, Ethical Capital Partners a racheté Mindgeek, qui est désormais connu sous le nom d’Aylo [disponible en anglais seulement].
[50] Comité permanent de l’accès à l’information, de la protection des renseignements personnels et de l’éthique de la Chambre des communes, Assurer la protection de la vie privée et de la réputation sur les plateformes comme Pornhub, troisième rapport, 43e législature, 2e session, juin 2021.
[51] CHPC, Témoignages, 11 juin 2024, 1720 (Carol Todd, fondatrice et mère, Amanda Todd Legacy Society).
[52] Ibid.
[53] CHPC, Témoignages, 11 juin 2024, 1725 (Dianne Lalonde, spécialiste de la recherche et de la mobilisation des connaissances, Centre de recherche et d’éducation sur la violence faite aux femmes et aux enfants).
[54] Ibid.
[55] Ibid.
[56] CHPC, Témoignages, 11 juin 2024, 1735 (Marc-Antoine Vachon, lieutenant, Sûreté du Québec).
[57] CHPC, Témoignages, 13 juin 2024, 1555 (Monique St. Germain, avocate générale, Centre canadien de protection de l’enfance Inc.).
[58] Ibid.
[59] CHPC, Témoignages, 11 juin 2024, 1725 (Dianne Lalonde).
[60] Ibid.
[61] Ibid.
[62] CHPC, Témoignages, 13 juin 2024, 1555 (Monique St. Germain).
[63] Ibid.
[64] Defend Dignity, Mémoire présenté au Comité permanent du patrimoine canadien, 19 avril 2024, p. 9–10.
[65] CHPC, Témoignages, 13 juin 2024, 1555 (Monique St. Germain).
[66] Ibid.
[67] Defend Dignity, Mémoire présenté au Comité permanent du patrimoine canadien, 19 avril 2024, p. 6.
[68] CHPC, Témoignages, 13 juin 2024, 1600 (Shona Moreau, BCL/JD, Faculté de droit, Université McGill, à titre personnel).
[69] Ibid.
[70] Ibid.
[71] Ibid.
[72] CHPC, Témoignages, 13 juin 2024, 1700 (Chloe Rourke, BCL/JD, Faculté de droit, Université McGill, à titre personnel).
[73] CHPC, Témoignages, 13 juin 2024, 1705 (Chloe Rourke).
[74] Ibid.
[75] CHPC, Témoignages, 13 juin 2024, 1625 (Monique St. Germain).
[76] CHPC, Témoignages, 13 juin 2024, 1550 (Heidi Tworek, professeure agrégée, University of British Columbia, à titre personnel).
[77] CHPC, Témoignages, 11 juin 2024, 1725 (Dianne Lalonde).
[78] Ibid.
[79] CHPC, Témoignages, 13 juin 2024, 1605 (Chloe Rourke).
[80] CHPC, Témoignages, 13 juin 2024, 1555 (Monique St. Germain).
[81] Ibid.
[82] CHPC, Témoignages, 11 juin 2024, 1710 (Emily Laidlaw, professeure agrégée et titulaire de la Chaire de recherche du Canada en droit de la cybersécurité, University of Calgary, à titre personnel).
[83] CHPC, Témoignages, 11 juin 2024, 1830 (Carol Todd).
[84] Ibid.
[85] Commissariat à la protection de la vie privée du Canada, Protection de la vie privée et confirmation de l’âge – Consultation exploratoire, 10 juin 2024.
[86] Ibid.
[87] Ibid.
[88] Lauren Lefer, Online age verification laws could do more harm than good, Scientific American, 16 avril 2024 [disponible en anglais seulement].
[89] Ibid.
[90] John Hanna et Sean Murphy, « Kansas moves to join Texas and other states in requiring porn sites to verify people's ages », The Associated Press, 26 mars 2024 [disponible en anglais seulement].
[91] Lauren Lefer, Online age verification laws could do more harm than good, Scientific American, 16 avril 2024 [disponible en anglais seulement].
[92] Pornhub, Age verification in the US, 2 juillet 2024 [disponible en anglais seulement].
[93] American Civil Liberties Union, Free Speech Coalition, Inc. v. Paxton, 3 juillet 2024 [disponible en anglais seulement].
[94] Andrew Chung, US Supreme Court to hear challenge to Texas age verification for online porn, Reuters, 2 juillet 2024 [disponible en anglais seulement].
[95] Projet de loi S-210, Loi limitant l’accès en ligne des jeunes au matériel sexuellement explicite, 44e législature, 1re session.
[96] Projet de loi C-270, Loi modifiant le Code criminel (matériel pornographique), 44e législature, 1re session.
[97] CHPC, Témoignages, 11 juin 2024, 1710 (Emily Laidlaw).
[98] CHPC, Témoignages, 11 juin 2024, 1820 (Vivek Krishnamurthy, professeur agrégé de droit, University of Colorado Law School, à titre personnel).
[99] Ibid.
[100] CHPC, Témoignages, 11 juin 2024, 1730 (Jocelyn Monsma Selby, thérapeute clinique, chercheuse spécialisée en sexologie médico-légale et en dépendance, et présidente, Connecting to Protect).
[101] CHPC, Témoignages, 11 juin 2024, 1835 (Jocelyn Monsma Selby).
[102] CHPC, Témoignages, 11 juin 2024, 1840 (Jocelyn Monsma Selby).
[103] Defend Dignity, Mémoire présenté au Comité permanent du patrimoine canadien, 19 avril 2024, p. 12.
[104] Ibid., p. 11.
[105] CHPC, Témoignages, 13 juin 2024, 1600 (Chloe Rourke).
[106] CHPC, Témoignages, 13 juin 2024, 1810 (Dianne Lalonde).
[107] Ibid.
[108] CHPC, Témoignages, 13 juin 2024, 1610 (Keita Szemok-Uto, avocat, à titre personnel).
[109] CHPC, Témoignages, 13 juin 2024, 1640 (Keita Szemok-Uto).
[110] CHPC, Témoignages, 13 juin 2024, 1610 (Keita Szemok-Uto).
[111] CHPC, Témoignages, 13 juin 2024, 1600 (Chloe Rourke).
[112] ibid.
[113] CHPC, Témoignages, 13 juin 2024, 1615 (Chloe Rourke).
[114] CHPC, Témoignages, 13 juin 2024, 1620 (Chloe Rourke).
[115] Voir Mahdi Benmoussa et coll., Résumé législatif du projet de loi C-63 : Loi édictant la Loi sur les préjudices en ligne, modifiant le Code criminel, la Loi canadienne sur les droits de la personne et la Loi concernant la déclaration obligatoire de la pornographie juvénile sur Internet par les personnes qui fournissent des services Internet et apportant des modifications corrélatives et connexes à d’autres lois, Version préliminaire (non révisée), Bibliothèque du Parlement, 20 mars 2024, p. 3–5.
[116] Voir Ian Campbell, « Canadian government must legislate to promote online safety, says Facebook whistleblower », The Hill Times, 27 novembre 2023 [disponible en anglais seulement].
[117] Ministère du Patrimoine canadien, Le gouvernement du Canada présente un projet de loi visant à lutter contre le contenu préjudiciable en ligne, y compris l’exploitation sexuelle des enfants, communiqué de presse, 26 février 2024.
[118] Ibid.
[119] Ministère de Patrimoine canadien, Le gouvernement du Canada annonce la création d’un groupe consultatif d’experts sur la sécurité en ligne, communiqué de presse, 30 mars 2022.
[120] CHPC, Témoignages, 11 juin 2024, 1710 (Emily Laidlaw).
[121] CHPC, Témoignages, 11 juin 2024, 1700 (Vivek Krishnamurthy).
[122] Ibid.
[123] CHPC, Témoignages, 13 juin 2024, 1605 (Signa Daum Shanks, professeure agrégée, Université d’Ottawa, Faculté de droit, à titre personnel).
[124] Ibid.
[125] Ibid.
[126] CHPC, Témoignages, 13 juin 2024, 1625 (Heidi Tworek).
[127] CHPC, Témoignages, 13 juin 2024, 1645 (Keita Szemok-Uto).
[128] Assemblée générale de Pennsylvanie, projet de loi du Sénat n° 1213, 4 juin 2024 [disponible en anglais seulement].
[129] CHPC, Témoignages, 13 juin 2024, 1645 (Keita Szemok-Uto).
[130] CHPC, Témoignages, 11 juin 2024, 1825 (Marc-Antoine Vachon).
[131] CHPC, Témoignages, 11 juin 2024, 1845 (Marc-Antoine Vachon).
[132] CHPC, Témoignages, 11 juin 2024, 1710 (Emily Laidlaw).
[133] Ibid.
[134] CHPC, Témoignages, 13 juin 2024, 1720 (Signa Daum Shanks).
[135] Defend Dignity, Mémoire présenté au Comité permanent du patrimoine canadien, 19 avril 2024, p. 9.
[136] CHPC, Témoignages, 11 juin 2024, 1700 (Vivek Krishnamurthy).
[137] Ibid.
[138] CHPC, Témoignages, 13 juin 2024, 1625 (Heidi Tworek).
[139] CHPC, Témoignages, 11 juin 2024, 1700 (Vivek Krishnamurthy).
[140] CHPC, Témoignages, 11 juin 2024, 1710 (Emily Laidlaw).
[141] CHPC, Témoignages, 13 juin 2024, 1625 (Heidi Tworek).
[142] CHPC, Témoignages, 13 juin 2024, 1715 (Shona Moreau).
[143] CHPC, Témoignages, 13 juin 2024, 1715 (Signa Daum Shanks).
[144] Ibid.
[145] CHPC, Témoignages, 11 juin 2024, 1810 (Dianne Lalonde).
[146] CHPC, Témoignages, 13 juin 2024, 1700 (Shona Moreau).
[147] CHPC, Témoignages, 13 juin 2024, 1705 (Signa Daum Shanks).
[148] CHPC, Témoignages, 11 juin 2024, 1840 (Marc-Antoine Vachon).
[149] CHPC, Témoignages, 11 juin 2024, 1845 (Marc-Antoine Vachon).
[150] CHPC, Témoignages, 11 juin 2024, 1825 (Marc-Antoine Vachon).
[151] CHPC, Témoignages, 11 juin 2024, 1715 (Carol Todd).
[152] CHPC, Témoignages, 11 juin 2024, 1850 (Carol Todd).
[153] CHPC, Témoignages, 11 juin 2024, 1850 (Carol Todd).
[154] CHPC, Témoignages, 13 juin 2024, 1635 (Monique St. Germain).
[155] CHPC, Témoignages, 13 juin 2024, 1700 (Shona Moreau).
[156] CHPC, Témoignages, 13 juin 2024, 1725 (Shona Moreau).
[157] CHPC, Témoignages, 13 juin 2024, 1700 (Shona Moreau).
[158] CHPC, Témoignages, 11 juin 2024, 1815 (Dianne Lalonde).
[159] CHPC, Témoignages, 11 juin 2024, 1725 (Dianne Lalonde).
[160] CHPC, Témoignages, 13 juin 2024, 1635 (Chloe Rourke).
[161] CHPC, Témoignages, 13 juin 2024, 1725 (Chloe Rourke).
[162] CHPC, Témoignages, 13 juin 2024, 1635 (Chloe Rourke).
[163] CHPC, Témoignages, 11 juin 2024, 1720 (Carol Todd).