Passer au contenu

JUST Réunion de comité

Les Avis de convocation contiennent des renseignements sur le sujet, la date, l’heure et l’endroit de la réunion, ainsi qu’une liste des témoins qui doivent comparaître devant le comité. Les Témoignages sont le compte rendu transcrit, révisé et corrigé de tout ce qui a été dit pendant la séance. Les Procès-verbaux sont le compte rendu officiel des séances.

Pour faire une recherche avancée, utilisez l’outil Rechercher dans les publications.

Si vous avez des questions ou commentaires concernant l'accessibilité à cette publication, veuillez communiquer avec nous à accessible@parl.gc.ca.

Publication du jour précédent Publication du jour prochain
Passer à la navigation dans le document Passer au contenu du document






Emblème de la Chambre des communes

Comité permanent de la justice et des droits de la personne


NUMÉRO 125 
l
1re SESSION 
l
44e LÉGISLATURE 

TÉMOIGNAGES

Le jeudi 5 décembre 2024

[Enregistrement électronique]

(1100)

[Traduction]

    Bienvenue à la 125 e réunion du Comité permanent de la justice et des droits de la personne de la Chambre des communes.
    Conformément à l'article 108(2) du Règlement et à la motion adoptée le 2 décembre 2024, le Comité se réunit en séance publique pour entreprendre son étude de l'objet du projet de loi C‑63, Loi édictant la Loi sur les préjudices en ligne, modifiant le Code criminel, la Loi canadienne sur les droits de la personne et la Loi concernant la déclaration obligatoire de la pornographie juvénile sur Internet par les personnes qui fournissent des services Internet et apportant des modifications corrélatives et connexes à d'autres lois.

[Français]

     Avant d'accueillir nos témoins, je souhaite souligner la présence dans la salle, ce matin, de madame Sokmony Kong, secrétaire de la section cambodgienne de l'Assemblée parlementaire de la Francophonie. Cette fonctionnaire parlementaire a été sélectionnée par l'Association des secrétaires généraux des parlements francophones, ou ASGPF, en reconnaissance de son travail particulièrement estimé au sein de son institution. Mme Kong a choisi le Parlement du Canada pour y faire son stage de perfectionnement de deux semaines.
     Nous vous souhaitons un excellent séjour parmi nous, madame Kong. En tant qu'ancienne chargée de mission représentant l'Amérique au sein de l'APF, je suis très heureuse que vous ayez choisi le Canada. Je vous souhaite donc un bon séjour avec nous.
(1105)

[Traduction]

    J'aimerais souhaiter la bienvenue aux témoins que nous accueillons pour la première heure de la réunion, et qui comparaissent tous par vidéoconférence.
    Avant de les nommer, j'ai quelques rappels à faire.
    Chers collègues, que vous participiez en personne ou par vidéoconférence, veuillez attendre que je vous nomme avant de prendre la parole. Toutes les questions doivent être formulées par l'intermédiaire de la présidence. Veuillez attendre que je vous nomme avant de prendre la parole.
    Pour les témoins qui participent par vidéoconférence, veuillez vous assurer d'avoir sélectionné, au bas de votre écran, la langue de votre choix.

[Français]

    Je veux aussi dire que tous les tests acoustiques du matériel des témoins qui sont avec nous ce matin ont été effectués et que tout fonctionne bien.

[Traduction]

    Je tiens à souligner qu'à titre de présidente, il m'incombe, avec l'aide du greffier, de gérer le temps du mieux possible afin d'assurer l'équité pour les témoins et les députés présents dans la salle qui posent des questions. Je devrai également suspendre la séance pendant une minute afin de permettre au deuxième groupe de témoins de s'installer.
    Je vais maintenant vous présenter les témoins, puis je les inviterai à faire une déclaration préliminaire de cinq minutes, tout au plus.
    Nous accueillons ce matin Mme Carol Todd, la mère d'Amanda Todd, et fondatrice de l'Amanda Todd Legacy Society.

[Français]

    Nous accueillons également Mme Lianna McDonald, directrice générale du Centre canadien de protection de l'enfance.

[Traduction]

    Nous accueillons également M. Carl Burke et Mme Barbie Lavers, qui participent ensemble, à titre personnel.
    J'invite maintenant Mme Todd à faire sa déclaration préliminaire.
    Je m'adresse à vous depuis Vancouver, en Colombie-Britannique. Je vous remercie de m'avoir invité à participer à cette étude préalable sur le projet de loi C‑63.
    Je tiens d'abord à souligner qu'au cours des cinq prochaines minutes et dans mes réponses aux questions, je ne parlerai qu'en mon nom personnel.
    Je dois aujourd'hui souligner l'importance du projet de loi C‑63, la Loi sur les préjudices en ligne. Ce projet de loi constitue une approche globale pour répondre aux préoccupations croissantes concernant les contenus préjudiciables sur Internet. La sécurité en ligne est, à mon avis, une responsabilité partagée, et chacun — utilisateurs, parents, éducateurs et plateformes — joue un rôle dans la création d'un monde en ligne plus sûr en assurant la protection, la reddition de comptes et le soutien.
    Je m'appelle Carol Todd. On me connaît principalement comme étant la mère d'Amanda Todd. Je suis enseignante et éducatrice en Colombie-Britannique. Mon travail est principalement axé sur l'éducation à la littératie numérique, la sécurité en ligne et la prévention de la violence faite aux enfants, notamment l'exploitation et la sextorsion. Il est essentiel de fournir aux enfants, aux enseignants et aux familles les connaissances et les compétences nécessaires pour naviguer dans le monde numérique et c'est l'une des raisons pour lesquelles j'ai créé un héritage, un organisme à but non lucratif, à la mémoire d'Amanda.
    Ma fille, Amanda Todd, était une adolescente canadienne dont l'histoire tragique a attiré l'attention internationale sur les graves répercussions de la cyberintimidation, du harcèlement et de l'exploitation en ligne. Elle est née en novembre 1996. Elle a été victime de harcèlement incessant, en ligne et hors ligne, alors qu'elle était une jeune adolescente. Elle s'est enlevé la vie en octobre 2012. En connaissance de cause, aucun parent n'est censé survivre à ses enfants dans des situations évitables.
    Le calvaire d'Amanda a commencé lorsqu'elle avait 12 ans. Un inconnu en ligne a convaincu Amanda de lui montrer sa poitrine sur une webcam. L'individu a enregistré l'image, qu'il a ensuite utilisée pour faire du chantage, en menaçant de partager les photos avec ses amis et sa famille si elle ne posait pas des gestes plus explicites. Malgré plusieurs changements d'école, Amanda n'a pas pu échapper au harcèlement, et l'auteur du chantage a continué à la traquer pendant deux ans et demi, créant de faux profils pour diffuser l'image et continuer de l'humilier.
    En septembre 2012, cinq semaines avant de mettre fin à ses jours, Amanda a publié sur YouTube une vidéo intitulée « My story: Struggling, bullying, suicide, self-harm », où elle utilise des cartes-éclair pour faire connaître ses douloureuses expériences. Elle y décrit l'intimidation et les agressions physiques qu'elle a subies en ligne et hors ligne, et la profonde détresse émotionnelle qu'elle a ressentie. La vidéo est devenue virale après sa mort. À ce jour, la vidéo a été visionnée environ 50 millions de fois dans le monde entier.
    La mort d'Amanda a suscité de vives réactions chez le public et le gouvernement. En 2022, Aydin Coban, un Néerlandais, a été reconnu coupable de harcèlement et d'extorsion à l'encontre d'Amanda par un tribunal canadien et condamné à 13 ans de prison. Il purge actuellement sa peine aux Pays-Bas.
    L'histoire d'Amanda continue de faire écho, ce qui souligne l'urgence de renforcer les mesures de protection contre le harcèlement en ligne et d'offrir un meilleur soutien aux victimes d'intimidation, de cyberintimidation et d'exploitation.
    Tant de voix ne sont pas entendues en raison de la peur, du jugement ou de la honte, ou parce qu'elles ne peuvent plus s'exprimer. Il est primordial de faire entendre ces voix réduites au silence et de créer un monde plus compatissant et plus compréhensif, où l'on aide les gens au lieu de les blesser.
     Nous avons assisté à l'évolution fulgurante des technologies au cours de la dernière décennie. Des appareils qui étaient des outils de communication utiles sont devenus des appareils de divertissement qui peuvent être utilisés pour exploiter et blesser autrui. Internet est devenu un environnement plus sombre depuis sa création. Le mot « algorithmes » fait désormais partie de notre vocabulaire, ce qui n'était pas le cas auparavant.
    Les recherches ont mis en évidence certains des effets néfastes liés au temps d'écran. Parmi ces effets, soulignons la diminution du bien-être, les troubles de l'humeur, la dépression et l'anxiété. Dans ce monde caractérisé par l'omniprésence des médias en ligne, ces effets touchent tant les enfants que les adultes.
    L'accès accru à Internet facilite l'accès à des contenus en ligne violents et explicites qui peuvent avoir une incidence sur les attitudes et les comportements sexuels, nuire aux enfants par la création, le partage et le visionnement de contenu d'exploitation sexuelle, et entraîner une augmentation de la violence faite aux femmes et aux filles, ainsi que de la traite des personnes à des fins sexuelles.
    Les gouvernements doivent agir pour adopter de nouvelles lois et modifier les lois existantes.
(1110)
    Pour faire d'Internet un espace plus sûr, il faut accroître l'éducation et la sensibilisation, et il faut mettre en place des règlements et des lois plus rigoureux, comme le projet de loi C‑63. Il faut améliorer les comportements des plateformes en ligne. Nous avons besoin de contrôles parentaux et de surveillance, et il est primordial d'encourager les signalements, par l'intermédiaire de Cyberaide.ca, par exemple.
    Le projet de loi C‑63...
    Madame Todd, nous reviendrons vers vous lors des séries de questions, car je pense que les membres du Comité voudront probablement en savoir davantage à ce sujet.
    D'accord.
    J'ai oublié de demander... Je sais que les gens à l'écran tendent à ne pas le remarquer, mais pour éviter d'avoir à vous interrompre, je ferai de mon mieux pour vous indiquer qu'il ne reste que 30 secondes à votre temps de parole.
    Je donne maintenant la parole à Mme McDonald, pour cinq minutes tout au plus.
    Je remercie beaucoup le Comité de l'occasion de comparaître.
    Je m'appelle Lianna McDonald. Je suis la directrice générale du Centre canadien de protection de l'enfance, un organisme de bienfaisance enregistré qui œuvre depuis près de 40 ans à la protection des enfants canadiens.
    Depuis 22 ans, nous administrons Cyberaide.ca, la centrale canadienne de signalement des cas d'exploitation sexuelle d'enfants sur Internet. En 2017, nous avons lancé le projet Arachnid, une plateforme en ligne innovante axée sur le retrait à grande échelle de matériel pédopornographique. Ce travail essentiel nous a permis de constater directement, et trop fréquemment, les blessures et les préjudices colossaux que les enfants subissent en ligne chaque jour. L'Internet non réglementé a essentiellement détruit l'enfance telle qu'on la connaissait auparavant, alors que les enfants et les familles paient un prix dévastateur pour l'incapacité chronique du gouvernement de réglementer les espaces en ligne.
    Le nombre et la gravité des crimes en ligne contre les enfants n'ont cessé d'augmenter depuis l'essor des médias sociaux, qui ont créé une tempête parfaite pour ce qui est des blessures et des préjudices infligés aux enfants. Nous avons observé une autre hausse considérable après 2020, en raison de la pandémie de COVID‑19. Ce sont d'importants événements qui ont exacerbé et intensifié les préjudices causés à nos enfants.
    Nous avons donné accès aux enfants à une technologie qui a été transformée en arme contre les enfants par les prédateurs et les services technologiques. Je vais expliquer ce dont je parle. Chaque mois, nous traitons plus de 2 500 signalements provenant de Cyberaide.ca, la ligne de signalement. Il s'agit de signalements faits par des Canadiens qui savent qu'ils doivent faire appel à nous. Nous avons observé une augmentation de 760 % des signalements de cyberprédation depuis le début de la pandémie, en 2020. L'an dernier seulement, nous avons géré plus de 4 300 demandes provenant de jeunes et de leurs parents ou tuteurs. À la ligne de signalement, nous recevons environ sept signalements de sextorsion chaque jour, et nous avons traité près de 4 000 images et vidéos d'hypertrucage sexuellement explicites impliquant des enfants. Enfin, depuis 2017, nous avons émis plus de 40 millions d'avis de retrait à des entreprises afin qu'elles retirent du contenu pédopornographique.
    Aucune autre entité au Canada ne fait le travail que nous faisons. Malheureusement, nous sommes les témoins directs — ce qui est très difficile — de l'ampleur du préjudice causé à nos enfants et de l'évolution des stratagèmes au fil des ans. Nous avons affaire à des jeunes qui sont terrifiés à l'idée de ce qu'un délinquant les forcera à faire ensuite, à des jeunes qui tentent frénétiquement de faire retirer le contenu pédopornographique qui les concerne, à des familles qui sont confrontées à des situations qui se sont aggravées bien au‑delà de tout — absolument tout — ce qu'elles auraient pu imaginer.
    Nous soutenons les survivantes et survivants d'agression sexuelle d'enfants avec prise d'images dans le monde entier. Ces images de ces agressions sont téléchargées et téléversées à l'infini sur des plateformes accessibles à quiconque dispose d'une connexion Internet. Ces victimes et ces enfants ont été dépouillés de leur vie privée et de leur dignité et, dans les faits, ils n'ont aucun recours. Leurs droits sont violés à répétition, tandis que les prédateurs qui sont obsédés par eux, qui les traquent, les harcèlent et les prennent pour cible, sont protégés sous le couvert de l'anonymat que leur confère la technologie.
    Dans le cadre du projet Arachnid, nous envoyons chaque jour entre 10 000 et 20 000 avis de retrait aux entreprises pour essayer de remédier à cette situation désastreuse. Ces avis concernent principalement du contenu pédopornographique connu. J'entends par là des images qui circulent depuis des années, qui tourmentent les survivants, alors que ces plateformes sont libres de déterminer si elles retireront le contenu ou non. On les laisse s'autoréglementer. On les laisse décider elles-mêmes ce qui est acceptable et ce qui ne l'est pas. C'est scandaleux, et cela doit changer.
    Pour mettre tout cela brièvement en perspective, avant de conclure, je vais vous donner des exemples concrets des interventions auxquelles notre organisation est confrontée chaque jour. Imaginez — et c'est ce qui se passe — une jeune fille de 11 à 12 ans qui est torturée chaque jour par un groupe d'hommes anonymes. Chaque jour, on lui ordonne d'aller dans les toilettes de l'école, de se mutiler et de se blesser tout en se filmant. Elle est paralysée par la peur. Elle fait ce qu'on lui demande. Les demandes deviennent de plus en plus violentes, de plus en plus dégradantes, de plus en plus nocives. Elle finit par demander de l'aide.
    Imaginez un adolescent qui est amené par tromperie à envoyer une image à caractère sexuel à une personne qu'il pensait être un pair, mais que cette personne se retourne contre lui et menace d'envoyer l'image à tous ses amis et à sa famille. Il est consterné. Il est terrifié. Il est convaincu de tout son être que la personne mettra sa menace à exécution. Il la paie. Ce n'est pas assez. Les menaces continuent. Il veut désespérément que cela s'arrête.
(1115)
    Ce ne sont là que quelques exemples de ce que nous entendons. Ce ne sont pas des situations hypothétiques...
    Merci, madame McDonald.
    Vous aurez l'occasion de poursuivre en réponse aux questions. Merci.
    Merci.
    Madame Lavers, je vous invite maintenant à faire votre déclaration. Vous avez cinq minutes.
    Merci.
    Bonjour. Je vous remercie de nous avoir invités, mon mari et moi, à prendre la parole aujourd'hui.
    Nous voulons aujourd'hui vous présenter notre fils. Harry était un jeune homme très sociable et inclusif. Il était intelligent et beau. Il était un athlète et un frère, et il était aimé de ses amis et de sa communauté.
    Harry était un patriote. Il aimait son pays. Il s'est enrôlé dans les cadets à l'âge de 14 ans. Puis, à l'automne 2022, alors qu'il était en 11 e année, Harry s'est joint au Prince Edward Island Regiment. Il avait 16 ans. Il a fait son entraînement de base les fins de semaine, à Summerside, à l'Île‑du‑Prince‑Édouard, tout en fréquentant l'école régionale de Souris à temps plein. Il ne lui restait qu'une fin de semaine avant de terminer son entraînement de base pour les Cadets de l'Aviation royale du Canada. Il était très fier du Canada et il comptait consacrer sa vie à servir son pays.
    Je m'appelle Barbie Lavers. Mon mari s'appelle Carl Burke. Nous sommes les parents de Harry. Harry avait 17 ans lorsque nous l'avons perdu à cause de l'extorsion sexuelle. Dans notre famille, nous avons eu de nombreuses discussions avec Harry et sa sœur Ella concernant l'utilisation sécuritaire d'Internet et les dangers du partage d'images en ligne. Malheureusement, notre famille ne connaissait pas le mot « sextorsion ». Nous n'en avions jamais entendu parler.
    Le 24 avril, Harry est allé voir son père pour lui dire qu'il avait fait une erreur. Il avait partagé des photos intimes avec une fille, prétendument de son âge, de la Nouvelle-Écosse. Cette personne exigeait maintenant de l'argent, sans quoi elle partagerait les images de Harry avec tous ses contacts, en particulier avec son commandant des cadets. Malheureusement, l'individu avait partagé certaines des images avec les amis de Harry dans les cadets, et Harry le savait. Ce même individu, semble‑t‑il, a aussi communiqué avec moi sur Instagram et m'a dit qu'il allait ruiner la vie de mon fils.
    Lorsque Harry est venu nous voir ce soir‑là et nous a raconté ce qui s'était passé, nous nous sommes assis tous les quatre autour de la table pour faire le point, et nous avons décidé de communiquer avec le détachement local de la GRC le lendemain matin. Nous pensions que Harry était à l'aise avec ce plan, mais malheureusement, ce n'était pas le cas.
    Le matin du 25 avril, nous nous préparions pour la journée. Mon mari est descendu pour voir Harry. Dans son lit, les draps étaient tirés, mais le lit n'avait pas été utilisé. Il m'a crié: « Où est Harry? » Je descendais l'escalier. À ce moment‑là, Carl était dans le garage. Il a trouvé Harry au sol, face contre terre. Il s'est tué par balle.
    Ce que je vous raconte ici n'est aucunement représentatif de ce que nous avons découvert, de ce que nous avons ressenti — nous ou notre famille — ou de la façon dont nos vies ont été bouleversées à jamais.
    Il y a deux semaines à peine, deux adolescents et un jeune homme de l'Île‑du‑Prince‑Édouard ont fait l'objet de tentatives de sextorsion, un crime sous-déclaré à l'échelle mondiale. Les garçons ont été ciblés sur les plateformes de médias sociaux, où des étrangers se faisaient passer pour des filles de leur âge pour échanger des photos à caractère sexuel. Il faut mettre fin à cela.
    En tant que famille, nous appuyons le projet de loi C‑63pour protéger nos enfants. Les risques pour nos enfants augmentent à mesure que la technologie évolue et que l'accès aux appareils est maintenu. Nous devons tous travailler ensemble — collectivités, familles et gouvernements — en nous appuyant sur la réglementation des utilisateurs et la reddition de comptes, pour réduire l'exploitation de nos enfants en ligne et pour offrir des mesures de soutien à tous.
    Les plateformes de médias sociaux doivent être tenues responsables. Elles doivent mettre en place des règles pour assurer la sécurité de nos enfants. Il y a des enfants, comme notre fils Harry, qui meurent. Les preuves de préjudice causé à nos enfants sautent aux yeux.
    Notre fille de 17 ans, Ella, a un compte Facebook. Elle n'a pas accès à Marketplace sur Facebook parce qu'elle a moins de 18 ans. Si vous ou moi étions sur Marketplace, on pourrait voir à l'occasion une fenêtre contextuelle indiquant qu'un vendeur ne vient peut-être pas du pays. Facebook a évidemment la capacité d'examiner les adresses IP des messages entrants dans son système. Cette fonction ne pourrait-elle pas servir à assurer la sécurité de nos enfants?
    L'heure n'est pas aux petits jeux politiques. Les couleurs n'ont pas d'importance dans cette discussion. Ce qui compte le plus, ici, c'est nos enfants, pas les couleurs ou l'allégeance politique. Ce projet de loi représente une occasion de protéger nos enfants et de faire front commun. Nos enfants vivent une crise. Certains diraient même qu'ils sont en guerre. Ce n'est pas le moment d'utiliser nos enfants comme pions politiques pour montrer qu'un parti a plus raison que l'autre. Une alliance temporaire est nécessaire — et s'impose, en fait — pour sauver nos enfants.
(1120)
    Plus le projet de loi C‑63 demeurera un enjeu politique longtemps, plus nous perdrons des enfants. Nous vous exhortons à cesser de perdre du temps. Faites quelque chose pour aider à sauver nos enfants.
    Merci.
    Nos enfants sont...
    Merci, madame Lavers.
    Nous passons maintenant à une première série de questions, avec quatre parlementaires. Je leur accorde six minutes chacun pour vous poser des questions, ce qui inclut les questions et les réponses.
    Nous commençons par Mme Rempel Garner.
    Merci, madame la présidente.
    Je remercie tous les témoins de leur courage et de leur engagement.
    Je tiens d'abord à dire que cette question me tient à cœur depuis de nombreuses années. Des personnes qui me sont très chères ont vu leur vie être complètement bouleversée en raison de l'absence de mesures contre le harcèlement en ligne et d'outils de prévention.
    Ma première question est la suivante: êtes-vous d'accord avec moi pour dire que l'on ne devrait pas attendre deux ou trois ans avant de prendre des mesures pour protéger les Canadiens en ligne, en particulier les enfants?
    Je vais commencer par Mme Todd. Je cherche simplement un oui ou un non.
    Non, nous ne devrions pas attendre.
    Nous ne devrions pas attendre.
    Êtes-vous aussi préoccupée que moi par le fait que les plateformes en ligne ont pu dicter les modalités de cette discussion et contourner des restrictions réglementaires très rigoureuses qui auraient pu empêcher une bonne partie de ce que nous avons entendu ici aujourd'hui? Avez-vous l'impression que ces plateformes ont, parfois, le gros bout du bâton?
    Madame Todd, je vous donne la parole.
    Oui. Ces plateformes sont des entreprises qui ont seulement pour but de faire de l'argent. La sécurité en ligne des enfants et des adultes n'a même pas été une arrière-pensée. Nous le savons, car je me consacre à cet enjeu depuis 12 ans, et ce n'est que récemment, il y a six mois, que nous avons vu des changements, lorsque Meta a modifié ses algorithmes pour assurer la sécurité.
(1125)
    Ils auraient pu le faire avant.
    Je suis d'accord avec vous sur ce point.
    Sur le fondement de vos deux réponses, recommanderiez-vous que la responsabilité de l'établissement de règles pour ces plateformes soit reportée de deux ans et confiée à un organisme de réglementation qui aurait la capacité…? Ces plateformes auraient la capacité, à huis clos et sans être soumises à un examen public, de définir ces règles. Cela ne me semble pas être une approche appropriée.
    Qu'en pensez-vous, madame Todd?
    J'ai lu que l'Australie avait créé un poste de commissaire à la sécurité électronique. Je pense que ce serait une bonne idée d'avoir un organisme de réglementation comme une commission sur la sécurité électronique. Malheureusement, il faut beaucoup de temps pour mettre un tel organisme sur pied. Toutefois, avec le temps…
    Et si nous pouvions avoir le beurre et l'argent du beurre? Et si le Parlement imposait aujourd'hui, par voie législative, une obligation de diligence pour les plateformes en ligne et leur disait ce qu'elles doivent faire parce que ce qu'elles font maintenant est illégal, et que le tout serait transmis à un organisme de réglementation? Que se passerait‑il si, à partir d'aujourd'hui, une loi imposait aux exploitants en ligne l'obligation de diligence consistant à faire tout ce que les autres témoins ont décrit ici aujourd'hui? Pensez-vous qu'il s'agirait d'une meilleure approche?
    Si vous pouviez me décrire en détail cette obligation de diligence et préciser l'organisme de réglementation qui serait responsable, ce serait une possibilité. Tout doit être précisé, et il faut…
    Je suis désolée, mais je dois brièvement interrompre les délibérations.
    Des membres du Comité m'ont dit que la sonnerie se fait entendre. Je dois donc demander si nous avons le consentement unanime pour poursuivre les délibérations. Je présume que si la sonnerie se fait entendre maintenant, nous disposons encore de 30 minutes, mais je peux me tromper.
    Quelqu'un peut‑il vérifier, s'il vous plaît?
    S'agit‑il d'une vérification du quorum ou est‑ce...
    Le greffier est en train de vérifier.
    La sonnerie se fait entendre.
    La sonnerie se fait-elle entendre parce que le vote aura lieu dans 10 minutes ou est‑ce qu'elle se fait entendre…?
    Il semble que nous disposions de 30 minutes.
    Cela pourrait changer.
    Oui, poursuivons les délibérations.
    Je demande si nous avons le consentement unanime. Je pense que tout le monde est d'accord pour poursuivre les délibérations, mais nous devrons nous arrêter cinq minutes avant le vote.
    Je vous remercie. Vous pouvez continuer.
    Je suis désolée, madame Todd. C'était à votre tour de répondre.
    Je vous remercie.
    Madame Todd, vous venez de me demander si je pouvais vous décrire cette approche, et je peux le faire.
    Le Parlement est actuellement saisi d'un projet de loi, soit le projet de loi C‑412. Ce projet de loi établit une obligation de diligence précise pour les exploitants en ligne et il décrit exactement ce qu'ils doivent faire. Il précise également l'organisme de réglementation responsable. S'il était adopté aujourd'hui, il pourrait être mis en œuvre aujourd'hui, et nous pourrions voir des répercussions immédiates.
    C'est ce qui me préoccupe au sujet du projet de loi C‑63. En effet, il confie cette responsabilité à un organisme de réglementation qui n'a pas encore été créé. Il donne également aux plateformes en ligne la possibilité de se soustraire à cette obligation deux, trois ou quatre ans plus tard. Ce qui me préoccupe, c'est de savoir combien d'autres enfants en feront l'expérience et en subiront les conséquences néfastes.
    C'est la raison pour laquelle j'attire votre attention sur le projet de loi C‑412. Cependant, en raison du temps qu'il me reste, j'aimerais simplement vous demander si vous pensez que certaines des mesures de haut niveau qui s'y trouvent formeraient une bonne approche. Tout d'abord, il y a la mise à jour immédiate des lois canadiennes sur la distribution non consensuelle d'images intimes, afin d'inclure les images créées par l'intelligence artificielle, également connues sous le nom de « deep nudes ».
    Pensez-vous que nous devons faire cela aujourd'hui, madame Todd?
    Oui.
    Vous rendez-vous compte que le projet de loi C‑63 ne ferait pas cela?
    J'avais cru comprendre qu'il y avait quelque chose au sujet de l'intelligence artificielle dans le projet de loi C‑63, mais...
    Ce n'est pas le cas. Il renvoie la balle à un organisme de réglementation, et il ne met pas à jour le Code criminel.
    En revanche, le projet de loi C‑412 fait ce qui s'impose.
    Êtes-vous d'avis que nous devrions examiner aujourd'hui l'obligation de diligence, qui est prévue dans le projet de loi C‑412 et qui comprend des choses comme celles évoquées par d'autres témoins, c'est‑à‑dire la capacité de discerner qui est un mineur et de prendre des mesures précises à l'égard de ce que les exploitants en ligne doivent faire pour prévenir ces cas?
    Oui.
    Pour que ce soit clair, vous estimez que nous ne devrions pas nécessairement confier cette responsabilité à un organisme de réglementation et prendre des mesures dans deux ou trois ans, mais que nous devrions chercher à agir dans l'immédiat grâce à une obligation de diligence prescrite.
    Veuillez répondre rapidement, si vous le voulez.
(1130)
    Comme je l'ai dit, nous sommes conscients que la création d'une commission de la sécurité numérique au Canada prend du temps. Mon rêve serait qu'entretemps, d'ici à ce que cet organisme soit établi, il y ait quelque chose en place qui puisse également réglementer ce domaine.
    Merci, madame Todd.
    Permettez-moi maintenant de proposer... et je vais essayer d'être juste. D'après mes calculs, je peux permettre trois interventions de six minutes, et cela me laissera suffisamment de temps pour lever la séance avant que la sonnerie ne retentisse.
    Monsieur Maloney, vous avez six minutes.
    Merci.
    Merci, madame la présidente. Je tiens à vous remercier, vous et les députés autour de la table, de nous avoir permis de mener cette étude, en particulier ceux qui ont voté en faveur.
    Je tiens également à remercier les témoins de leurs exposés percutants et importants.
    J'aimerais souligner, pour la gouverne de tous — et je pense que tout le monde le sait —, que le ministre a annoncé hier notre intention de scinder le projet de loi C‑63 en deux parties, les mesures de sécurité numérique et de protection des enfants étant séparées des mesures de lutte contre la haine. Je tiens à signaler, aux fins du compte rendu, que nous avons convenu de commencer par une étude préliminaire étalée sur trois séances, mais je crois que nous devrions ensuite consacrer trois à six réunions à la partie 1 du projet de loi. Cela signifie que l'accent sera mis sur la Loi sur les préjudices en ligne et les modifications à la Loi concernant la déclaration obligatoire. Nous pourrons ensuite procéder à une deuxième étude sur le reste du projet de loi à une date ultérieure.
    J'ai des questions à poser aux témoins. Je tiens à vous remercier tous de votre présence, car nous savons qu'il est extrêmement difficile de raconter vos histoires de cette manière ou de toute autre manière. Nous avez notre gratitude et notre respect.
    L'exploitation sexuelle des enfants est actuellement illégale au Canada. Les forces de l'ordre peuvent et doivent s'occuper de contenus horribles, comme le disait Mme Rempel. Cependant, comme vous l'avez dit, madame Lavers, il faut dépolitiser cela, et les modifications au Code criminel ne suffisent pas à elles seules.
    Ce que le projet de loi C‑63 ferait... Je vais être clair: un certain nombre des questions soulevées par Mme Rempel Garner sont déjà visées par le projet de loi C‑63, et je pense que les gens doivent comprendre cela.
    La question que je vous pose à tous est la suivante: si nous devions nous en remettre uniquement aux mesures du Code criminel, sans le cadre de sécurité numérique, cela suffirait‑il à régler les problèmes dont nous parlons aujourd'hui, à votre avis? Je pose la question à vous tous.
    Puis‑je intervenir sur ce point, s'il vous plaît?
    Il est très important de souligner ceci: si le droit pénal est absolument essentiel, il ne suffit pas pour le téléversement de matériel et de contenu en ligne. Nous savons, bien entendu, que nous devons pouvoir condamner et inculper des gens, pour faire avancer le processus, mais dès qu'une image est téléversée, elle peut être distribuée sur de multiples plateformes à un rythme qui est tout simplement ingérable. Le fait que nous ayons l'une des mesures législatives les plus robustes au monde, même en ce qui concerne la définition du matériel d'exploitation sexuelle d'enfants, etque nous émettions encore entre 10 000 et 20 000 avis par jour, montre bien cette lacune. Bien que, comme nous l'avons mentionné, ces éléments soient importants, nous savons que nous ne pouvons pas nous fier exclusivement au droit pénal en ce qui concerne le contenu en ligne et le contenu préjudiciable.
    L'un des autres témoins souhaite‑t‑il faire une observation à ce sujet avant que je poursuive?
    Non. D'accord.
    Madame McDonald, je vais revenir à vous.
    Le fait que c'est entre 10 000 et 20 000, ce que vous avez mentionné à quelques reprises, est assez frappant. Sans les dispositions de retrait qui font partie du projet de loi C‑63... Permettez-moi de présenter les choses autrement. Sans les dispositions de retrait incluses dans le projet de loi C‑63, en quoi les résultats seraient-ils différents? Quelle serait la différence de délai, à votre avis, si les entreprises avaient carte blanche pour prendre la décision maintenant, par rapport aux dispositions du projet de loi C‑63?
    Je dirais quelques mots.
    Premièrement, je sais que cela paraîtra étrange, mais nous estimons que le délai de 24 heures est encore trop long. Nous le savons parce que nous voyons des entreprises retirer du matériel en quelques minutes.
    Le fait est qu'à l'heure actuelle, il n'y a pas de reddition de comptes. Il n'y a pas de surveillance, alors nous laissons les entreprises décider si elles sont d'accord ou non, si elles veulent se conformer, si elles veulent ignorer. Il n'y a pas de reddition de comptes. Nous avons évidemment besoin d'une réglementation. Nous avons évidemment besoin d'une structure de reddition de comptes. Il doit y avoir des conséquences pour ces entreprises.
    Je ferais également remarquer le niveau de récidive que nous constatons. Je veux dire par là que lorsque nous avons envoyé un avis à une entreprise à propos d'une image particulière, nous voyons cette même image réapparaître sur la même plateforme. Il n'y a aucune excuse pour cela. Il n'y a pas d'incitatif ni de reddition de comptes. C'est pourquoi les entreprises font ce qu'elles veulent.
(1135)
    Je suis curieux. Si entre 10 000 et 20 000 avis sont émis, quel est le taux de réponse? Quel pourcentage des avis que vous envoyez reçoivent une réponse, et combien de ces réponses jugez-vous satisfaisantes?
    En fait, au cours des quelques années que nous faisons cela — et je suppose que c'est un peu dû à la réputation de l'organisation et à ce que nous faisons —, nous constatons qu'environ 75 % du matériel est retiré dans un délai de deux jours. Je pense que c'est à peu près exact. Toutefois, nous voyons aussi d'autres fournisseurs et des acteurs malveillants qui, en fait, ignorent nos avis. Ils décident tout simplement de ne pas répondre.
    Là encore, il faut que les gouvernements du monde entier fassent front commun et demandent des comptes à ces titans du numérique qui ont été autorisés à faire ce qu'ils veulent sans aucune conséquence.
    Je crois que mon temps de parole est presque écoulé. Je me contenterai de vous remercier à nouveau, ainsi que tous les autres témoins, de leur présence aujourd'hui.
    Merci, député Maloney.

[Français]

     Monsieur Fortin, je vous cède la parole pour six minutes.
     Merci, madame la présidente.
    Je remercie tous les témoins d'être présents aujourd'hui.
    Mesdames Todd et Lavers, vos témoignages sont troublants. On a beau le savoir, on ne réalise pas l'effet que ce genre de situation peut avoir; on ne réalise pas l'impact que les médias sociaux ont maintenant sur nos enfants. Je considère que c'est notre devoir, en tant que législateurs, de nous pencher sur cette question et de trouver les solutions les plus appropriées.
    Je sais que c'est difficile pour vous de raconter ces histoires. Je ne sais pas comment qualifier tout cela, mais ce drame est des plus tristes. Je vous remercie d'avoir eu le courage de témoigner devant le Comité.
    Cela dit, comme son temps de parole était écoulé, je crois que Mme Todd n'a pas pu terminer son allocution.
    Madame Todd, j'aimerais vous laisser une ou deux minutes pour terminer votre témoignage, si vous le voulez bien.

[Traduction]

    Je vous remercie de me permettre de le faire.
    Je vais continuer d'expliquer pourquoi j'estime que le projet de loi C‑63est important.
    Je tiens également à dire que nous ne sommes pas le seul pays à avoir pris une mesure semblable. Le Royaume-Uni a une loi sur la sécurité en ligne, qui a été créée et enchâssée dans la loi en 2023, alors que l'Australie a fait adopter sa loi sur la sécurité en ligne en 2021. De plus, l'Union européenne a une loi sur les préjudices en ligne semblable à celle du Canada. Le Canada a d'ailleurs collaboré avec le Royaume-Uni, l'Australie et l'Union européenne à l'égard du projet de loi C‑63.
    Pourquoi est‑ce important? C'est parce que le projet de loi protège les enfants. Ce que je ne comprends pas — et c'est ma propre réflexion —, ce sont toutes les personnes qui sont défavorables au projet de loi C‑63, et affirment que ce n'est pas une affaire d'enfants et de protection. Ils s'attardent aux parties que le ministre Virani s'est engagé à remanier, avec son cabinet. Le projet de loi vise à protéger les enfants. Il veut protéger les enfants et les familles contre les comportements des autres en ligne.
    Nous ne pouvons pas y arriver sans l'aide des entreprises de technologie. Il est très important de le comprendre. Il y a tellement de gens qui ne le saisissent pas. J'ai lu les commentaires négatifs et, ils me mettent en colère, parce que ma fille est décédée il y a 12 ans et que j'ai attendu le projet de loi pendant 12 ans. Les parlementaires et les groupes politiques disent que ce n'est pas nécessaire, et que nous allons... Ces propos me blessent. Ils me blessent en tant que Canadienne.
    Nous avons besoin de responsabilisation et de transparence. Nous devons soutenir les victimes. L'adoption du projet de loi C‑63 n'est pas qu'une affaire de réglementation; il s'agit de défendre la sécurité et la dignité de tous les Canadiens. Il s'agit de veiller à ce que nos espaces numériques soient aussi sûrs et respectueux que nos lieux physiques.
    En appuyant ce projet de loi, nous promettons un avenir dans lequel Internet sera un lieu de possibilités et de connexion, exempt de menaces de préjudice et d'exploitation. L'adoption du projet de loi C‑63 démontrerait l'engagement du gouvernement fédéral à s'adapter à l'ère numérique et à veiller à ce qu'Internet demeure sûr pour tous les utilisateurs. Il établit un équilibre entre le besoin de liberté d'expression et l'impératif de protéger les personnes contre les préjudices, ce qui en fait une mesure législative nécessaire et opportune.
    Il est également essentiel de faire un effort collectif pour créer des plateformes qui répondent aux défis que rencontrent les enfants, les femmes et les hommes.
    Nous nous sommes rendu compte que ce qui est arrivé à Amanda pouvait arriver à n'importe qui. Comme Amanda l'a elle-même dit, « tout le monde a une histoire ». Lorsque ces histoires surviennent et qu'elles appartiennent à votre enfant, à vos proches ou à vos petits-enfants, elles ont plus de poids.
    Personne n'est à l'abri de devenir une statistique et, comme je l'ai déjà dit, j'ai attendu le projet de loi pendant 12 ans. Le premier jour de la mort d'Amanda, je savais que des changements devaient être apportés aux lois et à la sécurité en ligne. Je ne peux pas ramener mon enfant, mais nous pouvons certainement assurer la sécurité des autres enfants.
    Je vous remercie du temps que vous m'avez accordé.
(1140)

[Français]

     Merci, madame Todd.
    Madame Lavers, je vous offre la minute qu'il reste pour que vous ajoutiez vos commentaires, si vous en avez.

[Traduction]

    Je vous remercie.
    Ce que j'aimerais dire, c'est que nos enfants sont si précieux. Je vous demanderais, en tant que membres du Comité, de rentrer chez vous et de serrer vos enfants, vos nièces, vos neveux et vos petits-enfants dans vos bras et de penser à ce que Mme Todd et moi et tant d'autres parents avons dû endurer en raison des dangereuses plateformes de médias sociaux. Vous n'avez qu'à en prendre note et à y réfléchir sérieusement, car Harry et Amanda pourraient encore être ici avec nous si cette conversation n'était pas nécessaire.

[Français]

    Je vous remercie tous. Les membres de notre comité penseront beaucoup à Harry et Amanda.
    Merci, madame la présidente.
     Merci, monsieur Fortin.

[Traduction]

    Nous allons maintenant conclure avec M. MacGregor, s'il vous plaît.
    Merci beaucoup, madame la présidente.
    J'aimerais faire écho à mes collègues en remerciant les témoins de s'être joints à notre comité et de nous avoir aidés à nous y retrouver dans un sujet très difficile. Je suis père de trois filles. J'ai des jumelles de 12 ans, alors nous composons avec ces enjeux en tant que parents. Les enfants ont accès à Internet, et nous avons du mal à trouver des moyens de leur permettre de le faire en toute sécurité.
    Mesdames Todd et Lavers, j'aimerais commencer par vous. Une partie du débat sur le projet de loi C‑63 a porté sur la question de savoir si nous devrions simplement moderniser les lois existantes et modifier le Code criminel, ou si nous devrions ajouter une autre couche de bureaucratie.
    Brièvement, lorsque vous avez signalé la situation à la police, et que celle‑ci a essayé d'utiliser les dispositions existantes du Code criminel pour résoudre le problème de vos enfants, pouvez-vous parler de certaines des limites que vous avez rencontrées? Pourquoi pensez-vous qu'il faut en faire plus, en vous fondant sur vos expériences personnelles?
    Voulez-vous répondre en premier, madame Lavers?
    Bien sûr. Merci, madame Todd.
    D'après notre expérience, la GRC a travaillé avec le Federal Bureau of Investigation, ou FBI, aux États-Unis, mais il était difficile de trouver l'adresse IP de la personne qui avait communiqué avec Harry. Lorsqu'ils ont réussi à la retrouver, il s'agissait essentiellement d'une sorte de centre d'appels, où des gens travaillaient pour extorquer et sextorquer. C'est un travail, tout comme s'ils travaillaient chez Bell Aliant et répondaient aux appels, à la différence que ce sont eux qui appellent et cherchent des gens.
    Je ne pense pas que le Code criminel soit suffisant, comme l'a dit Mme McDonald. Je suis d'avis qu'il doit y avoir des lignes directrices et des règlements plus stricts pour tenir ces entreprises responsables. Elles pourraient le faire maintenant si elles le voulaient; elles en ont la capacité. Je n'ai aucun doute à ce chapitre, mais elles ne veulent pas le faire, parce qu'elles utilisent leurs algorithmes pour faire de l'argent et non pour assurer la sécurité des gens.
(1145)
    Je vous remercie.
    Je veux simplement m'assurer que Mme Todd pourra intervenir, car je veux également poser une question à Mme McDonald.
    Allez‑y, madame Todd.
    En tant qu'enseignante et pédagogue — et je parle aux parents, aux enseignants et aux communautés —, je trouve qu'il y a un aspect de prévention, d'intervention et de réaction, et que la loi devient une mesure réactionnaire: « Il s'est passé quelque chose, et qu'allons-nous faire ensuite? » Nous avons besoin de plus de prévention et d'intervention.
    Lorsque j'ai dû signaler pour la première fois ce qui arrivait à Amanda, et que j'ai avisé notre détachement local de la GRC, la situation était particulièrement difficile. Il faut se rappeler que tout a commencé il y a 14 ans, soit deux ans avant sa mort. On m'a répondu qu'on ne pouvait pas trouver l'adresse IP en provenance des États-Unis. C'était un réseau privé virtuel, et ils n'ont rien pu trouver. C'était de son vivant.
    Après son décès, dans le cadre d'une enquête menée aux Pays-Bas et au Royaume-Uni, on a trouvé l'adresse IP d'un homme qui victimisait d'autres jeunes filles, et il se trouve qu'il s'agissait du prédateur d'Amanda. En cherchant de l'information sur Facebook, le nom d'Amanda est apparu avec le compte qu'elle avait. En fin de compte, la police néerlandaise a communiqué avec la GRC canadienne, et c'est ainsi que le prédateur d'Amanda s'est fait prendre.
    Les choses ont changé au cours des 12 dernières années, et je le comprends, mais il faut que les forces de l'ordre soient davantage incitées à s'occuper de ces affaires.
    Je vous remercie.
    Ce ne sont pas toutes les affaires qui iront devant les tribunaux.
    Merci beaucoup. Comme je vais manquer de temps, j'aimerais m'adresser à vous, madame McDonald.
    Sur votre site Web, votre organisation déclare que « l'exclusion des fonctions de messages privées [...] laisse planer une grave menace pour les enfants ».
    Je suis curieux de savoir comment nous abordons cette question, car, bien sûr, il y a actuellement de grandes préoccupations en matière de protection de la vie privée. Mes enfants de 12 ans utilisent Messenger pour enfants, de sorte que nous avons le plein contrôle sur leur liste de contacts. En fait, les parents de leurs amis ont aussi le plein contrôle, alors nous avons beaucoup de surveillance.
    De quelle façon aimeriez-vous que la loi soit rédigée pour combler ce que vous considérez comme une omission flagrante dans ce projet de loi, tout en respectant les préoccupations très réelles en matière de protection de la vie privée qui ont été soulevées au sujet d'une telle approche?
    Veuillez répondre brièvement, si possible. Il reste 40 secondes.
    Pour que ce soit clair, oui, nous sommes préoccupés que les messages privés ne soient pas visés. Je pense que ce qui est inquiétant, c'est que beaucoup de groupes du crime organisé ciblent les enfants canadiens dans leur propre maison et leur chambre à coucher, et passent essentiellement par ce genre d'applications.
    Notre organisation a publié un document sur notre site qui décrit comment nous pouvons saisir certaines des métadonnées sans voir la communication directe. Il y a un certain nombre de façons et d'occasions pour nous d'intégrer cela. C'est certainement une question que nous continuerons de soulever.
    Merci beaucoup.
    Je remercie nos témoins. Normalement, nous aurions poursuivi pendant encore quelques minutes, mais la sonnerie se fait malheureusement entendre, et il nous faudra probablement 30 minutes de plus avant de commencer.
    Nous allons suspendre la séance et tester le deuxième groupe de témoins pendant ce temps. Nous reviendrons ensuite pour le témoignage de notre deuxième groupe.
    Pourquoi ne pas poursuivre avec ce groupe de témoins après...? En fait, c'est...
    C'est à vous de décider.
    Il reste 17 ou 18 minutes.
    Je vais toutefois suspendre la séance pour l'instant.
(1145)

(1205)
    Je vais maintenant lancer le processus.
    Madame Haugen, vous recevrez un appel téléphonique du greffier ou de quelqu'un dans la salle au sujet de l'interprétation, si vous voulez bien répondre.
    Je souhaite la bienvenue à nos témoins. Nous en avons deux par vidéoconférence et une dans la salle.
    Nous accueillons Mme Frances Haugen, défenseure de la Transparence et de la responsabilité des plateformes sociales, et Mme Miranda Jordan-Smith, gestionnaire, qui témoignent toutes deux par vidéoconférence.
    Dans la salle, nous avons M. Tim McSorley, coordonnateur national de la Coalition pour la surveillance internationale des libertés civiles.
Veuillez attendre que je vous nomme avant de prendre la parole.
Pour ceux qui participent par vidéoconférence, veuillez vous assurer d'avoir sélectionné la langue de votre choix au bas de votre écran, car les questions seront posées dans les deux langues.
Je vous demande également d'attendre qu'on vous invite à prendre la parole, que vous soyez député ou témoin, et de vous adresser à la présidence.
Je vais maintenant demander à Mme Miranda Jordan-Smith de bien vouloir commencer.
Vous avez cinq minutes.
    Je vous remercie de m'accueillir aujourd'hui.
    Comme il a été mentionné, je m'appelle Miranda. Je suis ici aujourd'hui pour représenter le nombre astronomique et croissant de victimes qui ont subi des préjudices en ligne. Permettez-moi de vous raconter l'histoire des mauvais traitements infligés à ma fille.
    À l'âge de 12 ans, ma fille avait un téléphone cellulaire, et nous nous sommes assurés qu'il était équipé de contrôles parentaux. Elle n'était pas du tout sur les médias sociaux. Son temps d'écran était limité, et ses contacts devaient être approuvés. Son père pouvait voir toutes ses activités sur son téléphone.
    Nous avons donc été choqués d'apprendre que notre fille, à l'âge de 12 ans, pouvait être appâtée et manipulée en ligne sur un appareil scolaire où se trouvait une plateforme de musique sans restriction d'âge. Il y avait une fonction de clavardage, comme beaucoup d'autres, et le fournisseur de technologie ne la surveillait pas adéquatement pour détecter le prédateur en ligne auquel elle parlait. Pendant un an, elle a été manipulée par un prédateur en ligne, qui s'est présenté comme un pair.
    En juin 2022, à l'âge de 13 ans, elle a été enlevée juste à côté de son école par le prédateur, un homme de 40 ans. Lorsque ma fille n'est pas arrivée à la maison à bord de l'autobus scolaire, j'ai signalé sa disparition.
    Dès lors, une recherche à grande échelle a suivi, avec des équipes de bénévoles sur le terrain, qui ont fait du porte‑à‑porte et posé des affiches. La police d'Edmonton a fusionné ses divisions des crimes historiques, des personnes disparues, de la cybercriminalité et de la traite des personnes dans l'espoir que notre fille soit retrouvée en sécurité.
    Pendant des jours, nous avons passé des nuits blanches en larmes à nous demander ce qui lui était arrivé. Nous avons beaucoup sollicité les médias, et nos appels ont fait les manchettes internationales dans le New York Post et le Guardian du Royaume-Uni.
    Une semaine après la disparition de notre fille, je me suis réveillée parce que des agents cognaient à notre porte, et je savais qu'ils avaient des nouvelles. Nous savions que soit ils l'avaient retrouvée vivante, soit notre fille nous serait retournée dans un sac mortuaire.
    Naturellement, nous avons été absolument ravis d'apprendre que notre fille avait été localisée. Le FBI l'avait trouvée dans une chambre d'hôtel à Portland, en Oregon. Elle était gardée dans un hôpital pour enfants là‑bas, où une trousse médicolégale était complétée et on évaluait les mauvais traitements qu'elle avait subis. Nous avons immédiatement pris l'avion pour la ramener de Portland à la maison.
    Même si l'affaire criminelle est toujours en instance et que la date du procès au tribunal fédéral est fixée au 13 janvier 2025, la violence dont ma fille a été victime est insupportable et incompréhensible. Son agresseur est passible d'une peine d'emprisonnement de 70 à 77 ans pour une longue liste de crimes, dont l'enlèvement, le viol, la sodomie, l'exposition d'un enfant, la possession et la création de pornographie juvénile et le fait de traverser une frontière internationale à des fins sexuelles.
    Ma fille a été enfermée dans le coffre de l'agresseur, et cet acte à lui seul aurait pu la tuer.
    Depuis deux ans, ma famille chemine vers la guérison. La douleur et les dommages causés par ces actes horribles sont complexes et pratiquement irréparables. Nous apprenons à coexister avec la situation.
    Aujourd'hui, je vous demande de comprendre les dommages qui sont causés par l'absence de réglementation d'Internet et ce qui en découle. Les entreprises de technologie doivent être tenues responsables et agir de manière légale et éthique. Le projet de loi sur les préjudices en ligne est un pas dans la bonne direction.
    Même si certaines personnes estiment que la réglementation constitue une atteinte à la liberté d'expression ou à la vie privée d'une personne, je dois vous dire que ma famille n'a ni vie privée ni anonymat. Tout le monde sait qui nous sommes maintenant, et nous devons vivre avec le jugement ou des idées fausses. On dit que « cela ne pourrait pas arriver à mon enfant », que notre fille est en quelque sorte naïve, ou qu'elle vient d'un milieu socioéconomique pauvre, ce qui est faux.
    Je pense souvent à la réglementation. Pour conduire une voiture, il faut un permis. Pour pêcher ou chasser, il faut un permis. Pour entrer dans un magasin de pornographie et accéder à du matériel pornographique, il faut présenter une pièce d'identité. Pourquoi Internet n'est‑il pas réglementé de la même façon, de sorte que les utilisateurs doivent prouver qui ils sont?
    Je pense qu'il est temps de procéder à une réforme en ligne au Canada, sans quoi plus d'enfants deviendront des victimes. Les répercussions sont énormes pour les familles et les collectivités de tout le pays. Le Royaume-Uni a déjà une loi progressiste, et l'Australie vient d'adopter un règlement selon lequel les utilisateurs des médias sociaux doivent avoir 16 ans.
    Je demande aujourd'hui aux députés d'apporter des changements qui auront une incidence profonde et durable sur les citoyens du Canada. D'après mon expérience personnelle, je suis d'avis qu'aucun enfant n'est en sécurité sur le Web. Si cela peut nous arriver, la même chose peut se produire pour n'importe qui.
    Je vous remercie.
(1210)
    Merci beaucoup.
    Monsieur McSorley, vous avez cinq minutes.
    Je remercie le Comité de m'avoir invité à parler du projet de loi C‑63.
    Je suis heureux d'être ici au nom de la Coalition pour la surveillance internationale des libertés civiles, un groupe de 44 organisations de la société civile canadienne qui défendent les libertés civiles dans le contexte des mesures de sécurité nationale et antiterroristes.
    Les dispositions de ce projet de loi, en particulier la partie 1 touchant la Loi sur les préjudices en ligne, sont grandement améliorées par rapport à la proposition initiale de 2021 du gouvernement, et nous croyons qu'elles répondront à des enjeux urgents et importants. Cependant, il y a encore de graves préoccupations qui doivent être abordées, surtout en ce qui concerne les restrictions indues à la liberté d'expression et les atteintes à la vie privée.
    Premièrement, à la partie 1 de la loi se trouve une définition trop large du préjudice attribuable au « contenu incitant à l'extrémisme violent ou au terrorisme », qui entraînera une modération à outrance et la censure. De plus, étant donné qu'on inclut le préjudice en ligne causé par un « contenu incitant à la violence », c'est redondant et inutile.
    Deuxièmement, la définition d'un « contenu incitant à la violence » est trop large et fera en sorte qu'un contenu préconisant une manifestation sera inaccessible sur les plateformes de médias sociaux.
    Troisièmement, la loi n'empêche pas les plateformes de vérifier de façon proactive, et essentiellement de surveiller tout le contenu téléversé sur leurs sites.
    Quatrièmement, un manque de clarté dans la définition d'un « service réglementé » pourrait mener les plateformes à contourner les outils de chiffrement qui assurent la protection de la vie privée et la sécurité en ligne.
    Cinquièmement, la proposition voulant que les plateformes soient tenues de conserver certains types de données pourrait les inciter à recueillir et à conserver indûment les renseignements personnels des utilisateurs de médias sociaux.
    Enfin, septièmement, on a peu réfléchi à la façon dont cette loi entravera l'accès des Canadiens et des personnes au Canada au contenu que partagent des personnes d'autres pays.
    Brièvement, la partie 2 de la loi modifie les infractions de crime haineux qui existent au Canada, et créent une nouvelle infraction distincte de crime haineux, ce qui n'est qu'indirectement lié à la partie 1. De graves préoccupations ont été soulevées parmi les défenseurs des droits de la personne et des libertés civiles compte tenu de la portée des infractions et des sanctions connexes. Nous avons demandé que les parties 2 et 3 soient séparées de la partie 1 afin de les examiner distinctement, et nous sommes très heureux que le gouvernement ait annoncé hier son intention de le faire.
    Je me ferai un plaisir de parler de l'un ou l'autre de ces enjeux pendant la période de questions, et j'ai soumis un mémoire plus détaillé au Comité qui propose des amendements précis sur ces enjeux. Cependant, dans le temps dont je dispose, j'aimerais m'attarder aux deux premiers points que j'ai soulevés concernant le « contenu incitant à l’extrémisme violent ou au terrorisme », ainsi qu'une définition du « contenu incitant à la violence ».
    Le préjudice causé par le « contenu incitant à l’extrémisme violent ou au terrorisme » est problématique pour trois raisons et devrait être retiré de la loi. Premièrement, il est redondant et inutile. Les définitions de « contenu incitant à l’extrémisme violent ou au terrorisme » et de « contenu incitant à la violence » sont presque identiques, la principale différence étant que la première inclut un but à la violence qu'on tente de prévenir. Ces deux formes de préjudices sont également traitées de la même façon dans l'ensemble de la Loi sur les préjudices en ligne, y compris l'obligation pour les plateformes de conserver pendant un an les renseignements liés à ces préjudices afin de faciliter les enquêtes possibles.
    De plus, et c'est peut-être le plus important, l'incitation à la violence à elle seule engloberait évidemment toute incitation à la violence qui découle d'un contenu terroriste ou extrémiste. Il est inutile de définir davantage ce qui motive l'incitation à la violence.
    Deuxièmement, si elle est incluse, l'incitation au terrorisme entraînera la censure injustifiée du contenu des utilisateurs. Le « terrorisme » et l'« extrémisme » sont des termes subjectifs fondés sur l'interprétation des motivations d'un certain acte. La même opinion exprimée dans un contexte peut être considérée comme un soutien au terrorisme, et donc violente, alors que, dans un autre contexte, elle peut être considérée comme un discours politique légitime et légalement protégé.
    Les actes de dissidence sont stigmatisés et criminalisés non pas en raison des gestes eux-mêmes, mais en raison de la motivation présumée qui les sous-tend. Comme nous l'avons vu, cela mène à des incidents inacceptables de profilage racial, religieux et politique dans la lutte contre le terrorisme.
    Des études ont également largement documenté la façon dont les plateformes de médias sociaux modèrent déjà à outrance le contenu qui exprime des opinions dissidentes sous prétexte de supprimer le « contenu terroriste ». Par conséquent, en incluant le terrorisme comme facteur de motivation des publications qui incitent à la violence, le projet de loi aura un parti pris contre des mots qui n'encouragent pas la violence, mais qui est perçu comme tel en raison de points de vue personnels ou sociétaux sur ce qui est considéré être du terrorisme ou de l'extrémisme.
    Je remarque également que le terme « extrémisme » n'est pas défini dans le droit canadien. Cela nous ramène au troisième élément clé qui nous préoccupe, à savoir que certaines parties du libellé utilisé dans cette définition ne sont pas définies dans le droit canadien ou le Code criminel. Cela contredit la principale justification du gouvernement pour les sept préjudices, à savoir qu'ils concordent avec le Code criminel et n'élargissent pas la portée des infractions existantes.
(1215)
    Il vous reste 30 secondes.
    D'accord. Je vais conclure.
    Il y a plusieurs exemples, mais l'un d'entre eux est que la définition du « contenu incitant au terrorisme » ne comprend en fait qu'un contenu qui « encourage activement » un acte. Il n'y a pas de définition de ce que le verbe « encourage activement » veut dire. Il s'agit d'un seuil beaucoup plus bas que l'« incitation ». On va à l'encontre de ce qui figure déjà dans le Code criminel, qui punit soit le fait de « charger » ou de « conseiller »...
    Merci beaucoup. Nous vous reviendrons avec les questions.
    Je vous remercie.
    Nous passons maintenant à Mme Haugen. Vous avez un maximum de cinq minutes, je vous prie.
    Bonjour. Je vous remercie de l'invitation. Je n'ai été invitée qu'hier, alors vous devrez malheureusement écouter mes réflexions pêle-mêle.
    J'aimerais aborder trois questions principales. La première concerne ce qui peut être connu et ce qui est inconnu. Vous avez probablement entendu beaucoup d'information dans les médias sur les préjudices et des risques pour les enfants. J'ai trouvé le témoignage sur l'enfant de Mme Jordan-Smith incroyablement poignant. Son histoire est vraiment très loin d'être unique.
    Madame Haugen, veuillez parler plus près de votre microphone. Apparemment, ils ne vous entendent pas bien.
(1220)
    Tout allait bien lors des tests de son d'hier.
    Est-ce que c'est mieux?
    Oui. Veuillez poursuivre.
    Très bien. Je suis désolée. Je n'ai été invitée qu'hier, et je n'ai pu trouver aucun des écouteurs approuvés de la liste à Porto Rico.
    On peut lire les récits horribles des répercussions sur les enfants, mais ce que je veux souligner, c'est ce qui est connu et ce qui ne peut pas être connu aujourd'hui. Les effets deviennent visibles après un certain temps. On affirme connaître les préjudices causés par les médias sociaux en regardant les jeunes de 16 ans, mais les jeunes de 16 et 17 ans d'aujourd'hui ont commencé leurs activités en ligne à 12 et 13 ans.

[Français]

     Madame la présidente, il n'y a pas d'interprétation.

[Traduction]

    D'accord. Je vais suspendre la séance un instant pendant que nous essayons de régler un problème dans la salle.
    Mesdames et messieurs les témoins, donnez-moi un instant, s'il vous plaît.
    Je suis désolée. J'utilisais exactement la même configuration il y a quelques jours sur CNN, et tout fonctionnait bien, alors je ne sais pas vraiment quoi changer.
    Est-ce que c'est un peu mieux?
    Madame Haugen, notre équipe va devoir vous appeler pour reporter votre comparution à un autre moment. Des membres du Comité dans la salle ne parlent pas anglais. Ils ont besoin d'interprétation, et c'est tout à fait...
    Ce n'est pas que les gens ne parlent pas anglais. Le fait est que le Parlement est bilingue. Nous travaillons dans les deux langues officielles.

[Français]

    Tout à fait. On doit parler dans les deux langues. Malheureusement, l'interprétation ne peut pas se faire compte tenu de l'équipement que vous avez.

[Traduction]

    Notre équipe va vous appeler pour reporter votre comparution, si vous n'y voyez pas d'inconvénient. Vous pouvez rester pour écouter la discussion si vous le désirez, mais vous n'en êtes pas obligée. Je vous présente mes excuses.
    Nous allons poursuivre avec les autres témoins pendant le temps qu'il nous reste.
    Madame Rempel Garner, vous avez six minutes.
    Merci, madame la présidente.
    Madame Jordan-Smith, je vous remercie de votre témoignage d'aujourd'hui et du courage dont vous faites preuve en vous exprimant sur ce dossier.
    Ce qui m'a frappée dans votre témoignage, c'est que votre fille est devenue une proie sur une plateforme que vous ne saviez même pas qu'elle utilisait. Il me semble que, pour avoir une obligation de diligence qui tiendrait compte du fait que la technologie change constamment — il y aura toujours une nouvelle plateforme que les enfants utiliseront —, nous devons définir très clairement, mais aussi largement, à qui ou à quoi une obligation de diligence s'appliquerait. Elle ne peut pas s'appliquer seulement à Meta ou à quelques plateformes connues, n'est-ce pas?
    J'ai réfléchi à ce que cela pourrait signifier. J'aurais tendance à utiliser un terme plus large. Le terme que je privilégierais est quelque chose comme « exploitant en ligne, » qui désignerait le propriétaire ou l'exploitant d'une plateforme. Le terme engloberait les services en ligne ou les applications connectées à Internet, ou qui sont utilisés ou qui pourraient raisonnablement être utilisés par un mineur, y compris les services de médias sociaux et les services de jeu vidéo en ligne. Il serait ainsi très clair que, à mesure que de nouvelles plateformes sont lancées à l'avenir — à mesure que la technologie évolue —, vous, en tant que parent, n'aurez pas à deviner si votre enfant est exposé ou non à une plateforme qui pourrait ne pas être visée par la loi.
    Appuieriez-vous ce genre de recommandation?
    Je l'appuierais, parce que je pense que c'est la meilleure formulation pour refléter les situations. Le libellé engloberait tous les types d'activités en ligne, et je pense que c'est ce qui importe.
    Ensuite, pour faire le lien entre les personnes ou les services devant être visés et ce dont ils sont responsables, j'aimerais proposer très brièvement certains comportements dont les plateformes ou les exploitants en ligne devraient être responsables. Leur obligation de diligence considérable devrait prévenir les préjudices physiques ou l'incitation à de tels préjudices, y compris l'intimidation et le harcèlement en ligne; la violence sexuelle en ligne contre un mineur, y compris tout comportement dirigé contre un mineur en ligne; la création ou la diffusion d'images qui sont sexuellement exploitantes, qui humilient un mineur, qui nuisent à sa dignité ou qui constituent une atteinte à sa vie privée; la promotion et la commercialisation de produits ou de services qui sont actuellement illégaux pour les mineurs; et les tendances qui indiquent ou encouragent un comportement s'apparentant à une dépendance.
    Diriez-vous que nous sommes sur la bonne voie en ce qui concerne la gamme de comportements contre lesquels un exploitant en ligne devrait protéger les mineurs?
(1225)
    Je pense que, minimalement, ce serait l'idéal.
    Je proposerais d'ajouter des restrictions liées à l'âge et d'imposer aux entreprises de technologie la responsabilité de déterminer qui devraient être leurs utilisateurs. Ma fille utilisait une plateforme qui ne comportait aucune restriction liée à l'âge; selon moi, c'est tout à fait irresponsable.
    Je suis contente que vous souleviez ce point, car c'était en fait ma prochaine question. Ma question s'adresse à vous et à M. McSorley.
    Dans le projet de loi C‑63, le gouvernement n'a aucunement pensé à la vérification de l'âge. Il renvoie la balle à un organisme de réglementation qui n'a pas été créé, et il faudra attendre deux ou trois ans.
    Les témoins de l'autre groupe ont dit que la vérification de l'âge peut se faire dès maintenant au moyen d'algorithmes, et je suis d'accord avec eux. On peut détecter l'âge d'une personne à l'aide d'un algorithme. Si Meta sait que quelqu'un veut acheter une spatule de la marque KitchenAid, la plateforme connaît l'âge de cet utilisateur.
    Je me demande — je m'adresse à vous deux — si, pour résoudre la quadrature du cercle sur la vérification de l'âge afin de protéger les renseignements personnels tout en protégeant les mineurs contre les préjudices, il faudrait exiger des exploitants en ligne qu'ils utilisent des algorithmes ou d'autres moyens technologiques pour déterminer l'âge avec un certain degré de précision.
    Cela vous semble-t-il approprié, madame Jordan-Smith?
    Je pense que oui. Je pense que les plateformes doivent déterminer un âge approprié pour leurs utilisateurs.
    D'ailleurs, la vérification me semble être une mesure normale qui se fait même en ligne, alors que certains fournisseurs s'autoréglementent déjà. Par exemple, sur LinkedIn, pour faire l'objet d'une vérification, il faut télécharger son permis de conduire. Pour que je puisse suivre un cours à l'Université d'Oxford, j'ai dû télécharger mon passeport pour qu'on vérifie mon identité et que l’on confirme que je suis bien la personne qui suit le cours. Selon moi, ce n'est pas une mesure exagérée.
    J'aimerais poser une brève question à M. McSorley à ce sujet.
    Cela vous semble-t-il une façon de résoudre la quadrature du cercle?
    Je pense que oui.
    Nous avons soulevé dans notre mémoire, et je pense que d'autres soulèveront également ce point, que le projet de loi ne prévoit pas d'exigences en matière de transparence algorithmique de la part des plateformes de médias sociaux. Si ces exigences étaient prévues dans le projet de loi, je pense que beaucoup de préoccupations seraient apaisées.
    Par ailleurs, pensez-vous tous les deux que ces responsabilités devraient être légiférées dans une obligation de diligence plutôt que d'être renvoyées à un organisme de réglementation où ni les parlementaires ni vous n'auraient leur mot à dire sur la forme qu'elles prendraient? Cela vous semble-t-il logique, monsieur McSorley?
    Je ne suis pas suffisamment expert pour savoir où en est la technologie à l'heure actuelle, pour trancher si les responsabilités devraient être légiférées ou pour déterminer la meilleure approche.
    Et vous, madame Jordan-Smith? Aimeriez-vous que cette exigence soit inscrite le plus rapidement possible dans une obligation de diligence prévue par la loi, ou voudriez-vous qu'elle soit confiée à un organisme de réglementation dans deux ou trois ans, au mieux?
    À mon avis, il faut agir dès maintenant. Je considère qu'il est responsable d'encadrer Internet de règles et d'une réglementation.
    Comme je l'ai mentionné dans ma déclaration liminaire, nous avons droit à la liberté, mais il y a des limites à la liberté, parce que nous avons besoin d'ordre public. Je ne vois pas de problème à vérifier l'identité des utilisateurs. Ensuite, en ce qui concerne le Code criminel, si un criminel actif sur le Web devait authentifier son identité pour accéder à un site, il serait facile pour la police de faire appliquer...
    Merci beaucoup.
    Je vais maintenant donner la parole à Mme Dhillon pour un maximum de six minutes.
    Merci, madame la présidente.
    Mes questions s'adressent à Mme Jordan-Smith.
    Merci beaucoup d'être venue aujourd'hui et de nous avoir fait part de votre témoignage douloureux. Nous avons également entendu les témoignages déchirants des témoins précédents. Ce n'est pas facile d'écouter de tels récits, alors je ne peux même pas imaginer ce que vous et votre famille vivez, sans oublier votre enfant. Cela me brise le cœur d'entendre que de telles choses se produisent.
    J'aimerais dire que les trois principaux objectifs de ce projet de loi seraient d'agir de manière responsable, de protéger les enfants et de supprimer le contenu d'exploitation sexuelle d'enfants et les images de nudité partagées sans consentement, y compris les hypertrucages.
    Pouvez-vous nous parler de l'importance de ces obligations? Qu'en pensez-vous?
    Je pense qu'elles seraient appropriées. Je ne vois pas ce que je pourrais ajouter à ce stade.
    Je pense qu'il faut également mettre fin au partage et à la pérennité du contenu sur le Web. Si on pense à Mme Todd et Mme Lavers, du premier groupe de témoins, on voit que la revictimisation des victimes tient en partie au fait que le contenu est partagé et republié. Je pense qu'il doit y avoir un libellé pour empêcher que cela se produise.
(1230)
    Si cette loi avait existé au moment où votre fille a été enlevée, pensez-vous que le cours des événements dans sa vie aurait été différent, ou que vous ne vivriez pas cette situation aujourd'hui?
    Je ne sais pas dans quelle mesure la situation serait différente, mais je pense certainement que, si les entreprises de technologie étaient tenues responsables et modéraient réellement leurs sites, le contenu aurait été supprimé. Je pense donc que les entreprises de technologie ainsi qu'une mesure de sécurité en ligne dans un texte comme le projet de loi C‑63 auraient pu empêcher la situation de se produire.
    Dans le même ordre d'idées, nous entendons sans cesse parler de censure de la part de personnes qui allèguent que ce projet de loi est une nouvelle forme de censure. Cela laisse entendre que les plateformes en ligne jouissent d'une liberté et que le contenu qu'on voit est contrôlé. Cependant, ce sont les plateformes, et non les utilisateurs, qui ont le contrôle.
    Croyez-vous que les utilisateurs jouissent actuellement d'une liberté sur ces plateformes? Qu'en pensez-vous? Qu'est-ce qui devrait changer?
    J'ai entendu l'argument de la liberté d'expression. Ma position à ce sujet, comme je l'ai dit, c'est que nous aimons penser que nous vivons dans une société de libre arbitre. Or, notre société est régie par l'ordre public, et il doit y avoir une certaine mesure de contrôle.
    Je suis en faveur de l'implantation de règles, qui, à mes yeux, ne constituent pas une violation ou de la censure. Je pense que la police fait de son mieux pour essayer de régler les problèmes de discours haineux, de crimes haineux, d'insultes raciales ou d'intimidation généralisée en ligne. Or, je suis persuadée que de telles règles aideraient les forces policières à appliquer la loi. De plus, ces règles de base définiraient le comportement adéquat en ligne au Canada, alors il s'agirait d'un changement de mentalité.
    Encore une fois, j'ai une question complémentaire sur ce commentaire. J'allais justement vous poser cette question. Les préjudices en ligne comprennent les comportements incitant un enfant à se faire du mal ou le soumettant à de l'intimidation.
    Pourquoi pensez-vous qu'il est important de les inclure également dans le projet de loi?
    Je pense que c'est important parce que nous nous retrouvons avec des enfants qui meurent et qui se suicident à cause de l'intimidation en ligne, de l'exploitation ou de la sextorsion, et ces drames sont de plus en plus fréquents. Le Centre canadien de protection de l’enfance, ou CCPE, a publié un rapport selon lequel Snapchat et Instagram enregistrent les taux les plus élevés de comportement prédateur, et je connais des enfants sur ces plateformes. Les utilisateurs créent du contenu en pensant que c'est inoffensif, et je me dis: « Oh, voilà votre enfant de 12 ans qui danse. Comme c'est mignon. » Cependant, je me dis qu'un prédateur peut visionner ces images.
    Je ne sais pas si vous avez suivi les travaux du Comité de la justice au cours des dernières semaines pour en arriver à ce projet de loi. Pourquoi est-ce urgent? Il y a eu de l'obstruction. Vous parlez de revictimisation. Les témoignages des victimes ont été lus à maintes reprises, pendant des heures et des heures, alors que nous aurions dû débattre du projet de loi.
    Pourquoi est-il urgent d'adopter ce projet de loi, selon vous? Quel risque courons-nous en retardant de plus en plus l'adoption de ce projet de loi?
    À mon avis, nous sommes dans une situation impossible. J'ai mentionné que le Royaume-Uni et l'Australie se sont dotés de lois plus progressistes, tout comme l'Union européenne. Je ne dis pas que ces mesures législatives sont nécessairement parfaites, mais un texte de loi doit être en place, et un texte de loi est mieux qu'aucun texte de loi.
    Je pense qu'une mesure législative établirait des règles sur le comportement à adopter sur le Web, même pour ceux dont le comportement n'est pas préjudiciable. Cependant, lorsque je pense aux femmes adultes que je connais qui ont reçu du contenu de nudité non sollicité... de la part d'hommes adultes, ou qui se sont fait piéger par des utilisateurs falsifiant leur identité, par exemple, je vois que ces comportements font des victimes. Et en ce moment, c'est le Far West. Je pense qu'une mesure législative doit encadrer le comportement en ligne.
    Nous entendons constamment parler d'un organisme de réglementation dans les questions. J'aimerais vous poser la question suivante: que pensez-vous du fait que, sans organisme de réglementation, les victimes devraient poursuivre les plateformes de médias sociaux pour faire respecter la loi? Qu'aimeriez-vous dire à ce sujet?
    Je dirais qu'il devrait y avoir plus d'outils, ici encore. Nous sommes des victimes, et nous sommes au beau milieu d'une poursuite contre le fournisseur d'une plateforme.
(1235)
    Vous aimeriez donc que le projet de loi C‑63soit adopté rapidement.
    Oui, absolument.
    Merci beaucoup.
    Merci beaucoup.

[Français]

     Monsieur Fortin, vous avez la parole pour six minutes.
     Merci, madame la présidente.
    Je vous remercie, madame Jordan‑Smith, d'être avec nous aujourd'hui. Votre récit est très troublant, comme ceux de Mmes Todd et Lavers, que nous avons entendues avant vous. Évidemment, nous aurons à l'esprit les situations que vous avez vécues tout le temps de nos travaux sur cette importante question.
    Le projet de loi C‑63 aborde la question de la haine en ligne, ainsi que celles de la protection de l'image et de l'intimidation, entre autres. Le ministre nous a annoncé qu'il scinderait le projet de loi. Nous pourrons donc espérer étudier plus rapidement la problématique de l'intimidation et de l'utilisation des réseaux sociaux en adoptant, notamment, la nouvelle Loi sur les préjudices en ligne. C'est une bonne nouvelle pour nous.
     De votre côté, vous a-t-on parlé de l'idée de scinder le projet de loi C‑63 pour travailler plus rapidement sur la Loi sur les préjudices en ligne? Si oui, qu'en pensez-vous?

[Traduction]

    Je suis désolée. Je n'ai pas entendu l'interprétation de cette question. Quelqu'un peut‑il poser cette question en anglais?
    Je n'ai rien entendu du tout.
    Avez-vous...?
    À titre de présidente, je vais poser la question, mais je devrai ensuite céder la parole à quelqu'un capable de le faire.
    Avez-vous...
    C'est au bas de l'écran.
    Au bas de l'écran, est‑ce que vous avez sélectionné la langue de votre choix? Dans votre cas, je suppose qu'il faut choisir l'anglais?
    L'icône ressemble à un petit globe.
    Je ne vois pas où sélectionner la langue.
    C'est une petite icône en forme de globe.
    D'accord, quelqu'un va...
    L'avez-vous trouvée?
    Non, je ne la vois pas.
    Elle pourrait être au haut de l'écran. La configuration est parfois différente.
    Quelqu'un devra vous appeler.
    Merci.

[Français]

    Monsieur Fortin, pouvez-vous recommencer, s'il vous plaît?

[Traduction]

    M'entendez-vous? Entendez-vous l'interprétation?

[Français]

     Entendez-vous l'interprétation quand je vous parle en français?
    Vous adressez-vous à moi?
    Non.

[Traduction]

    Je m'adresse à Mme Jordan.
    Oui, je vous entends.
    Merci. Je suis désolée.
    Nous allons vous redonner la parole, mais je vais maintenant respecter rigoureusement le temps imparti, car nous devons terminer à 13 heures.

[Français]

    Monsieur Fortin, vous avez la parole.
     Merci, madame la présidente.
    Madame Jordan‑Smith, m'entendez-vous?

[Traduction]

    Oui, merci.

[Français]

     Je pense qu'elle ne m'entend pas, madame la présidente.

[Traduction]

    Elle a dit « oui ».
    A-t-elle dit « oui »? Je ne l'ai pas entendue.

[Français]

    Madame Jordan‑Smith, quelqu'un vous a-t-il expliqué comment fonctionnait l'appareil avant que votre témoignage débute?

[Traduction]

    J'ai manqué la partie sur l'interprétation hier lors des tests.

[Français]

    Elle dit qu'il n'y a pas d'interprétation.

[Traduction]

    Cela fonctionne maintenant.
    Est‑ce que cela fonctionne?

[Français]

    Me comprenez-vous, madame Jordan‑Smith? Entendez-vous l'interprétation?

[Traduction]

    Oui, j'entends l'interprétation.

[Français]

    Quelqu'un vous a-t-il expliqué comment fonctionnait l'appareil avant votre témoignage?

[Traduction]

    Il n'en a pas été question dans les tests d'hier, et je ne savais donc pas comment activer l'interprétation.

[Français]

    D'accord. Je veux juste m'assurer qu'on vous l'a bien expliqué. Je ne vous blâme pas. On doit expliquer aux témoins comment fonctionne l'interprétation au préalable, car il est important que tous les Canadiens, tant ceux qui parlent français que ceux qui parlent anglais, puissent entendre votre témoignage. Cela fait partie de mon rôle de m'assurer que chacun vous comprend bien, parce que votre témoignage est important et doit être compris par tout le monde. Cela dit, je suis conscient que ce n'est pas nécessairement évident, lorsque c'est la première fois.
    Comme je le disais plus tôt, je vous remercie d'être avec nous. Votre témoignage est touchant, comme ceux de Mmes Todd et Lavers, qui vous ont précédée. Nous sommes conscients de la gravité des faits dont votre fille a été victime. Soyez assurée que nous garderons cela à l'esprit lors de nos travaux sur le projet de loi C‑63.
     La question que je vous posais, avant qu'on réalise que vous n'entendiez pas l'interprétation, concerne le projet de loi C‑63. Le ministre nous a annoncé qu'il pourrait le scinder de façon à ce que nous puissions travailler plus rapidement à chacun de ses éléments, notamment à la question des préjudices en ligne. Ce qui est le plus urgent, à mon avis, c'est de bien protéger nos enfants, et je pense que c'est le sentiment de la plupart d'entre nous.
    Que pensez-vous de l'idée de scinder le projet de loi C‑63, afin d'étudier séparément la nouvelle Loi sur les préjudices en ligne et la problématique de la haine en ligne?
(1240)

[Traduction]

    Selon moi, il faut se concentrer sur ce qui est le plus facile à administrer. S'il y a des éléments litigieux dans le projet de loi C‑63, je pense que je m'en remettrais aux représentants du gouvernement qui savent comment les mesures sont administrées pour extrapoler des éléments du Code criminel ou des éléments qui ne font pas consensus. Puis, le gouvernement pourrait rédiger d'autres mesures législatives qui pourraient mieux s'harmoniser dans le système.
    Je suppose que c'est tout ce que je peux dire à ce sujet. Je ne vois pas d'inconvénient à ce que les enjeux soient séparés, pourvu qu'ils soient appliqués efficacement et qu'ils s'harmonisent dans le système.

[Français]

     Merci, madame Jordan‑Smith.
    Le projet de loi C‑63 prévoit la création de la Commission canadienne de la sécurité numérique, du poste d'ombudsman canadien de la sécurité numérique et du Bureau canadien de la sécurité numérique.
    Êtes-vous au courant de leur rôle respectif? Qu'en dites-vous?

[Traduction]

    Oui. J'ai lu à ce sujet. Je suppose, en toute franchise, que c'est une caractéristique du gouvernement. Je me fie en quelque sorte à ce qui fonctionnerait réellement dans le système. Je ne suis pas du tout experte de ce type d'organisations. Je suppose que mon expérience s'appuie davantage sur une expérience absolument horrible vécue dans le vrai monde. Je peux simplement décrire les problèmes qui se posent dans notre situation et dans les situations que j'ai vues.

[Français]

    Merci, madame Jordan‑Smith. Excusez-moi de vous interrompre. Il ne reste pas beaucoup de temps.
    J'ai cru comprendre que la mesure qui vous apparaîtrait la plus urgente concerne la vérification de l'âge des utilisateurs des réseaux sociaux. Ai-je bien compris? Sinon, pourriez-vous me préciser la première mesure sur laquelle on devrait se pencher, selon vous?

[Traduction]

    Pour moi, la vérification de l'âge semble aller de soi, parce que je vois que cela se fait déjà. L'autre élément est d'obliger les fournisseurs ou les exploitants à réellement surveiller les sites. À l'heure actuelle, l'intelligence artificielle pose aussi problème. Elle ne détecte pas certains mots qui ont une connotation sexuelle... pas seulement les termes raciaux ou violents. Dans le cas de ma fille, le contenu que nous avions trouvé sur la plateforme qu'elle utilisait était toujours accessible il y a quelques mois, lorsque notre avocat l'a fait retirer. Je pense que la surveillance par l'intelligence artificielle, ainsi que la restriction et la vérification de l'âge sont essentielles pour assurer un certain contrôle sur Internet.

[Français]

    Merci.
    Au-delà de la vérification de l'âge, y a-t-il d'autres aspects de la question sur lesquels on devrait se pencher? Par exemple, pourrait-on aller plus loin et demander aux fabricants d'appareils électroniques, comme les ordinateurs, les téléphones et les tablettes, d'ajouter un mécanisme afin de contrôler ce qui est diffusé sur ces appareils? Évidemment, on convient qu'il y a aussi la question des plateformes, que je n'ai pas abordée. Toutefois, en ce qui concerne le matériel, comme les ordinateurs et les téléphones, quelque chose devrait-il également être fait, à votre avis?
(1245)

[Traduction]

    Veuillez répondre très brièvement, madame, si vous avez une réponse à cette question.
    Je ne m'y oppose pas. Je n'ai pas de problème avec cela. Je crois toutefois que certains Canadiens jugent qu'il s'agit d'une violation des droits. À mon avis, c'est surtout une question de sécurité. Je n'ai pas de problème avec cela, et je sais que d'autres personnes non plus.
    Merci beaucoup.
    Monsieur MacGregor, vous disposez de six minutes. Allez‑y.
     Merci, madame la présidente.
     J'aimerais souhaiter la bienvenue à M. McSorley au Comité. Il a témoigné devant le comité de la sécurité publique auquel je siège également. Nous vous sommes très reconnaissants.
     Lors de votre échange avec Mme Rempel Garner, la question de la « transparence algorithmique » a été soulevée. C'est un terme que je connais et qui m'intéresse beaucoup. Lorsque des gens affichent des messages en ligne sur ces plateformes, celles‑ci ne sont pas que des spectateurs passifs. Leurs algorithmes peuvent à la fois amplifier et réprimer les voix. Les algorithmes peuvent être très utiles. Ils peuvent orienter les gens vers leurs intérêts; ils peuvent rendre la recherche beaucoup plus efficace, mais ils peuvent aussi pousser les gens dans des recoins très sombres. Je pense qu'au cours des dernières années, nous en avons vu les résultats concrets.
     Mon collègue Peter Julian a présenté le projet de loi C‑292. Je suis sûr qu'il y a diverses façons d'aborder la question, mais à votre avis, comment cette mesure législative permettrait-elle de jouer un rôle plus actif dans la promotion de la transparence algorithmique?
    Je pense que c'est très important, car au fur et à mesure que nous nous attaquons à différentes formes de préjudices, nous devons envisager de modéliser différentes approches. C'est pourquoi, dans nos commentaires, nous ne proposons pas de changements pour lutter contre le matériel d'exploitation sexuelle des enfants ou d'autres choses, mais nous nous concentrons précisément sur les questions relatives à la sécurité nationale et à la lutte contre le terrorisme.
    Cela dit, en ce qui concerne la transparence algorithmique, nous pensons qu'il serait important, dans l'ensemble, d'obliger ces plateformes à faire preuve d'ouverture au sujet du développement de leurs algorithmes et du type d'information qui y est intégrée.
     Comme nous l'avons fait valoir à d'autres endroits au sujet de la loi actuelle sur l'intelligence artificielle et les données, il doit y avoir des évaluations par des tiers pour s'assurer que ces algorithmes font leur travail, non seulement pour veiller à ce qu'ils soient efficaces dans ce qu'on leur demande de faire, mais aussi pour veiller à ce qu'il n'y ait pas de répercussions négatives. Nous savons déjà qu'avec l'utilisation de l'intelligence artificielle et des algorithmes, il y a eu des cas documentés de préjugés liés à l'âge, au sexe et à la race. Il est donc important qu'il y ait une ouverture, et c'est quelque chose qui manque dans le projet de loi C‑63.
    Merci.
    Dans votre déclaration préliminaire, vous avez dit que tout ce qui était publié dans les médias sociaux pouvait être perçu selon un certain contexte à titre d'incitation à la violence terroriste et être considéré comme étant tout à fait acceptable dans un autre contexte. Pouvez-vous nous en dire plus à ce sujet et peut-être nous donner un exemple?
     Bien sûr. Je pense qu'il y a quelques éléments que nous pourrions examiner. Par exemple, à l'échelle nationale, on peut caractériser d'une certaine façon une manifestation dans la rue pour une cause — et nous avons activement soulevé des préoccupations au sujet de la caractérisation de tout soutien aux droits de la personne palestiniens comme étant un soutien au terrorisme —, alors que l’on caractérise autrement une autre manifestation qui se déroule exactement de la même façon et qui vise les mêmes appels à l'action. Je pense au mouvement Occupy. On craint que, même s'il n'y a pas d'appel direct à la violence, en raison de la stigmatisation associée au simple fait d'étiqueter quelque chose comme étant potentiellement en faveur du terrorisme, cela puisse être considéré comme un préjudice.
    Ce qui nous préoccupe également, c'est la façon dont cela sera appliqué à l'échelle internationale. Certains pays diraient que les défenseurs des droits de la personne en Égypte ou les personnes qui résistent en Ukraine sont définis par d'autres pays comme des terroristes. Comment s'attend-on à ce que les plateformes décident de la façon de surveiller tout cela? Si on se limitait simplement à l'incitation à la violence sans prendre de décision subjective, ce serait beaucoup plus clair pour les plateformes. Ce serait plus clair pour le public, et les contestations auprès de la Commission de la sécurité numérique seraient aussi plus faciles en cas de problème.
(1250)
    Autrement dit, en tant que législateurs, nous devons faire très attention aux interprétations subjectives des lois que nous proposons. J'en prends bonne note.
    Nous avons également beaucoup discuté de la façon dont nous voulons que les plateformes assument une plus grande responsabilité à l'égard du contenu, mais avez-vous des préoccupations au sujet de la surveillance proactive de tout le contenu par les plateformes et de la façon dont elles géreraient la collecte et la conservation de renseignements personnels? Pouvez-vous nous en dire plus sur ces concepts?
     L'une des préoccupations que nous avions au sujet de la version originale de ce projet de loi, c'est qu'il aurait obligé les plateformes à surveiller essentiellement tout le contenu qui allait être diffusé. Ce n'est plus le cas, mais nous craignons que cela ne les empêche pas de le faire. Si c'était le cas et qu'elles le faisaient, elles devraient par défaut se fier presque principalement à la prise de décisions algorithmique, et ce n'est pas inclus. Comme nous l'avons dit, la transparence est incluse dans le projet de loi. Cela se traduirait presque par défaut par une surmodération. Les plateformes auraient tendance à retirer le contenu pour s'en occuper plus tard, plutôt que de le définir étroitement.
     Dans certains cas, pour le matériel d'exploitation sexuelle d'enfants, il y a des mots-clés et d'autres éléments qui peuvent être utilisés pour identifier certains types de contenu en particulier, ce qui éviterait d'avoir à surveiller tout le contenu en ligne, mais cela fait défaut dans le projet de loi en ce qui concerne l'obligation pour la plateforme de ne pas se livrer à une telle activité.
    Merci.
    Merci beaucoup, monsieur MacGregor.
    Il nous reste encore un peu de temps, et je vais raccourcir les interventions.

[Français]

     Je vais répartir les prochains tours de parole de la façon suivante: j'accorde trois minutes aux conservateurs, trois minutes aux libéraux, une minute et demie au Bloc québécois et une minute et demie au Nouveau Parti démocratique.
    Madame Rempel Garner, vous disposez de trois minutes.
    Merci, madame la présidente.

[Traduction]

     Je vais revenir à vous, madame Jordan-Smith, pour reprendre une série de questions de mon collègue, M. Fortin.
     Il vous a demandé si vous saviez ce que faisaient les organismes de réglementation, et je pense que vous avez donné une réponse très succincte. Vous avez dit que cela reviendrait au gouvernement. Je trouve préoccupant, cependant, que vous ne sachiez pas ce qu'ils font. Je ne dis pas cela de façon péjorative; je le dis du point de vue d'un parent qui a vécu tant de pertes. Je pense que l'objectif déclaré du projet de loi C‑63 est que vous sachiez quelles sont les protections dont vous disposez après son adoption, mais elles n'existent pas, parce que tout ce qu'il fait, c'est créer un organisme de réglementation sans garantir que les protections que vous demandez seront légiférées par le Parlement.
     À cet égard, je préférerais que le Parlement légifère immédiatement sur cette obligation de diligence, afin que les organismes d'application de la loi ou les organismes de réglementation existants puissent prendre des mesures immédiatement.
     Cela vous semble‑t‑il logique?
    Oui, je crois que c'est ce qu'il faut, parce que pour le moment, nous n'avons rien.
    Exactement.
     À l'article 4 proposé du projet de loi C‑63, il est question de renforcer les exigences en matière de déclaration. Certains de mes collègues ont laissé entendre que nous avions besoin d'un organisme de réglementation pour le faire. Le projet de loi énonce que cette tâche serait confiée à un organisme d'application de la loi qui existe déjà.
     Appuieriez-vous les dispositions qui renforceraient les lois existantes et qui passeraient par les forces de l'ordre? Est‑ce que le gouvernement devrait se concentrer sur une telle mesure tout en veillant à ce qu'il y ait une obligation de diligence prévue par la loi, de sorte que si l'un d'entre nous vous demandait à nouveau si vous savez ce que fait cette loi ou quelles protections vous sont accordées, vous seriez en mesure de répondre à la question avec un certain degré de certitude?
     À titre de précision, ce que j'ai dit, c'est que je ne sais pas comment il serait administré. Je comprends bien le projet de loi, mais j'ai l'impression qu'il doit y avoir quelque chose en place pour guider les citoyens du Canada sur la façon de communiquer avec Internet et avec les fournisseurs. C'est là que le projet de loi me semble fort.
    Là où j'ai des questionnements, c'est en ce qui a trait à l'application de la loi, à la possibilité d'avoir divers ombudsmans ou organismes de réglementation. Ce pourrait être un point faible du projet de loi.
    Pour les 30 secondes qu'il me reste, j'aimerais vous remercier pour tout votre travail. J'aimerais communiquer avec vous après la réunion et vous transmettre une copie du projet de loi C‑412, qui explique tout cela très clairement. Ce projet de loi a été présenté au Parlement et nous pourrions l'adopter aujourd'hui afin d'assurer ces protections pour des parents comme vous. Je crois que c'est ce que nous voulons tous faire ici. Nous ne voulons pas attendre encore deux ou trois ans.
    Merci.
(1255)
    Merci beaucoup.
    Nous allons maintenant entendre Mme Brière, qui dispose de trois minutes. Allez‑y.
    Merci, madame la présidente.
    J'aimerais poser une question à Mme Lianna McDonald, si elle est toujours en ligne.
    Mme Todd est en ligne.
    Mme Todd, d'accord.
    Madame Todd, j'aimerais que vous nous disiez pourquoi, selon vous, l'argument voulant qu'il s'agisse de bureaucratie inutile n'est pas fondé.
    Que voulez-vous dire par « bureaucratie inutile »?
    Nous avons beaucoup entendu parler de l'organisme de réglementation.
     J'ai suivi ce qui se passe en Australie. J'ai rencontré les membres du commissariat à la sécurité électronique qui s'occupe de l'administration de la réglementation. Pour ceux qui ne le savent peut-être pas, il y a eu une question sur les éléments d'une éventuelle commission.
     La Commission canadienne de la sécurité numérique serait un organisme qui superviserait l'application de la Loi sur les préjudices en ligne. Un ombudsman de la sécurité numérique soutiendrait les utilisateurs et défendrait l'intérêt public en matière de sécurité en ligne. Les exploitants de médias sociaux auraient aussi des obligations, et les plateformes seraient tenues de mettre en œuvre des mesures pour atténuer les risques, protéger les enfants et rendre inaccessible le contenu préjudiciable.
    C'est un ensemble, qui comporte diverses parties. C'est un peu ce dont nous avons besoin. Cela ne se fera pas du jour au lendemain, parce qu'en Australie, il a fallu des années pour y arriver. Nous le faisons pour assurer la sécurité à long terme. Nous n'avons pas une vision à court terme. Nous voulons bien faire les choses. Tout ce que nous faisons prend du temps; il faut le faire avec soin.
     Ce qui me déplaît, c'est qu'on nous pose à nous, les parents, des questions auxquelles nous ne pouvons peut-être pas répondre. Nous sommes ici pour parler des raisons pour lesquelles il est important d'adopter le projet de loi C‑63. Le Canada est l'un des derniers pays industrialisés à adopter une telle mesure. C'est pourquoi nous devons le faire. Nous avons besoin d'un organisme de réglementation, et la Commission en est un. Voilà ce que j'avais à dire à ce sujet.
    Merci.
    Je sais que l'on a posé la question à quelqu'un d'autre, mais croyez-vous que votre fille pourrait encore être en vie aujourd'hui si le projet de loi C‑63 avait été en vigueur à ce moment‑là?
     Il y a beaucoup d'éléments qui entrent en jeu avec la santé mentale. Cependant, je me souviens qu'à l'époque où les images intimes avaient été publiées sur Facebook et ailleurs, je fouillais le site de Facebook pour trouver une façon de faire un signalement, et je n'y parvenais pas. Il n'y avait pas de bouton pour cela à l'époque. Il n'y avait pas d'adresse courriel. Il n'y avait pas de numéro de téléphone à contacter.
     J'ai vu mon enfant s'en rendre compte et se désintégrer sous mes yeux, et c'était déchirant. Cela fait maintenant 12 ans, et il y a encore des choses qui nuisent aux enfants et aux familles et qui doivent être modifiées. La technologie a tellement évolué qu'elle rend les choses plus difficiles. Je suis certaine que si ces événements s'étaient produits aujourd'hui, les organismes de réglementation auraient pu régler ces problèmes, mais avec l'intelligence artificielle et ses progrès...
    Nous vous remercions pour votre témoignage.

[Français]

     Notre prochain intervenant est M. Fortin, qui dispose d'une minute et demie.

[Traduction]

    Nous allons maintenant entendre M. MacGregor, qui dispose d'une minute et demie.

[Français]

     Merci, madame la présidente.
    Compte tenu du temps qui m'est alloué, je vais procéder rapidement.
    J'aimerais d'abord vous remercier, madame Jordan‑Smith, et vous aussi, monsieur McSorley, même si je ne vous ai pas encore posé de question. Cela ne veut pas dire que votre présence n'est pas importante. Votre témoignage a été clair et je l'ai bien noté.
    Madame Jordan‑Smith, si vous me le permettez, je voudrais seulement vous poser une dernière question.
    Nous espérons tous que la loi sur les préjudices en ligne, c'est-à-dire le projet de loi C‑63, sera adoptée rapidement. Le projet de loi le propose et, à mon avis, il y aurait peut-être des ajustements à y apporter. Toutefois, je pense qu'on se doit d'être diligents. Cela ne réglera pas tous les problèmes, mais cela criminalisera certains comportements et cela créera des instances pour des plaintes et un suivi.
    À votre avis, cela aiderait-il si des sommes d'argent étaient consacrées à des campagnes de sensibilisation, que ce soit à la télévision, à la radio ou sur les médias sociaux, destinées à nos jeunes hommes et à nos jeunes femmes, pour les prémunir contre cela?
    Je pose cette question parce qu'ils vont continuellement faire face à ces situations, peu importe les lois qu'on adopte. À votre avis, une campagne de sensibilisation dans les médias pourrait-elle alors changer quelque chose pour les victimes?
(1300)

[Traduction]

    Cela serait certainement utile, mais le Centre canadien de protection de l'enfance a déjà fait une campagne de sensibilisation au sujet du projet de loi. Elle a été diffusée, notamment à la télévision, tout l'été. Je crois que nous sommes dans une ère numérique et que les adultes n'utilisent pas nécessairement les médias sociaux de manière appropriée.
    Merci.
    Allez‑y, monsieur MacGregor.
    Merci, madame la présidente.
    Monsieur McSorley, je m'adresse à vous de nouveau. Croyez-vous qu'il y a un quelconque élément dans le projet de loi C‑63 qui pourrait représenter un risque pour les outils de chiffrement conçus pour protéger la sécurité et la vie privée en ligne?
    Si vous avez des préoccupations en ce sens, avez-vous des idées de la façon dont le Comité devrait les aborder?
     Je sais que la question du chiffrement et de la messagerie privée est d'actualité en ce qui concerne la façon de l'aborder dans ce projet de loi. Ce qui nous préoccupe, c'est qu'une fois que le chiffrement est brisé dans les messages privés, il ne peut pas être réparé. Une fois qu'un acteur est en mesure d'accéder à des renseignements chiffrés, il est possible qu'il puisse y avoir accès pour d'autres raisons. Le chiffrement est à la base d'une grande partie de la sécurité en ligne, des services bancaires à la protection de la vie privée des gens de tous âges.
     Dans le projet de loi actuel, il n'y a pas d'obligation explicite pour les plateformes de protéger le chiffrement. Nous craignons que l'absence d'une telle obligation puisse entraîner une certaine interprétation de la part des plateformes. Nous pensons que des protections supplémentaires devraient être incluses dans le projet de loi.
    Je vous remercie pour cette précision.
    Merci.
    Merci beaucoup aux témoins qui ont comparu devant nous.
    Je remercie également les témoins du premier groupe de leur patience. Il arrive parfois que nous devions suspendre abruptement la séance, sans le savoir à l'avance, mais nous vous sommes très reconnaissants de votre persévérance.
     Au nom de tous les membres du Comité, je tiens à vous dire que nous vous sommes très reconnaissants pour votre témoignage. Nous sommes de tout cœur avec vous. Je sais que même si les événements que vous avez vécus se sont produits il y a de nombreuses années, vous le vivez comme si c'était hier.
    Je vous remercie beaucoup de nous avoir raconté votre histoire et de continuer à le faire afin que nous n'oubliions pas et que nous agissions le plus rapidement possible, en tant que législateurs, en adoptant un projet de loi comme celui‑ci. Merci beaucoup.
    Pour terminer, s'il y a des sujets que vous n'avez pas eu le temps d'aborder, vous pouvez nous transmettre des renseignements par écrit. Je sais que vous avez tous déjà présenté un mémoire, alors ce n'est pas nécessaire, mais s'il y a quoi que ce soit que vous souhaitez que nous examinions davantage, veuillez en faire part au Comité par l'entremise du greffier.
(1305)
    Merci beaucoup.
    Plaît‑il au Comité de lever la séance?
    Des députés: D'accord.
    La présidente: Merci beaucoup.
    La séance est levée.
Explorateur de la publication
Explorateur de la publication
ParlVU