Passer au contenu

JUST Réunion de comité

Les Avis de convocation contiennent des renseignements sur le sujet, la date, l’heure et l’endroit de la réunion, ainsi qu’une liste des témoins qui doivent comparaître devant le comité. Les Témoignages sont le compte rendu transcrit, révisé et corrigé de tout ce qui a été dit pendant la séance. Les Procès-verbaux sont le compte rendu officiel des séances.

Pour faire une recherche avancée, utilisez l’outil Rechercher dans les publications.

Si vous avez des questions ou commentaires concernant l'accessibilité à cette publication, veuillez communiquer avec nous à accessible@parl.gc.ca.

Publication du jour précédent Publication du jour prochain
Passer à la navigation dans le document Passer au contenu du document






Emblème de la Chambre des communes

Comité permanent de la justice et des droits de la personne


NUMÉRO 127 
l
1re SESSION 
l
44e LÉGISLATURE 

TÉMOIGNAGES

Le jeudi 12 décembre 2024

[Enregistrement électronique]

(1100)

[Français]

    J'ouvre maintenant la séance.

[Traduction]

    Bienvenue à la 127e réunion du Comité permanent de la justice et des droits de la personne de la Chambre des communes.

[Français]

    Conformément au paragraphe 108(2) du Règlement et à la motion adoptée par le Comité le 2 décembre 2024, le Comité se réunit en public pour poursuivre sa préétude du projet de loi C‑63.

[Traduction]

    Avant de présenter les témoins du premier groupe, j'ai quelques remarques préliminaires à vous donner.
    Les témoins présents dans la salle sont priés d'utiliser le microphone et le casque d'écoute fournis. Éloignez le casque du microphone pour faciliter le travail des interprètes et pour préserver leur santé et leur sécurité. Peu importe que vous participiez à la réunion en ligne ou en personne, vous devez attendre que la présidence vous nomme avant de prendre la parole.

[Français]

     Je parle français en ce moment. Les participants anglophones devraient entendre l'interprétation en anglais.

[Traduction]

    Si vous n'avez pas compris ce que je viens de dire en français, votre appareil n'est pas bien réglé. Je vous invite à bien régler votre appareil pour vous assurer d'entendre la langue de votre choix et éviter d'interrompre les délibérations.

[Français]

    S'il vous plaît, mettez vos appareils électroniques en sourdine.

[Traduction]

    Si vous participez virtuellement à la réunion, veuillez activer votre microphone seulement quand la présidence vous nomme.
    Je vais maintenant vous présenter les témoins qui comparaîtront ce matin.

[Français]

     Premièrement, nous recevons Mme Frances Haugen.

[Traduction]

    Mme Haugen est défenseure, Transparence et responsabilité des plateformes sociales. Elle nous rejoint par vidéoconférence.
    Mme Marni Panas est spécialiste en inclusion agréée au Canada.
    Nous accueillons également Mme Jocelyn Monsma Selby, la présidente de Connecting to Protect. Elle est thérapeute clinique et évaluatrice judiciaire, et elle comparaît aussi par vidéoconférence.
    Vous disposez de cinq minutes chacune pour nous présenter vos déclarations liminaires. Je sais que c'est un peu difficile, surtout si vous nous joignez par écran interposé. Je vais vous avertir quand il vous restera 30 secondes. Quand le temps imparti pour vos remarques liminaires ou vos réponses aux questions des députés sera écoulé, je vais vous interrompre avec le plus de douceur et de tact possible.
    Je souligne la présence parmi nous du sénateur Kristopher Wells. Il sera avec nous pour la première heure. Soyez le bienvenu, monsieur le sénateur.
    J'invite Mme Frances Haugen à prendre la parole.
    Vous disposez de cinq minutes.
(1105)
    Comme vous avez probablement entendu beaucoup de gens parler des méfaits des médias sociaux, je vais vous en épargner l'inventaire. Je vais plutôt me concentrer sur deux thèmes qui, je l'espère, vont vous permettre de comprendre le contexte dans lequel s'inscrit mon témoignage et de réaliser l'urgence d'agir.
    Premièrement, je tiens à souligner à quel point nous sous-estimons la gravité des effets des médias sociaux pour les enfants en raison des limites de nos méthodes d'observation et de mesure. Quand les chercheurs et les décideurs discutent des effets délétères des médias sociaux, ils se fondent en règle générale sur des études menées auprès d'adolescents au sujet des taux d'automutilation et de troubles alimentaires, ainsi que de la détérioration de la santé mentale chez les personnes de 16 ans. Or, ces études nous donnent des échos du passé et dépeignent les conséquences d'une exposition aux médias sociaux qui a commencé des années auparavant, souvent autour de 12 ou 13 ans.
    Ce qui est alarmant, c'est de constater qu'aujourd'hui, les jeunes de 12 ou 13 ans ont été exposés aux médias sociaux à 8 ou 9 ans environ. En 2022, 30 % des enfants américains de 7 à 9 ans étaient déjà actifs sur les plateformes de médias sociaux, et cette proportion a sûrement augmenté depuis. Cette réalité entraîne ce que j'appelle un effet télescope de notre compréhension des effets des médias sociaux. À l'instar des astronomes qui observent des galaxies lointaines, l'information que nous étudions concerne toujours le passé, c'est‑à‑dire les plateformes de médias sociaux telles qu'elles étaient conçues avant et les habitudes en matière d'utilisation du passé. Ce n'est pas un problème si nous étudions les étoiles puisque les cieux évoluent lentement. En revanche, si nous étudions la vie numérique des adolescents, nous nous retrouvons devant un monde qui évolue rapidement et nous sommes constamment étonnés que les taux de préjudices ne cessent d'augmenter.
    L'influence et les effets sont significativement différents pour un enfant de 7 ans et un adolescent de 13 ans. Actuellement, les enfants commencent à utiliser les médias sociaux de plus en plus jeunes, à des stades de développement encore plus déterminants et sur des plateformes encore plus évoluées et interactives que celles que fréquentent les adolescents que nous étudions actuellement. Si rien n'est fait, nous risquons de réaliser dans 10 ans que nous avons laissé une génération entière subir des changements fondamentaux de leur développement de manières que nous n'aurons ni anticipées ni empêchées.
    Mon deuxième point concerne la menace émergente et sous-estimée de l'accroissement des avatars créés par l'intelligence artificielle, ou IA, et leurs répercussions sur le développement social des enfants. Ces avatars IA sont des compagnons virtuels évolués. Ils utilisent l'intelligence artificielle pour engager une conversation, réagir aux émotions et établir des liens en apparence réels avec les utilisateurs. Ils sont conçus pour être accessibles en tout temps, ne jamais perdre patience et toujours être à l'écoute des intérêts et des besoins des utilisateurs.
    Le principal fournisseur de ces avatars IA est fier d'annoncer que les utilisateurs moyens — qui sont essentiellement des enfants de moins de 18 ans — passent 2 heures par jour à interagir avec ces compagnons virtuels. Cette statistique devrait nous alarmer. L'apprentissage des rapports entre vrais humains est intrinsèquement difficile et parfois inconfortable. Il faut faire des compromis, faire preuve de patience, être à l'écoute des besoins et des intérêts d'autrui, pas seulement des nôtres. Par contraste, les avatars IA offrent une solution de moindre effort. Il n'y a jamais de désaccord inconfortable, jamais de besoins contradictoires. Ces avatars n'exigent jamais de faire le difficile travail émotionnel inhérent aux amitiés véritables.
    Nous devons élargir notre compréhension de ce que sont les médias sociaux. Ces espaces fondés sur l'IA repoussent la frontière des dommages potentiels. La facilité factice des relations virtuelles effrite encore plus la capacité et la volonté des enfants de nouer des rapports humains réels. Si nous ne faisons rien maintenant pour comprendre et réglementer ces technologies, nous courons le risque d'être désagréablement surpris par leurs impacts, comme nous l'avons été par ceux des plateformes de médias sociaux.
    En conclusion, les problèmes associés aux médias sociaux sont le reflet de problèmes sociaux plus larges. Les adultes qui subissent le plus durement les effets négatifs des médias sociaux sont souvent les laissés pour compte de la société sur le plan géographique, physique ou économique. La socialisation en personne entraîne des coûts réels — il faut payer pour le transport, les activités, y consacrer du temps —, alors que la socialisation en ligne semble à première vue gratuite. Le coût réel se fait sentir sur la santé mentale, le développement et les relations humaines.
    De plus, et c'est peut-être le plus important, il est fort probable que les enfants les plus vulnérables et les plus marginalisés soient aussi les plus susceptibles d'être happés dans la spirale de ces espaces virtuels, autant les médias sociaux traditionnels que les espaces fondés sur l'IA. Souvent, ces enfants ont moins d'interactions en personne et moins souvent accès à des activités supervisées en raison du manque de ressources. Ils reçoivent aussi moins souvent les conseils de mentors adultes qui peuvent les aider à composer avec les défis de grandir, ou leur expliquer le contexte et leur procurer du soutien quand ils subissent des préjudices en ligne.
    Nous devons agir maintenant pour offrir aux enfants des espaces numériques appropriés et sûrs, car leur capacité de nouer de véritables relations et de communiquer va façonner le monde dans lequel nous allons vivre dans les prochaines décennies.
    Merci.
    Merci beaucoup.
    J'invite maintenant Mme Panas à prendre la parole.
    Je m'appelle Marni Panas. J'utilise le pronom « elle ». Je suis une spécialiste en inclusion agréée au Canada. J'ai piloté la conception d'activités sur la diversité et l'inclusion pour les Services de santé de l'Alberta, le plus important fournisseur de soins de santé au Canada. Je suis la directrice de la diversité, de l'équité et de l'inclusion au sein de l'une des sociétés les plus respectées au Canada, et je préside le conseil d'administration du Centre canadien pour la diversité et l'inclusion.
    Aujourd'hui, je vais m'exprimer en mon nom et parler de mes expériences personnelles. Je suis ici pour défendre avec vigueur le droit de tous les Canadiens à la liberté d'expression, qui est l'essence même de notre démocratie. Malheureusement, comme des millions d'autres personnes, je n'ai pas cette liberté d'expression parce que dans le cyberespace, il est plus sûr d'être raciste, homophobe, sexiste et transphobe que d'être noir, gai, une femme ou transgenre. La haine en ligne est réelle. Elle se déploie dans nos rues. Elle met les Canadiens en danger dans la vraie vie.
    En septembre 2021, je suis montée sur une scène dans ma ville d'origine de Camrose, en Alberta, pour prononcer une conférence sur l'inclusion des personnes LGBTQ2S+. J'ai présenté cette conférence à des milliers d'étudiants, de professionnels de la santé et de dirigeants partout dans le monde. Quand j'étais sur la scène, un étudiant radicalisé par la haine en ligne, à l'instar de bien des jeunes, a diffusé ma conférence en direct, à mon insu, sur Facebook et plusieurs autres plateformes virtuelles d'extrême droite. Quand j'ai quitté la scène, des milliers de personnes avaient déjà publié des commentaires sur mon apparence, mon identité et ma famille. Les pires comprenaient des menaces et des avertissements de surveiller mes arrières. Ma conférence suivante a été annulée. Des policiers ont dû m'escorter pour que je puisse quitter le campus en toute sécurité.
    En mars 2023, j'ai été invitée à participer à un groupe qui soulignait la Journée internationale des femmes en faisant de la sensibilisation sur un organisme de Calgary dont la mission est de protéger les femmes et les enfants contre la violence familiale. Étant donné que j'avais reçu beaucoup de menaces de violence en ligne, le Service de police de Calgary et le service de protection de mon employeur ont dû m'escorter à mon arrivée et à ma sortie de la bibliothèque publique de Calgary où avait lieu l'événement.
    En février dernier, des gens enhardis par l'entrée en vigueur de la législation contre les personnes transgenres en Alberta nous ont harcelées et menacées en ligne, moi et d'autres personnes, avec une hargne que je n'avais jamais vue avant. Ils ont même tenté de m'intimider en contactant mon employeur. Je suis reconnaissante du soutien que j'ai reçu de mon employeur actuel, qui a de nouveau dû intervenir pour me protéger.
    Ceux qui déversent leur haine en ligne sont rarement les plus dangereux, mais les mots ne sont jamais que des mots. Les gens qui lisent, qui entendent et qui croient les discours haineux sont ceux qui en viennent à passer à l'acte. Ces mots et les actes qu'ils provoquent m'ont suivie dans ma communauté, mon lieu de travail et même chez moi. Les conséquences du harcèlement constant que je subis parce que je vis en étant moi-même publiquement, avec fierté et bonheur, ont des conséquences profondes sur ma santé mentale, mon bien-être et mon sentiment de sécurité dans mon lieu de vie et au travail. Elles font en sorte que je vis en retrait des communautés auxquelles je suis attachée et que je me demande, chaque fois que quelqu'un me reconnaît sur la rue, si ce sera le moment fatidique où la haine en ligne se mutera en violence physique réelle. Jamais je ne me suis sentie aussi peu en sécurité dans ma communauté et mon pays.
    Donc non, je n'ai pas droit à la liberté d'expression. La visibilité a un prix. La prise de parole a un prix. La comparution devant vous a un prix puisque la réunion est diffusée en ligne. La plupart du temps, le jeu n'en vaut pas la chandelle. Les gens trop souvent muselés sont pourtant ceux qui ont désespérément besoin des plateformes en ligne pour trouver une communauté et du soutien. C'est encore pire quand ces mêmes plateformes ne font rien contre la désinformation qui vise à déshumaniser et à diaboliser les personnes LGBTQ2S+, et qui contribue à une hausse marquée de la violence contre ces personnes, comme l'a souligné le Service canadien du renseignement de sécurité l'an dernier.
    Le statu quo n'est plus tolérable. Les plateformes doivent être tenues responsables du contenu haineux qu'elles hébergent et de la désinformation dont elles autorisent la diffusion. Le gouvernement fédéral doit agir. Nous ne pouvons plus attendre. On m'a qualifiée de brave, de courageuse et même de résiliente, mais je préférerais être simplement en sécurité. Les gens ont le droit de vivre librement, sans avoir peur à cause de ce qu'ils sont et de qui ils aiment. C'est vrai aussi pour les espaces virtuels. C'est essentiel pour nos communautés et notre démocratie.
     Préservez la liberté d'expression. Adoptez le projet de loi C-63 et protégez-nous de toute forme de préjudice en ligne.

[Français]

     Je vous remercie.
(1110)
    Je vous remercie également.

[Traduction]

    Je cède maintenant la parole à Jocelyn Monsma Selby.
    Madame la présidente, distingués membres du Comité permanent de la justice et des droits de la personne, je vous remercie de l'occasion que vous me donnez de prendre la parole.
    Premièrement, j'aimerais rappeler qu'au Canada, le cadre juridique traite l'exploitation et la violence sexuelles contre les enfants par l'entremise du Code criminel et de la loi sur la protection des enfants contre l'exploitation sexuelle. Toutefois, nous ne devrions pas nous fier au devoir général de diligence des plateformes Internet. Une loi devrait exiger le repérage ainsi que le signalement et le retrait immédiats des images sexuellement explicites illégales. Nous devons instaurer une réglementation qui permet d'atteindre ces objectifs et appliquer le principe de la sécurisation dès la conception.
    Deuxièmement, il est énoncé dans le projet de loi C‑63 qu'il a pour objectif de réduire les préjudices qui sont causés aux personnes par le contenu préjudiciable en ligne et de veiller à ce que les exploitants de services de médias sociaux rendent des comptes à l'égard des obligations qui leur incombent au titre de la loi. Cet énoncé pose problème. Toutes les plateformes Internet devraient être tenues responsables, pas seulement les sites de médias sociaux. Il suffit de trois clics de souris pour accéder à des images de violence sexuelle contre des enfants ou à du matériel d'exploitation sexuelle d'enfants sur les sites Internet courants, y compris des images générées par l'intelligence artificielle accessibles sur un nombre incalculable de plateformes, dont le Web caché. Des assistants personnels intelligents sont camouflés dans des sites Web et intégrés à des émojis et à des liens cachés qui obligent l'internaute à suivre un chemin numérique qui peut disparaître dès qu'il clique sur le lien suivant.
    En 2022, l'Internet Watch Foundation, ou IWF, a établi une hausse de 360 % des signalements de contenus autogénérés de violence sexuelle contre des enfants de 7 à 10 ans, qui sont plus répandus que les contenus qui ne sont pas autogénérés. Cette tendance s'est poursuivie en 2023, année au cours de laquelle l'IWF a haché 2 401 images et vidéos sexuellement explicites autogénérées d'enfants de 3 à 6 ans. Dans 91 % des cas, les images montraient des fillettes prenant des poses sexuelles et exhibant leurs parties génitales à la caméra. Il est normal pour un enfant d'être curieux, de vouloir découvrir son corps ou faire des expériences sexuelles, mais ce n'est pas ce type de contenu que l'IWF a découvert. Ce qui choque, c'est l'accès non supervisé des enfants à des dispositifs numériques.
    Troisièmement, il faut des lignes directrices sur la protection de l'enfance qui viseront la réglementation des services et l'établissement d'un âge du consentement eu égard au traitement des données et à l'utilisation des médias sociaux. Il faut impérativement empêcher l'accès à certains contenus. La prudence s'impose pour ce qui concerne l'adoption d'une réglementation fondée sur des précédents établis dans d'autres pays. Il faut examiner l'ensemble des lois, des conventions et des traités internationaux. On trouve un principe directeur important à l'article 5 de la Convention relative aux droits de l'enfant des Nations unies, qui souligne l'importance de tenir compte du stade de développement des capacités de l'enfant quand il interagit dans le monde virtuel.
    Quatrièmement, le Canada devrait‑il établir un bureau, une commission et un ombudsman de la sécurité numérique? Y aurait‑il des avantages à établir un bureau de la sécurité en ligne et un commissariat ou un ombudsman pour défendre les droits des enfants au Canada? La réponse est oui. Plusieurs pays ont tracé la voie pour nous. Ils font partie d'un réseau mondial de réglementation de la sécurité en ligne. Ce réseau travaille à l'élaboration d'une approche concertée des enjeux de sécurité en ligne. Malheureusement, le Canada n'en fait pas partie.
    J'ai été invitée à participer à un sommet mondial qui a eu lieu à Abu Dhabi la semaine dernière. Ce sommet était commandité par WeProtect et le gouvernement des Émirats arabes unis. J'étais l'unique représentante du Canada en matière de protection de l'enfance. Je souligne que je suis porte-parole d'une tierce partie autofinancée.
    J'aimerais conclure par quelques réflexions.
    Il a fallu 50 ans après l'invention de la presse de Gutenberg pour créer 20 millions de livres. Il a fallu 10 ans à Ford pour fabriquer 10 millions de modèles T. Il a fallu environ 2 ans au magazine Playboy pour vendre plus d'un million de copies par mois. Il a fallu 2 ans pour que le réseau mondial Internet, créé en 1995, atteigne 20 millions d'utilisateurs. Il a fallu 10 mois à Facebook pour atteindre un million d'utilisateurs. À l'heure actuelle, l'écosystème de Meta — y compris Instagram, WhatsApp et Messenger — a environ 2,93 milliards d'utilisateurs actifs chaque jour.
(1115)
    Il faut combler le fossé entre l'évolution rapide d'Internet et de l'accès à ce réseau et la réglementation nécessaire. Nous devons mettre de côté la partisanerie et l'incivilité pour mettre en place l'importante réglementation qui assurera la protection des enfants et des personnes vulnérables.
    Merci beaucoup.
    Merci de me donner la possibilité de comparaître devant le Comité.
    Vous pourrez également répondre aux questions des membres.
    Nous allons entamer les tours de six minutes.
    Madame Ferreri, à vous l'honneur.
    Merci beaucoup, madame la présidente.
    Je remercie les témoins.
     À mes yeux, nous débattons en ce moment de l'un des plus importants projets de loi dont le Parlement a été saisi, du moins depuis que moi et bien d'autres sommes en poste. Il s'agit du projet de loi C‑63.
    Je vais m'adresser à vous en premier, madame Selby. La Canadian Constitution Foundation a fait une déclaration publique:
Le projet de loi C‑63 fait des amalgames incongrus, selon Mme Van Geyn. Le problème de l'exploitation sexuelle d'enfants par la pornographie en ligne est urgent et grave. Selon elle, c'est une erreur de mettre dans le même sac ce problème et les intentions controversées du gouvernement de criminaliser tous les types de discours et d'autoriser les recours civils par l'intermédiaire de la Commission canadienne des droits de la personne concernant les discours.
    Pensez-vous qu'il faut adopter une loi ou un projet de loi distinct pour protéger les enfants contre les pervers en ligne? La protection des enfants ne devrait-elle pas faire l'objet d'une loi distincte?
(1120)
    C'est clair qu'une réglementation est nécessaire pour protéger les enfants contre l'exploitation sexuelle en ligne. Cela dit, je n'utiliserais pas le terme « pervers en ligne ». Les manipulateurs pullulent et les raisons pour exploiter des enfants sur Internet sont légion. S'il n'y avait pas de marché, le problème ne serait pas aussi grave.
    Je crois que je vais maintenir ce que j'ai dit. Je n'ai aucune hésitation à traiter ces manipulateurs de pervers. Nous n'utilisons pas le même vocabulaire, mais je comprends ce que vous voulez dire.
    Je vous demande en fait si nous devrions adopter une politique distincte pour assurer l'application des lois de protection de l'enfance et aussi imposer un devoir de diligence aux plateformes de médias sociaux afin qu'elles empêchent ces activités.
    C'est là le problème. Je pense que toutes les plateformes Internet ont un devoir de diligence. Nous avons besoin d'une réglementation qui constitue ce que j'appellerais la « meilleure stratégie dans la pratique » pour protéger l'ensemble des enfants et des personnes vulnérables qui utilisent Internet. Le processus de confirmation de l'âge offre une panoplie d'outils. Si la législation prévoit l'application au niveau du dispositif, tout le monde sera protégé.
    La sélection de certains sites de médias n'est pas l'unique solution possible. Très peu de gens sont protégés si on choisit cette approche. Il faut englober tous les fournisseurs de services Internet et toutes les plateformes Internet.
    Oui, tout à fait. Nous sommes sûrement d'accord avec vous sur ce point.
    Ce que j'essaie de dire... Les conservateurs ont proposé le projet de loi C‑412. C'est mon collègue conservateur qui l'a présenté. Il prévoit des mesures qui s'attaquent immédiatement au problème, exactement comme vous l'avez dit, contrairement au projet de loi C‑63, dans lequel les libéraux ont combiné deux éléments distincts sans régler le problème des cyberprédateurs et de l'exploitation sexuelle.
    Mme Haugen a affirmé que le cerveau de ces jeunes enfants subit des changements permanents. Il n'y a pas un parent que cela n'inquiète pas.
    Je vois cela comme de la violence sexuelle contre les enfants à travers des images numériques. Aucun expert de la protection des enfants dans le monde ne vous dira que leur exposition à de telles images est appropriée.
     Je suis tout à fait d'accord. Je crois que c'est ce que nous visons. Le projet de loi C‑412 s'attaque directement et immédiatement au problème, contrairement au projet de loi C‑63, qui met trop d'enjeux dans le même sac sans demander de comptes aux responsables, que j'appelle des pervers, ni aux plateformes de médias sociaux qui, comme vous l'avez souligné à juste titre, doivent aussi être tenues responsables.
     Madame Haugen, j'ai écouté votre témoignage avec grand intérêt. C'est un témoignage profond. Vous avez mis en évidence plusieurs des effets des médias sociaux sur nos enfants et de leur exposition trop précoce à ces contenus. Il n'y a aucune exigence concernant les contrôles parentaux ou la responsabilité à l'égard des algorithmes dans le projet de loi C‑63. Comment pourrons-nous nous assurer que les plateformes protègent vraiment les enfants?
    C'est une excellente question. Le devoir formel de diligence représente un élément central du projet de loi canadien. Ce devoir exige une réflexion constante sur le risque d'utilisation d'un produit à mauvais escient et la conception proactive de solutions.
    Les contrôles parentaux peuvent être très efficaces. Ils font partie d'un éventail d'outils, mais les enfants n'ont pas tous des parents qui ont des compétences technologiques suffisantes pour les utiliser. Il ne faut pas oublier que la plupart des parents d'aujourd'hui n'avaient pas de téléphone intelligent à 10 ans, du moins je l'espère. Nous devons par conséquent imposer un seuil ou un filet qui permettra de protéger tous les enfants.
    Nous devons aussi nous demander si cette obligation doit revenir aux parents, qui ont déjà tellement à faire. Ils doivent aussi rester à l'affût des menaces et de leur origine, et s'assurer de bien paramétrer leur téléphone.
    Avez-vous pris connaissance du projet de loi C‑412 que mon collègue conservateur a présenté?
(1125)
    Je n'en ai pas une connaissance détaillée.
     Je me ferai un plaisir de vous le faire parvenir. Je crois qu'il traite de ce dont vous parlez. Il propose des mesures pour s'attaquer au coeur du problème rapidement et plus efficacement que le projet de loi C‑63.
    J'ai une autre question pour vous. À défaut explications explicites, comment le projet de loi C‑63 peut‑il nous garantir que les plateformes comprennent leurs obligations?
    C'est une excellente question.
    Un des défis inhérents à l'élaboration de ce genre de mesures de réglementation d'Internet est lié à l'évolution très rapide de la technologie. Par exemple, les Européens proposent actuellement d'interdire les fonctionnalités addictives. Or, dans le domaine technologique, il peut être très difficile de définir ce qu'est une fonctionnalité addictive. Le plus souvent, quand on indique à ces entreprises technologiques ce qui est interdit, la définition est très précise et donc facile à comprendre, et des ajustements minimes suffisent pour contourner l'interdiction, soit la définition est si générale qu'il est impossible de déterminer ce qu'est une fonctionnalité addictive.
    Le devoir de diligence offre un compromis assez souple, qui permet d'exiger une démonstration proactive de la prise en compte des besoins des enfants et de l'adhésion au principe de la sécurisation dès la conception.
    Merci beaucoup.
    Nous passons au prochain segment de six minutes.
    Madame Dhillon, c'est à vous.
    Merci, madame la présidente.
    Merci aux témoins d'être avec nous ce matin.
    Je vais m'adresser à Mme Marni Panas pour débuter.
    Madame Panas, je suis vraiment désolée que vous ayez été empêchée de vous exprimer et qu'on vous ait menacée à cause de ce que vous êtes. Puis‑je vous demander si, à votre avis, la liberté d'expression englobe le genre de propos haineux dont vous avez été la cible? Pouvez-vous nous dire quelques mots à ce sujet?
    Je suis très privilégiée et je m'en tire assez bien. À cause de ces privilèges... Je n'arrive pas à imaginer comment font les enfants et les jeunes qui ne bénéficient pas comme moi du soutien d'un employeur et de leur entourage. C'est grâce à ce soutien que je m'en tire.
    La liberté d'expression vient avec des conséquences. Nous devons tous assumer les conséquences de nos prises de parole. À la Chambre des communes, vous ne pouvez pas prendre la parole sans en assumer les conséquences. La même chose doit être vraie en ligne et partout ailleurs.
    Aujourd'hui, encore une fois, je ne peux pas m'exprimer librement. Il y a même un prix à payer si je publie une photo de moi et de ma partenaire dansant joyeusement lors d'un concert. Ce prix est souvent ridicule. Il peut se manifester par du harcèlement. Il peut ensuite se manifester par l'adhésion de certaines personnes à la désinformation en ligne, ce qui aboutit à l'adoption de politiques qui briment ma capacité de participer pleinement à la société. Cela peut aller très loin. Et je vous parle du prix à payer pour une personne aussi privilégiée que moi.
    Je ne sais pas si vous avez eu l'occasion d'entendre le témoignage de Jane Doe la semaine dernière. C'était un témoignage très douloureux. Il était douloureux pour nous tous d'entendre quel genre de mal peut exister dans ce monde.
     Des parents sont venus. Il y avait un parent d'un militaire qui s'était suicidé. Ils nous supplient. Nous parlons du fait que les parents ne devraient pas être tenus responsables, entièrement responsables, parce que les gouvernements et les plateformes ont eux aussi une responsabilité. Nous savons que le projet de loi C‑63 s'applique à toutes les plateformes en ligne. Ils nous supplient d'agir le plus rapidement possible pour atténuer les préjudices déjà causés et ceux qui pourraient survenir.
     Nous entendons sans cesse parler d'organismes de réglementation et de retards. Ne pensez-vous pas qu'à ce stade, il est préférable d'adopter une quelconque mesure que de ne rien faire? Rien n'est parfait, mais au moins une mesure peut vous apporter un soutien. Nous pouvons vous soutenir.
     Oui, je sais que le mieux est l'ennemi du bien. Nous avons besoin du bien maintenant.
     Le fait est que si les plateformes en ligne respectaient leurs propres normes de pratique et les normes de la collectivité qu'elles ont déjà mises en place, nous n'en serions probablement pas là. Elles proposent toutes d'excellentes normes de pratique, mais chaque fois que je signale quelqu'un qui ne les respecte pas, on les ignore. On nous ignore. Nous avons besoin de mesures maintenant. Des vies sont perdues à cause de cela.
     Il importe de se souvenir que de nombreux jeunes trouvent une collectivité sur les plateformes en ligne. C'est essentiel pour les populations rurales et pour les gens comme moi. La première fois que j'ai trouvé quelqu'un comme moi, que j'ai réalisé pour la première fois de ma vie que je n'étais pas seule et que d'autres personnes me ressemblaient a été un moment salvateur pour moi. C'était il y a 20 ans, au début d'Internet. Cela m'a sauvé la vie.
     Nous devons protéger ces espaces pour que les jeunes et les gens puissent trouver des liens sociaux sains et positifs. Cet espace leur a été volé. Les conséquences sont la violence, la mort, l'isolement, la solitude et le fait de devoir cacher les éléments les plus importants de son identité. Il faut que cela change maintenant. Nous ne pouvons plus attendre. Trop de vies ont été interrompues. Trop de vies ont été perdues à cause des préjudices subis en ligne.
(1130)
    Je vais continuer avec une histoire qui vient de sortir à propos d'une robote conversationnelle pilotée par une IA qui a encouragé un enfant à se suicider. Elle lui disait: « Reviens à la maison. Reviens à la maison, mon roi. » Il avait 14 ans. Il était devenu accro au robot conversationnel parce que c'était sa seule amie. Je suppose qu'il n'avait pas beaucoup d'amis dans la vie réelle.
     Pouvez-vous nous parler un peu de la façon dont vous envisagez l'avenir en ce qui concerne la dépendance des enfants aux plateformes de médias sociaux, aux robots conversationnels et à d'autres choses du genre?
    Au cours de mon enfance dans l'Alberta rurale, je suis devenue très douée pour la solitude. J'ai appris à garder mes secrets — les secrets de mon identité sexuelle — parce que c'est ainsi que mes secrets étaient le mieux gardés. Je sais que de nombreux jeunes vivent encore la même situation aujourd'hui.
     Le fait que quelqu'un, qu'il soit réel ou artificiel, me tende la main et m'accorde de l'attention me fait du bien. J'ai l'impression d'être validée. On commence alors à rechercher cette validation. C'est là que résident les dangers. C'est peut-être le seul endroit où l'on peut trouver cette validation, ce qui conduit alors à des préjudices importants et à la violence. C'est pour ces personnes que je m'inquiète.
    Merci beaucoup, madame Panas.
     Madame Haugen, je pense que vous vouliez également intervenir. Je vous cède la parole.
    J'allais dire que je pense que « dépendance » n'est peut-être pas le mot juste. Les gens nouent des relations. Nous nouons des relations avec les personnes avec lesquelles nous passons le plus de temps. Dans le cas de l'enfant qui s'est suicidé, ce n'est pas tant qu'il était dépendant, mais il est tombé amoureux de cette personne à qui il parlait tous les jours pendant des heures et des heures. En réalité, si vous aviez des conversations intimes où vous vous sentiez toujours en sécurité avec quelqu'un et où cette personne vous validait toujours, vous pourriez tomber amoureux d'elle aussi.
     Ce n'est pas parce que l'enfant n'avait pas d'amis. Je crains que, parfois, nous examinons ces enjeux liés aux relations avec les IA et que nous nous disions: « Oh, cette personne doit être tellement pathétique. On ne se tourne vers une IA que si l'on n'a rien d'autre. » Ses parents ne savaient pas que quelque chose n'allait pas. Tout ce qu'ils ont su, c'est ce qu'ils ont vu sur son téléphone par la suite. L'adolescent déplorait de ne jamais pouvoir vivre sa vie avec cette personne dont il était tombé amoureux.
    Merci beaucoup pour cette précision.

[Français]

     Monsieur Fortin, vous avez la parole pour six minutes.
    Merci, madame la présidente.
    Ma première question s'adresse à Mme Panas.
    Je crois comprendre que vous avez regardé le projet de loi C‑63, qui prévoit la création de trois organismes, dont un bureau d'ombudsman et une commission.
     Comment évaluez-vous l'efficacité du processus de plainte auprès de ces organismes?

[Traduction]

    À l'heure actuelle, nous n'avons aucun processus utile. Nous ne pouvons pas aller en ligne. Il n'y a pas de mécanisme d'aide auquel s'adresser, alors nous restons silencieux. Nous nous retirons des outils et des plateformes si nous n'y trouvons pas de sécurité.
     Je pense que le fait de ne pas avoir d'endroit où s'adresser est un vrai problème. Quand nous examinons les processus qui seront mis en place, c'est certainement mieux que de nous laisser trouver seuls une solution à ce problème complexe. La plupart des gens qui ont vécu ce que j'ai vécu ne se donnent même pas la peine de s'adresser aux plateformes et nous n'avons pas d'autre recours.

[Français]

     Le processus de plainte prévu dans le projet de loi C‑63 vous apparaît-il efficace? Je pense aux plaintes faites auprès de l'ombudsman, par exemple.

[Traduction]

    Ce sera certainement beaucoup plus efficace que ce qui existe aujourd'hui.

[Français]

    Madame Haugen, j'aimerais que vous nous parliez de la problématique des atteintes à la liberté d'expression et au droit à la vie privée. Évidemment, nous sommes d'accord sur le fait qu'il faut mieux protéger tout le monde, et particulièrement nos enfants, sur les plateformes numériques, mais il faut toujours garder en tête la problématique des atteintes à la liberté d'expression. C'est une espèce de jonglerie, si je puis dire.
    Comment voyez-vous cela? Va-t-on trop loin, va-t-on assez loin ou devrait-on aller plus loin?
    Comment peut-on protéger notre liberté d'expression et notre droit à la vie privée tout en protégeant nos enfants sur les plateformes numériques?
(1135)

[Traduction]

    Il faut être très prudent lorsque l'on rédige ces lois. Vous pouvez soit les rédiger dans l'optique de dire qu'il incombe aux plateformes de divulguer les risques et montrer les progrès réalisés pour atténuer ces risques, soit les rédiger de manière à ce que chaque discours haineux soit sanctionné. Le problème de cette dernière option, qui consiste à appliquer une tolérance zéro — aucun discours haineux — est que les ordinateurs ne peuvent pas reconnaître de manière précise et fiable ce qui est acceptable ou non. Ainsi, on effacera les personnes transgenres d'Internet parce qu'il est impossible de déterminer si une observation est haineuse. Cela signifierait aussi l'effacement des minorités religieuses: peut‑on parler de religion en toute confiance si la plateforme s'expose à une amende de 40 000 $?
     Tant que la loi se limite à vous obliger de divulguer les risques que vous anticipez et de montrer vos progrès, cela peut être acceptable, mais nous devons faire attention à ne pas croire que nous pouvons effacer la haine de ces plateformes sans accepter que nous effacerons également beaucoup de discours légitimes parce que les ordinateurs ne sont tout simplement pas assez intelligents.

[Français]

     Je vais lire rapidement la définition de « contenu intime » que propose le projet de loi C‑63:
b) enregistrement visuel […] qui présente faussement et de manière raisonnablement convaincante une personne comme figurant nue, exposant ses organes sexuels ou sa région anale ou se livrant à une activité sexuelle explicite, notamment tout hypertrucage qui présente une telle personne, s’il est raisonnable de soupçonner que la personne ne consent pas à la communication de l’enregistrement.‍
     Cela me semble être une définition un peu longue qui cherche à couvrir plusieurs zones. Je n'aurais peut-être pas fait mieux. Ce n'est donc pas vraiment une critique.
    À votre avis, est-ce une bonne définition ou devrait-on la moduler différemment?

[Traduction]

    La question des images non consensuelles de partenaires intimes — que certains appellent la « pornographie de vengeance » — est un exemple où nous acceptons que l'ordinateur se trompe et soit plus incisif. Il peut parfois supprimer l'image d'une personne qui ressemble beaucoup à une autre personne. C'est l'une des questions qui se posent: acceptons-nous les faux positifs et les faux négatifs? Une définition plus large pour ce genre de choses est acceptable si la conséquence est qu'un peu de pornographie disparaît d'Internet.
     Pour les sujets plus controversés, il est beaucoup plus difficile de s'appuyer sur la censure, car la portée, la complexité et la diversité des idées sont très vastes et il est beaucoup plus difficile pour les ordinateurs d'essayer de déterminer s'il s'agit de la même personne et de la même image que ce qui a été signalé. On parle d'une correspondance un à un au lieu d'une correspondance un à plusieurs.

[Français]

    En ce qui a trait aux hypertrucages, à votre avis, pourra-t-on avoir des mesures efficaces pour lutter contre ce problème, et si oui, lesquelles?

[Traduction]

    C'est un excellent exemple de l'importance de la sécurité dès la conception et de la divulgation du fonctionnement des plateformes, car il est peu probable que nous soyons en mesure de déterminer de façon infaillible si une image est réelle ou un hypertrucage; les ordinateurs ne cesseront de s'améliorer sous ce rapport. Cela signifie que nous devons plutôt nous demander si nous ne sommes pas en train de faire des plateformes des armes ou de nous rendre vulnérables aux personnes qui abusent de ces images.
    Je vous remercie.
     Monsieur MacGregor, c'est votre tour.
    Merci beaucoup, madame la présidente.
     J'aimerais remercier tous les témoins qui se sont joints à nous pour nous aider à mener à bien notre étude.
     Madame Panas, j'aimerais commencer par vous.
     Je vous remercie d'être venue et d'avoir expliqué en quoi votre vécu — votre expérience de vie — fait de cette approche un élément très important dont nous devons tenir compte. Souvent, lorsqu'un parti présente une idée d'orientation sur la réglementation d'Internet ou des espaces en ligne, la première accusation portée contre les décideurs politiques est qu'ils suppriment la liberté de parole et d'expression, mais je pense que vous avez très clairement expliqué comment, en ne faisant rien... Le statu quo compromet en fait votre liberté d'expression à l'heure actuelle.
     Je voudrais parler de ce concept d'espace public ou de place publique. Lorsque nous sommes dans une salle, comme c'est le cas en ce moment, tout le monde a une voix égale et nous pouvons tous nous entendre de la même manière, mais dans un espace en ligne, en particulier sur les plateformes de médias sociaux, la plateforme elle-même n'est pas un spectateur passif. Elle peut promouvoir activement le contenu, ou bien elle peut activement le mettre dans certains coins et diriger les gens vers certains coins sombres d'Internet.
     Je siège aussi au Comité de la sécurité publique. Nous avons étudié la manière dont nos adversaires étrangers utilisent les plateformes en ligne pour diffuser de la désinformation et les recoupements avec le sujet qui nous occupe sont assez nombreux. Des témoins nous ont parlé ici non seulement de la nécessité d'adopter une approche législative ou réglementaire, mais d'essayer d'inculquer une stratégie de littératie numérique.
     Avez-vous des idées sur la manière de doter les Canadiens des compétences dont ils pourraient avoir besoin pour naviguer dans l'espace en ligne?
(1140)
    Merci beaucoup pour la question et pour les commentaires positifs.
     Oui, c'est effrayant d'être ici. Ce n'est pas à cause de vous — vous êtes plutôt chaleureux — mais je sais qu'au moment où je quitterai cet espace... Je connais les gens qui me regardent en ce moment et je sais ce qui m'attend en ligne. Honnêtement, c'est terrifiant.
     C'est une question tellement complexe. Internet est tellement complexe. La littératie en fait partie. Nous avons besoin d'une approche pluridimensionnelle pour la favoriser. Nous avons besoin d'aides à l'éducation, mais aussi de reddition de comptes en ligne.
     Vous savez, quand je pense à la littératie, c'est un mot très intéressant. Par exemple, X a interdit le mot « cis » — « cisgenre », par exemple. C'est un mot latin. Il s'agit essentiellement d'un terme de biologie et de chimie, souvent ancré dans la science, qui a été interdit en raison des implications de la négation de l'existence des personnes transgenres. C'est là tout l'objectif.
     La littératie dépendrait des plateformes pour promouvoir l'emploi d'un langage approprié au lieu d'interdire certains mots, une pratique qui sert en fait à m'éliminer de la société. Les gens ont besoin de littératie, mais les plateformes doivent être tenues comptables de favoriser une littératie appropriée.
    Merci beaucoup.
     Madame Haugen, j'aimerais vous poser la question suivante. Nous sommes actuellement dans une sorte d'impasse législative à la Chambre des communes. Pratiquement rien n'est accompli à la Chambre. C'est ainsi depuis la fin du mois de septembre. En fait, notre comité n'est même pas saisi du projet de loi C‑63. Il s'agit d'une étude préalable. Il n'est même pas rendu à l'étape de la deuxième lecture.
     Le fait est que cette législature va bientôt manquer de temps. Le projet de loi C‑63 n'est pas près d'atterrir sur le bureau de la gouverneure générale. Vous venez de parler de la rapidité avec laquelle cette technologie évolue. Il se peut que nous n'ayons pas de véritable approche législative de ce problème avant deux ou trois ans.
     De quels éléments la future législature devra-t-elle tenir compte? Nous avons ce projet de loi C‑63, mais quels autres éléments devrions-nous peut-être envisager d'insérer dans un éventuel projet de loi?
    L'une des raisons pour lesquelles je suis si enthousiasmée par l'approche adoptée par le Canada, c'est que vous avez organisé plus d'assemblées de citoyens que n'importe qui d'autre dans le monde. Vous avez réellement eu des conversations. Des groupes de Canadiens sont allés discuter des compromis à faire sur la manière d'aborder Internet. C'est ce qui en est ressorti, à l'exception des pièces jointes relatives au discours haineux qui ont été ajoutées à la fin. Par conséquent, je pense que le projet de loi dans son ensemble est assez solide. Il aborde un lot d'éléments fondamentaux dont il faut tenir compte.
     Là où je vous encouragerais à faire preuve d'un peu plus d'ouverture d'esprit ou à préparer l'avenir, c'est en veillant à ce que le concept de plateforme sociale puisse évoluer. Par exemple, il est facile de se moquer de la réalité virtuelle à l'heure actuelle. Si vous vous promenez dans Meta Horizon Worlds, l'espace de réalité virtuelle de Facebook, vous verrez qu'il est rempli de personnes âgées de moins de 12 ans. La vérification de l'âge est importante pour cette raison. Les personnes qui parlent aux robots conversationnels pilotés par une IA ont en grande majorité moins de 18 ans.
     Réfléchissez de manière un peu plus large à ce que signifie être social, car les enfants commencent à dire... Les jeux sont d'autres espaces qui sont effectivement des réseaux sociaux. Tant que vous réfléchissez de manière un peu plus large à ce qui se cache sous le capot, à la structure globale et que vous dites que nous devons avoir un devoir de diligence proactif et que nous devons nous soucier de la transparence et de ces enjeux, c'est ce qui est important.
(1145)
    Il ne me reste que quelques secondes de temps de parole. Permettez-moi de conclure en disant, encore une fois, qu'au comité de la sécurité publique, nous avons entendu des témoins qui sont sans conteste des experts dans le domaine de l'IA, et le rythme rapide de son évolution les inquiète énormément.
    J'aimerais beaucoup m'adresser à votre comité, car j'ai travaillé dans ce domaine chez Google.
    Nous ne vous oublierons pas.
     Merci.
    Merci beaucoup.
     Nous passons maintenant à notre deuxième tour.
     Nous allons donner la parole à M. Brock pour cinq minutes.
    Merci, madame la présidente.
     Je remercie les témoins de leur présence. Je me fais l'écho de ma collègue, Mme Ferreri, qui a souligné l'importance de notre discussion.
     Madame Haugen, je veux être sûr d'avoir bien compris: vous avez dit que vous ne connaissiez pas le projet de loi C‑412, qui vise ostensiblement le même résultat d'assurer la sécurité des enfants en ligne, mais en prévoyons des moyens très différents de ceux prévus dans le projet de loi C‑63. Il est regrettable que vous n'ayez pas eu l'occasion d'en prendre connaissance.
     Peut‑on dire la même chose de vous, madame Selby, que vous ne connaissez pas le projet de loi C‑412?
    Je n'ai fait que jeter un coup d'oeil au projet de loi C‑412. Je n'ai pas examiné toutes les recommandations en profondeur.
    Je vous remercie.
     Madame Panas, avez-vous eu l'occasion d'examiner le projet de loi C‑412?
    Je l'ai fait à un niveau très superficiel, mais pas en profondeur, non.
    Très bien.
     Je vais commencer par vous, madame Panas. J'ai écouté très attentivement votre déclaration liminaire. Vous avez réitéré dans certaines de vos réponses qu'en fin de compte, vous vous sentez en sécurité ici, mais qu'il n'en va pas de même lorsque vous quittez cet immeuble. Vous avez parlé des différentes formes de harcèlement en ligne.
     Soyons francs: c'est la réalité à laquelle les Canadiens sont confrontés. Cela ne s'applique pas nécessairement qu'aux enfants et aux adolescents. Cela vaut aussi pour les adultes. Le Code criminel du Canada renferme une définition juridique du harcèlement criminel, mais ce qui manque cruellement dans le Code criminel du Canada, ce sont des dispositions relatives au harcèlement en ligne. Malheureusement — et je remets ici directement en cause le gouvernement libéral —, le projet de loi C‑63 ne contient aucune disposition relative au harcèlement en ligne. Le projet de loi C‑412, lui, en contient. Je ne sais pas si vous avez eu l'occasion de vous plonger dans le projet de loi C‑412 pour examiner les dispositions qui traitent du harcèlement en ligne.
     La question que je vous pose, madame Panas, est la suivante: pensez-vous que les forces de l'ordre et les juges devraient disposer de plus d'outils pour délivrer des ordonnances de « non-communication » en cas de harcèlement criminel en ligne? Pensez-vous que c'est une bonne idée?
    Écoutez, pour en arriver au point où les tribunaux et la police interviendraient, il faudrait que moi, une personne qui n'est déjà pas en sécurité en ligne, qui doit déjà faire face à des coûts énormes du simple fait d'être visible, je sois obligée de faire une dénonciation, que la police me croie en premier lieu et que je m'expose à tous les préjugés à l'encontre des personnes transgenres qui font partie intrinsèque des forces de l'ordre. Il est plus probable que je ne fasse rien et que je m'efface. Telle est la conséquence. On peut leur donner tous les outils que vous voudrez, mais il faut un signalement, que les gens le croient et qu'il y ait un processus sûr.
     Le projet de loi C‑63 nous donne les moyens de le faire d'une manière qui me donnerait l'impression d'être crue pour la première fois, d'être soutenue pour la première fois et de trouver un moyen d'aller jusqu'au bout.
     Au moment où la police est informée...
    Je vais vous interrompre.
     Le projet de loi C‑63 ne prévoit pas de moyen de traiter le harcèlement criminel en ligne. C'est un oubli flagrant. Le projet de loi C‑412 fournit un mécanisme prêt à l'emploi qui répond à certaines de vos préoccupations.
     Je tenais simplement à le souligner et à vous inviter à l'examiner.
    Bien sûr.
    Je me tourne maintenant vers Mme Haugen...
    Je suis désolée, mais je dois vous interpeller à ce sujet. La meilleure chose que nous puissions faire est d'éviter que ces préjudices en ligne ne se produisent en premier lieu. Au moment où la police et les tribunaux interviennent, il est déjà trop tard.
    Je suis d'accord. Merci de cette précision.
     Madame Haugen, j'ai entendu vos observations sur les avatars créés par l'IA. Pensez-vous qu'il est important d'avoir une définition large de l'exploitant en ligne par rapport aux responsabilités des exploitants de sociétés technologiques et à la façon dont leurs produits interagissent avec les enfants, de sorte que les protections des enfants ne cèdent pas le pas à l'évolution de la technologie?
(1150)
    Je pense que nous avons vu des approches très fortes dans des pays comme le Royaume-Uni. Ils ont des normes telles que « raisonnablement susceptible de rencontrer » pour les produits destinés aux enfants. Nous devons réfléchir au sens large à l'accès et à ce que signifie « être social ». Pour tous les espaces où il y a une communication étendue, où des enfants ont des relations soutenues qui sont facilitées par la technologie, nous voulons nous assurer que les définitions sont à l'épreuve du temps dans un cadre similaire.
    Je vous remercie.
     Je crois que mon temps de parole est écoulé.
    Oui, merci beaucoup.
     Monsieur Maloney, c'est à vous pour cinq minutes.
    Merci, madame la présidente.
     Je tiens à remercier tous les témoins de leur présence. Le sujet est très vaste.
     Madame Panas, je reviendrai d'abord sur ce que vous avez dit. Vous avez parlé de se sentir à l'aise et en sécurité en ligne. Le jour de Noël dernier, j'ai publié une vidéo. Je me tenais devant l'arbre de Noël d'un centre communautaire et je souhaitais à tout le monde un joyeux Noël. Les 5, 6 ou 10 premiers commentaires étaient: « J'espère que vous perdrez les prochaines élections », « Pourris en enfer » — bla bla bla — et c'étaient les plus gentils, mais je ne me suis pas laissé atteindre. J'ai le dos large. Cela n'a pas d'importance. Ce n'est pas l'objet de ce projet de loi. Ce projet de loi vise à protéger les personnes qui n'ont pas cette capacité et qui sont les plus vulnérables.
     Je voudrais revenir sur ce que M. Brock essayait de faire. Je tiens à vous remercier pour vos réponses concernant la différence entre le projet de loi C‑63, que vous soutenez, et le projet de loi C‑412, que je considère comme étant... Eh bien, ce que je pense n'a pas d'importance. Des témoins nous ont dit qu'il était beaucoup trop étroit et qu'il ne permettait pas de réaliser nos objectifs. Selon un témoin, le projet de loi confond le droit de la responsabilité civile et le droit pénal, et je suis d'accord.
     Je tiens à aborder ce point d'emblée. Si quelque chose d'offensant est publié en ligne et que cela implique certaines des choses dont nous parlons — je ne citerai pas d'exemples —, le projet de loi C‑63 prévoit une méthode pour faire retirer immédiatement ce contenu d'Internet. Comparez cela à la soi-disant solution du projet de loi C‑412 qui exigerait que la personne retienne les services d'un avocat, prépare une sorte de demande ou de requête, s'adresse à un juge et essaie de le convaincre que ce contenu devrait être retiré.
     Tout d'abord, il s'agit des personnes les plus vulnérables, qui ne savent pas comment trouver un avocat, qui n'ont pas les moyens de s'en payer un, qui doivent trouver un avocat qui sait comment s'y prendre et comparaître devant un juge qui n'a aucune expertise en la matière. C'est une farce insultante déguisée en politique. C'est inefficace. J'aimerais qu'il n'en soit plus question.
     Je suppose que vous êtes d'accord avec cela, madame Panas. Vous avez déjà souligné l'importance de pouvoir agir rapidement.
    Je suis tout à fait d'accord. Si vous pensez que votre présence devant un arbre de Noël vous cause du souci, j'invite vos collègues conservateurs à afficher sur les plateformes leur soutien aux personnes transgenres et à leurs droits, à dire que les femmes transgenres sont des femmes et à voir le genre de haine et de propos violents qu'ils recevront. C'est ce que je vis tous les jours. Vous pouvez tous sortir d'ici, enlever votre chapeau de député et tout ira bien. Je n'ai pas le loisir d'enlever mon identité trans et d'être cis pour le reste de la journée juste parce que la vie est difficile. Ma vie est difficile à longueur de journée, jour après jour.
     Cela signifierait qu'il faudrait essayer de trouver un juge, des avocats ou des policiers qui croiraient même que ce que je dénonce s'est effectivement produit. Ce n'est pas possible.
    Bien. Je vous remercie.
     Madame Selby, je voudrais m'adresser à vous. Je retiens de vos observations que vous voyez d'un bon oeil la création d'une commission de la sécurité numérique et d'un poste d'ombudsman. Vous voyez d'un bon oeil ce processus qui fournirait un mécanisme permettant de répondre et d'agir rapidement. C'est bien cela?
    Tout à fait.
    D'accord.
     Cela signifierait également, comme vous l'avez très justement souligné, que cela assurerait une cohérence dans le monde entier. Si l'on optait pour l'approche judiciaire, on vivrait les problèmes que nous venons d'évoquer et ce ne serait pas non plus cohérent avec ce qui se fait au Royaume-Uni, en Australie et dans d'autres pays du monde, tandis qu'on crée plutôt un groupe de personnes à travers le monde qui ont une expertise en la matière et qu'on peut s'attaquer au problème. C'est ce que vous vouliez dire, si j'ai bien compris.
    Tout à fait.
     Je voudrais également faire une autre remarque. En Hollande, on en a fait l'expérience pour le matériel d'exploitation sexuelle... Il faut trois jours pour retirer le matériel d'exploitation sexuelle d'enfants, mais le contenu terroriste est retiré immédiatement, en moins d'une heure. Nous savons que certaines plateformes en ligne peuvent retirer les contenus à caractère sexuel dès qu'ils sont signalés, en moins d'une heure. Cependant, si aucune réglementation n'est mise en place, il faut plus de temps pour retirer le matériel d'exploitation sexuelle.
(1155)
    Merci pour cette précision.
     Nous avons déjà entendu des témoins qui ont vécu des expériences horribles avec leurs enfants et leurs familles, qui ont essayé d'utiliser les tribunaux et le processus pénal pour régler ce problème et qui ont essayé de le faire directement avec les plateformes de médias sociaux. Cela ne fonctionne tout simplement pas. C'est pourquoi la commission de la sécurité numérique et l'ombudsman sont si essentiels afin que l'on puisse réagir rapidement.
     Madame Selby, si j'ai bien compris, vous êtes favorables à la partie 1 du projet de loi C‑63.
    Oui, c'est vrai. C'est cohérent avec les autres pays du monde. C'est le cas de l'Australie. J'ai toute une liste de pays, si vous les voulez.
    Je vous remercie.
    Merci beaucoup.
     Nous passons maintenant aux deux dernières minutes et demie. Nous accueillons M. Fortin, ainsi que M. MacGregor.
     Allez‑y, monsieur Fortin.

[Français]

     Merci, madame la présidente.
     Je voudrais de nouveau m'adresser à Mme Haugen, cette fois sur la question de la messagerie privée. On a discuté de l'inclusion de celle-ci dans le projet de loi C‑63 et on a proposé d'imposer aux entreprises de médias sociaux certaines obligations, dont les suivantes:
[...] signal[er] des demandes inhabituelles d’amitié de la part d’étrangers qui se trouvent dans des endroits éloignés […] supprimer les invitations à élargir son réseau par les recommandations d’amis en fonction de l’emplacement et des intérêts […] fournir des mécanismes de plaintes faciles à utiliser […] fournir des outils de responsabilisation des utilisateurs, comme le blocage des comptes.
     Tout cela m'apparaît raisonnable, mais il n'en demeure pas moins qu'on parle de s'introduire dans les messages privés des individus. Je me pose la même question quant à la liberté d'expression et au droit à la vie privée: est-ce qu'on ne va pas trop loin? Ne devrait-on pas laisser privée la messagerie privée, ou y a-t-il vraiment lieu de prévoir des dispositions pour permettre aux détenteurs de ces adresses de mieux contrôler ce qui s'y passe et les messages que leurs utilisateurs reçoivent et envoient?

[Traduction]

    Je pense que les gens devraient avoir le droit à des messages privés cryptés et sécurisés, mais cela ne signifie pas que les plateformes ont carte blanche pour faire ce qu'elles veulent dans la façon dont elles conçoivent ces services ou dans la façon dont les gens se comportent une fois qu'ils y sont.
     Je vais vous donner un exemple. Vous voulez exclure les choses qui disent que vous devez retirer des titres personnels de la messagerie cryptée, parce que cela exige de briser le cryptage. Mais si vous dites: « Vous devez exprimer clairement les risques que vous estimez liés à la conception actuelle de votre produit et disposer d'un plan pour y remédier », cela conduit à des choses comme ce qu'a fait Instagram il y a peut-être deux mois. Ils ont dit: « Nous allons rendre tous les comptes des moins de 16 ans privés, parce que nous avons constaté que des adultes contactaient ces enfants. »
     C'est un exemple d'intervention sur le comportement et la conception, et non sur le contenu, impliquant la messagerie privée.

[Français]

     Merci, madame Haugen.
    Il me reste quelques secondes, madame Selby. Rapidement, qu'en pensez-vous?

[Traduction]

    Je pense que toutes les plateformes doivent avoir, comme l'a si bien dit Mme Haugen, le devoir de préciser ce qu'elles vont faire en ce qui concerne leur « sécurité par conception ». Je pense que c'est le terme que nous devons utiliser ici.

[Français]

     Je remercie tous les témoins.

[Traduction]

    Je vous remercie.
     Monsieur MacGregor, allez‑y, s'il vous plaît.
    Merci, madame la présidente.
     Mesdames Haugen et Selby, j'aimerais en fait poursuivre sur le même sujet. L'un de nos témoins précédents, le Centre canadien de protection de l'enfance, demande expressément que les services de messagerie privée et certains aspects des fonctions de messagerie privée fassent l'objet d'une réglementation.
     C'est difficile. Pour donner un exemple personnel, j'ai des jumeaux de 12 ans. Ils sont sur Messenger Kids. Nous les avons initiés avec des iPads. Nous ne sommes pas encore prêts à passer au téléphone portable. Je suis sûre que je vis la même chose que beaucoup de parents. C'est la nouvelle frontière. Lorsqu'ils auront leur propre téléphone portable, comment puis‑je être sûr que ces services de messagerie les protégeront?
     Madame Haugen, vous avez renvoyé à Instagram, mais les entreprises de médias sociaux en font-elles assez? Devons-nous adopter cette approche réglementaire?
     J'aimerais vous entendre toutes les deux — Mme Haugen d'abord, puis Mme Selby — nous donner un peu de contexte.
(1200)
    La seule raison pour laquelle Instagram a pris ces mesures — ils savaient qu'ils auraient pu prendre ces mesures il y a 10 ans — c'est qu'ils avaient peur de lois comme celle‑ci. Ils avaient peur que l'Australie interdise l'accès aux médias sociaux aux moins de 16 ans. Ils avaient peur des poursuites judiciaires qui ont lieu aux États‑Unis.
     Il faut les mettre dans des situations où ils ont peur des conséquences, parce qu'il y a beaucoup d'argent à gagner en prenant des raccourcis et en maximisant le nombre de connexions, quel que soit le risque pour ces enfants et quel que soit le degré d'accoutumance, pour obtenir des dollars de publicité. Ils doivent faire face aux conséquences si l'on veut qu'ils se comportent bien.
     Pour ce qui est de la deuxième question, à savoir comment assurer la sécurité des messageries cryptées, nous devons avoir une vision un peu plus large. Par exemple, si je suis un enfant sur une messagerie cryptée et qu'un adulte m'envoie une image obscène — je ne l'ai pas demandée et je ne la veux pas — je devrais pouvoir dénoncer cet adulte. Aucune messagerie cryptée n'a été violée par le fait que je dénonce cet adulte. Les plateformes devraient avoir l'obligation de retirer de leurs plateformes les personnes qui contactent les enfants de cette manière.
    Merci.
    Vous avez 30 secondes.
    Je veux juste donner à Mme Selby les 30 dernières secondes pour faire des observations.
    Je suis tout à fait d'accord avec Mme Haugen, mais je pense qu'il faut aller plus loin. Le cadre doit s'étendre, comme je l'ai mentionné dans ma discussion, pour dire que tous les sites Internet ont besoin d'être réglementés, parce que ce devoir de prendre des responsabilités n'a pas eu lieu. Comme Mme Haugen l'a dit, cela ne s'est produit que parce qu'ils craignaient qu'une réglementation ne soit proposée de cette manière.
    Je vous remercie.
     Merci beaucoup à tous les témoins d'être venus aujourd'hui, en personne et à l'écran. J'ajouterai simplement que s'il y a quelque chose d'autre que vous aimeriez nous faire parvenir — quelque chose que vous vouliez dire mais que vous n'avez pas eu l'occasion de dire aujourd'hui — veuillez le faire par écrit par l'entremise du greffier.
     Sur ce, je vais suspendre la séance pendant deux minutes, le temps de préparer les prochains intervenants.
     Je vous remercie de votre attention.
(1200)

(1205)
    Nous reprenons maintenant pour notre deuxième groupe.

[Français]

     Nous accueillons maintenant M. Andrew Clement, professeur émérite à la Faculté de l'information de l'Université de Toronto, qui comparaît à titre personnel et qui témoignera par vidéoconférence.

[Traduction]

    J'espère que tout le monde est en mesure de comprendre les deux langues et que vous avez sélectionné la langue de votre choix au bas de la page.

[Français]

    Nous recevons aussi M. Guillaume Rousseau, qui est professeur titulaire et directeur des programmes de droit et politique appliqués de l'État à l'Université de Sherbrooke et qui participe à la réunion par vidéoconférence.
(1210)

[Traduction]

     Nous accueillons Joanna Baron, directrice exécutive de la Fondation constitutionnelle canadienne. Elle est présente en personne.
     Veuillez attendre que je vous reconnaisse par votre nom avant de prendre la parole.
     Chaque témoin disposera de cinq minutes au maximum pour ses remarques préliminaires.
     Monsieur Clement, veuillez commencer par vos remarques préliminaires. Vous disposez de cinq minutes.
    Merci, madame la présidente et membres du Comité, de me donner l'occasion de contribuer à votre importante pré-étude du projet de loi C‑63, la loi sur les préjudices en ligne.
     Je suis Andrew Clement, professeur émérite à la faculté des renseignements de l'Université de Toronto, et je m'exprime en mon nom personnel. Je suis informaticien de formation et j'étudie depuis longtemps les implications sociales et politiques de l'informatisation. Je suis également grand-père de deux jeunes filles, et j'apporte donc un intérêt à la fois professionnel et personnel aux questions complexes auxquelles vous êtes confrontés.
     Je me limiterai à combler une absence flagrante dans la première partie du projet de loi — que je soutiens généralement — à savoir la nécessité d'une transparence algorithmique. Plusieurs témoins ont soulevé ce point. Le travail de Frances Haugen est particulièrement important à cet égard.
     Les opérateurs de médias sociaux, au sens large, fournissent à leurs utilisateurs un accès à de grandes quantités de divers types de contenus, mais ils ne sont pas simplement des pourvoyeurs passifs de renseignements. Ils sélectionnent activement ce contenu, rendant certains contenus inaccessibles tout en amplifiant d'autres contenus, en se basant principalement sur des calculs de ce à quoi les utilisateurs sont le plus susceptibles de répondre en cliquant, en aimant, en partageant, en faisant des observations, etc.
     La priorité absolue des opérateurs est de faire en sorte que les internautes restent sur leur site et soient exposés à des publicités génératrices de revenus. En un clin d'oeil, ils sélectionnent le contenu spécifique à afficher à une personne en suivant des instructions précises, sur la base d'une combinaison des caractéristiques de la personne — par exemple, ses données démographiques, son comportement et son réseau social — ainsi que des caractéristiques du contenu, telles que les mots-clés, le potentiel de revenu et les étiquettes attribuées. C'est ce que l'on appelle une « pratique algorithmique de curation de contenu », ou « pratique algorithmique » en abrégé.
     Ces pratiques algorithmiques déterminent ce qui apparaît le plus clairement dans le minuscule espace d'affichage des appareils personnels et guident ainsi les utilisateurs à travers le vaste éventail de possibilités de contenu. Associées à des fonctions interactives soigneusement conçues, ces pratiques de curation sont devenues si attrayantes, voire addictives, qu'elles retiennent l'attention des adolescents américains, entre autres, pendant près de cinq heures par jour. Fait troublant, le temps qu'ils passent sur les médias sociaux est fortement corrélé à des résultats défavorables en matière de santé mentale et à une augmentation rapide des taux de suicide à partir de 2012 environ. Nous avons entendu des témoignages saisissants à ce sujet de la part de vos autres témoins. Les grands opérateurs sont conscients des effets néfastes de leurs pratiques, mais résistent à la réforme, parce qu'elle porte atteinte à leurs modèles d'affaires.
     Nous avons besoin de plusieurs approches pour promouvoir la sécurité en ligne, mais une meilleure compréhension des pratiques de curation algorithmique est certainement l'une des plus importantes.
     Les Canadiens ont commencé à demander aux opérateurs d'être plus transparents sur leurs pratiques de curation. L'Assemblée des citoyens sur l'expression démocratique a recommandé que les fournisseurs de services numériques « soient tenus de divulguer [...] le fonctionnement interne de leurs algorithmes ». Les répondants à la consultation en ligne concernant ce projet de loi sur les préjudices en ligne ont noté « l'importance de [...] la transparence algorithmique lors de l'établissement d'un régime réglementaire. » Votre comité permanent jumeau, le Comité permanent de la sécurité publique et nationale, a formulé une recommandation similaire: « Que le gouvernement du Canada collabore avec les plateformes pour encourager la transparence algorithmique [...] afin d'améliorer les décisions en matière de modération du contenu. »
     Au niveau international, les États‑Unis, l'Union européenne et d'autres pays ont élaboré ou sont en train d'élaborer des régimes réglementaires concernant les pratiques algorithmiques des plateformes en ligne. La plupart des grands services de médias sociaux ou des opérateurs en ligne au Canada opèrent également dans l'Union européenne, où ils sont déjà soumis à des exigences de transparence algorithmique que l'on retrouve dans plusieurs lois, notamment la loi sur les services numériques. Celle‑ci exige que « les plateformes en ligne [...] veillent systématiquement à ce que les destinataires de leur service soient correctement informés de la manière dont les systèmes de recommandation influent sur la façon dont les renseignements sont affichés et peuvent influencer la façon dont les renseignements leur sont présentés. »
     Si le projet de loi C‑63 oblige les opérateurs à fournir des renseignements détaillés sur les contenus préjudiciables accessibles sur le service, il reste étonnamment silencieux sur les pratiques algorithmiques qui sont essentielles pour déterminer l'accessibilité, la portée et les effets de ces contenus. Il est facile de remédier à cette lacune par des amendements: premièrement, en ajoutant une définition de « pratique algorithmique de curation de contenu », et deuxièmement, en ajoutant des exigences pour l'inclusion des pratiques algorithmiques de curation de contenu dans les plans de sécurité numérique à l'article 62 et dans les données électroniques accessibles aux personnes accréditées aux articles 73 et 74. Je proposerai une formulation d'amendement spécifique dans une soumission écrite.
(1215)
    Je vous remercie de votre attention et je répondrai volontiers à vos questions.

[Français]

     Merci beaucoup.
    Monsieur Rousseau, vous avez maintenant la parole.
    Je vous prie d'excuser mon apparence. J'ai subi une opération chirurgicale hier en raison de laquelle je porte un pansement, mais, malgré quelques cicatrices sur la tête, tout va bien dans ma tête. Je devrais être en mesure de faire cette présentation et de répondre à vos questions.
    En tant que juriste constitutionnaliste, je veux surtout attirer votre attention sur la question de la liberté d'expression et, comme je viens du Québec, je veux aussi attirer votre attention sur le fait que le projet de loi C‑63 ressemble beaucoup au projet de loi no 59, qui a été étudié au Québec en 2015 et en 2016.
    Pour ceux qui, comme moi, ont mené une bataille contre le projet de loi no 59, c'est un peu le jour de la marmotte, puisqu'on retrouve dans le projet de loi C‑63 des éléments extrêmement similaires, dont l'interdiction de discours haineux. Cela nous rappelle à quel point les compétences québécoises et les compétences fédérales ne sont pas toujours suffisamment exclusives et à qu'il y a beaucoup de chevauchements. J'arrête ici ma parenthèse sur le fédéralisme canadien, mais je souligne quand même au passage que je viens tout juste de déposer un rapport avec le Comité consultatif sur les enjeux constitutionnels du Québec au sein de la fédération canadienne. Si vous vous intéressez à cette question, sachez qu'un rapport vient d'être déposé au gouvernement du Québec.
    Le projet de loi no 59 qui avait été étudié en 2015 et en 2016 interdisait les discours haineux, et cela avait été jugé très problématique en matière de liberté d'expression. Finalement, le gouvernement de l'époque avait décidé de mettre de côté une partie du projet de loi et de ne pas adopter le volet du projet de loi concernant les discours haineux pour garder l'autre partie du projet de loi, qui était beaucoup plus consensuelle et qui portait notamment sur l'encadrement des mariages de mineurs. En ce qui a trait au projet de loi C‑63, j'espère donc qu'on se prépare à un dénouement semblable.
    Je pense que le projet de loi contient beaucoup d'éléments intéressants au sujet de la victimisation sexuelle et de la « pornodivulgation », qui me semble être le bon équivalent français du terme revenge porn. Tout ce volet sur la protection des mineurs et la protection contre la victimisation sexuelle m'apparaît très important. Par contre, tout ce qui concerne la haine m'apparaît beaucoup plus problématique.
    Parfois, on parle de scinder le projet de loi en disant que la partie 1 ne pose aucun problème et que les parties 2 et 3 sont plus problématiques. Pour ma part, j'attire votre attention sur le fait que, même dans la partie 1, la définition de contenu préjudiciable inclut les contenus fomentant la haine. Même dans la partie 1, il y a ce mélange entre la question de la protection des mineurs contre certains éléments liés à la pornographie et la question de la haine. Selon moi, si on veut bien retravailler le projet de loi, il faut non seulement ne pas adopter les parties 2 et 3, mais également éliminer de la partie 1 ce qui concerne la haine.
    Le problème de tout ce qui concerne la haine dans le projet de loi, c'est notamment le fait que la définition est très vague et très large. Pour définir la haine, on fait référence à la détestation et à la diffamation, mais, dans les définitions de détestation et de diffamation, on fait souvent référence à la haine. Tout cela est un peu circulaire. C'est très vague et, pour cette raison, il est très difficile pour un justiciable de savoir quelle est son obligation, de savoir ce qu'il peut dire et ce qu'il ne peut pas dire.
     Je comprends que cette définition est inspirée de l'affaire Whatcott de la Cour suprême, mais il y a deux problèmes à cet égard.
    D'abord, cette définition a été donnée dans le cadre d'une affaire liée aux droits de la personne; or, ici, on veut s'en inspirer en droit criminel. Sur le plan de la preuve, notamment, ces deux domaines sont fort distincts. Ensuite, je comprends pourquoi on s'inspire de la Cour suprême en ce qui concerne les définitions, car cela fait que la disposition de la loi a moins de chances d'être invalidée. Je le comprends sur le plan technique, mais sur le fond, une définition qui n'est pas claire et qui n'est pas bonne n'est pas claire et n'est pas bonne, même si elle émane de la Cour suprême.
    J'ai envie de vous répéter cette phrase célèbre: la Cour suprême n'est pas sans appel parce qu'elle est infaillible, elle est infaillible parce qu'elle est sans appel.
    Comme législateurs, vous devez donc vraiment vous demander si la définition est claire plutôt que vous demander seulement si c'est la définition de la Cour suprême. À la limite, si vous tenez absolument à avoir une définition inspirée de la Cour suprême, je vous recommanderais plutôt celle de l'arrêt Keegstra, qui est plutôt une décision en matière criminelle. Elle est un peu plus claire et un peu moins problématique que la définition inspirée de l'affaire Whatcott.
    Cela dit, si vous allez dans le sens de ce que je propose et que vous retirez le volet sur la haine dans le projet de loi, cela soulèvera la question suivante: si on fait un projet de loi plus ciblé sur la victimisation sexuelle et la protection des mineurs, aura-t-on besoin d'une commission, d'un ombudsman, d'un bureau et de toute la bureaucratie qui est prévue alors que l'objet de la loi est plus limité? Il faudra donc repenser le projet de loi pour qu'il soit moins bureaucratique.
    Enfin, j'attire votre attention sur le fait qu'il faudrait ajouter au projet de loi l'abolition des exemptions qui permettent, au nom de la religion, de tenir des discours haineux. On parlait tantôt du projet de loi C‑63 et du projet de loi C‑412, mais il y a également le projet de loi C‑377, que je vous invite à étudier.
(1220)
     Je vous remercie.
     Je vous remercie.

[Traduction]

     Nous passons maintenant à Mme Baron, s'il vous plaît.
     Bonjour. Je vous remercie de me donner l'occasion de m'exprimer devant ce comité.
     Je représente la Fondation constitutionnelle canadienne, un organisme national de bienfaisance juridique qui défend les libertés fondamentales. Nous avons participé aux arrêts Whatcott, Fleming, Ward et à d'autres arrêts déterminants de la Cour suprême du Canada sur la liberté d'expression. Nous considérons que ce projet de loi, le projet de loi C‑63, représente une grave menace pour le droit de tous les Canadiens à la liberté d'expression et à une démocratie florissante.
     Nous saluons l'annonce du ministre selon laquelle il a l'intention de scinder le projet de loi en ce qui concerne les parties 1 et 4, mais nous restons préoccupés par la constitutionnalité de certains aspects de la partie 1, ainsi que des parties 2 et 3 dans leur intégralité.
     J'aborderai tout d'abord les parties du projet de loi qui étendent les sanctions pour les infractions liées au discours de haine, y compris les « contenus nuisibles » et les « contenus qui fomentent la haine ». Je fais référence à la fois au mandat du nouveau commissaire à la sécurité numérique, créé dans la partie 1 du projet de loi, et aux sanctions élargies pour les crimes haineux dans la partie 2.
     La partie 1 du projet de loi impose à un opérateur de « mettre en œuvre des mesures adéquates pour atténuer le risque que les utilisateurs [...] soient exposés à des contenus préjudiciables ». Cela inclut les « contenus qui fomentent la haine ». Cet agent coûtera environ 200 millions de dollars sur cinq ans et imposera aux plateformes des amendes pouvant atteindre plusieurs millions de dollars.
     La deuxième partie du projet de loi, quant à elle, renforce les sanctions pour les crimes haineux existants, notamment la promotion du génocide, désormais passible d'une peine pouvant aller jusqu'à la réclusion à perpétuité. Elle crée également une nouvelle infraction autonome, à l'article 320.‍1001, pour toute infraction fédérale motivée par la haine, désormais passible d'une peine pouvant aller jusqu'à l'emprisonnement à perpétuité.
     Comme l'a mentionné le témoin précédent, et je suis d'accord avec bon nombre de ses observations, le discours de haine est un concept intrinsèquement subjectif. Ces peines et obligations réglementaires élargies présentent un risque de disproportion flagrante et de refroidissement excessif de l'expression protégée. Dans l'arrêt Whatcott, la Cour suprême du Canada a déclaré que la haine n'englobe que les « manifestations les plus extrêmes [capturées] par les mots 'détestation' et 'diffamation' ». Seul ce type de discours peut être pénalisé sans violer la Charte.
     Le projet de loi C‑63 adopte cette formulation dans le paragraphe 319(7) proposé: « la haine s'entend de l'émotion qui implique la détestation ou la diffamation ». Mais « détestation » n'est en fait qu'un synonyme de « haine », et la diffamation est un concept hautement subjectif. Nous vivons actuellement une période de désaccords passionnés et souvent difficiles dans notre société, où de nombreuses affirmations sont formulées et comprises différemment selon le contexte.
     Par exemple, le fait de qualifier quelqu'un de sioniste peut être considéré comme une diffamation ou, de manière plus douteuse, comme une promotion du génocide, ou encore comme un éloge, selon l'orateur et l'auditoire. Il y a quelques jours, une ancienne productrice de la CBC, Shenaz Kermalli, a accusé le député Kevin Vuong d'expression haineuse pour avoir posé avec une personne portant un sweat-shirt « F Hamas » sur les médias sociaux. C'est le problème de la criminalisation du langage. Il est subjectif. Il change en fonction du contexte.
     Ces préoccupations deviennent pressantes avec les sanctions élargies proposées dans la partie 2. Même si l'on peut compter sur nos juges pour respecter les principes de proportionnalité lorsqu'ils condamnent un délinquant en vertu de l'article 320, par exemple, l'éventail des peines prévues par la loi comprendra désormais l'emprisonnement à vie. Ce n'est pas une possibilité frivole que les procureurs puissent renvoyer les juges à un éventail de peines allant jusqu'à l'emprisonnement à vie pour un crime tel que le vandalisme s'il est allégué que le crime a été motivé par la haine.
     En réalité, il est pratiquement impossible d'identifier à l'avance, de manière prévisible, la ligne qui sépare le discours haineux simplement « horrible mais légal » du discours haineux criminel. Ce manque de clarté constitue une menace urgente pour le discours en ligne, qui est notre place publique actuelle et qui devrait accueillir ce type de désaccord passionné et contradictoire. Lorsque ce type de sanctions est en jeu, tout le monde est incité à la prudence. Les plateformes signaleront et supprimeront les contenus qui sont en fait des expressions protégées, et les personnes s'autocensureront.
     Enfin, j'aborderai brièvement la troisième partie du projet de loi. Elle rétablit un recours civil pour les discours haineux en ligne, qui permet aux membres du public de porter plainte devant la Commission canadienne des droits de la personne. Cela serait désastreux. Vous ne devez pas aller de l'avant avec cette proposition. Même si la plupart des cas présumés sont rejetés parce qu'ils n'atteignent pas le seuil du discours de haine, les sanctions pour les personnes jugées responsables — jusqu'à 50 000 $ versés au gouvernement plus 20 000 $ à la victime — sont suffisamment sévères pour que nous puissions en déduire que le nouveau régime conduira à un grand nombre d'atténuations de l'expression par crainte de contourner la ligne de démarcation. Il portera gravement atteinte à la liberté de la presse de publier des opinions controversées, qui sont nécessaires à l'épanouissement de la société civile. Enfin, la procédure est synonyme de sanction, même si l'affaire n'est pas poursuivie. Nous verrons de plus en plus de personnes punies pour avoir exprimé des opinions protégées.
(1225)
    Je vous remercie. Vos questions sont les bienvenues.
    Il est 12 h 26. Je garderai le temps efficacement pour nous amener à 13 heures.
     Nous allons commencer par le premier tour, et nous nous en tiendrons à six minutes chacun.
    Députée Rempel Garner, allez‑y pour six minutes, s'il vous plaît.
    Merci, madame la présidente.
     Madame Baron, j'aimerais axer mes questions sur l'article 140 de la première partie du projet de loi, qui énumère les différents types de pouvoirs dont dispose l'organisme de réglementation pour élaborer et appliquer des règlements. Je constate qu'il y a plus de 25 domaines différents que l'organisme de régulation aurait le pouvoir de réglementer. Compte tenu des termes généraux utilisés dans ce projet de loi, tels que « contenu préjudiciable », craignez-vous que le Parlement ne cède à cette autorité de régulation la capacité d'élaborer des règles et de les faire appliquer d'une manière si générale que cela pourrait avoir de graves conséquences sur les points que vous avez mentionnés, tels que la liberté de la presse et la liberté d'expression?
    Oui, absolument. Je crois comprendre que les plateformes ne savent pas très bien comment cela va fonctionner. Elles ont eu quelques conversations, et il est dit que tout cela sera mis au point plus tard. D'après ce que nous savons, il s'agira d'un grand nombre de décisions concernant des discours qui sont, peut-être, proches de la ligne et très subjectifs. Nous savons qu'une grande partie de ces discours seront protégés, même s'ils offensent ou blessent certaines personnes. Ces décisions seront prises par des bureaucrates nommés par le gouvernement ou, vous savez... conscients des graves conséquences financières qu'entraînerait le non-respect du projet de loi sur les plateformes.
    Je vous remercie.
     Il me semble que le fait d'avoir un régulateur sans devoir de diligence prévu par la loi et comprenant des termes clairement définis sur ce dont les plateformes en ligne seraient responsables revient à mettre la charrue avant les boeufs d'une manière potentiellement dangereuse. Du point de vue du retardement d'une action qui pourrait protéger les victimes et de la possibilité pour un régulateur non élu d'imposer d'importantes restrictions à la liberté d'expression sans contrôle législatif.
     Diriez-vous que cette crainte est justifiée dans cette situation?
    Oui, je pense que les objectifs dont le gouvernement a parlé en matière de protection des enfants et des victimes de pornographie vengeresse sont urgents. Il est inadmissible de créer un nouvel organisme de réglementation doté de 200 millions de dollars pour lutter contre ces préjudices très spécifiques.
    Diriez-vous qu'il serait plus efficace pour le gouvernement, et peut-être pour tous les partis, de consacrer du temps à débattre d'une liste de responsabilités légiférées pour les plateformes en ligne avant d'abdiquer toute responsabilité? La meilleure première étape, avant d'envisager un régulateur, serait que le Parlement définisse ce qu'est cette responsabilité.
    Je pense que c'est juste.
    Je vous remercie.
     L'article 140, en particulier le paragraphe h), donne à l'autorité de régulation le pouvoir d'étiqueter les contenus dits nuisibles. Je lis cela comme si l'autorité de régulation avait presque plus de pouvoir que la Commission canadienne des droits de la personne n'en a actuellement pour réguler le discours, d'une manière très indéfinie.
     Diriez-vous que c'est un point de vue exact?
(1230)
    Je dirais que c'est très vague et pratiquement sans contrôle.
    Je ne pense pas que la première partie puisse être poursuivie. Fondamentalement, on me demande, en tant que législateur, d'abdiquer mon pouvoir en faveur d'un régulateur non élu pour réglementer le discours en termes très généraux. Qu'en pensez-vous?
     Je pense fondamentalement que c'est une erreur, et je pense que c'est de la paresse de la part du gouvernement, au lieu de proposer une loi — ce que les conservateurs ont fait, avec le projet de loi C‑412 — comme point de départ qui pourrait définir ce que sont les plateformes en ligne, au lieu de simplement transférer cette responsabilité, avec des répercussions potentielles sur les libertés civiles, à un organisme de réglementation non élu.
    Je pense que la première partie ne devrait pas être poursuivie. Les objectifs de protection des enfants et des victimes en ligne sont urgents, mais il existe d'autres moyens de les mettre en oeuvre.
     Nous savons également qu'il y a d'énormes problèmes dans les tribunaux à l'heure actuelle, où des personnes accusées de prédation d'enfants ne sont même pas jugées en raison de l'engorgement des tribunaux pénaux. Il y a beaucoup de choses que nous devrions examiner avant de créer une hydre à trois têtes.
    Je vous remercie.
     Les conservateurs ont déposé le projet de loi C‑412.
     Recommanderiez-vous à ce comité de commencer par examiner ce que devrait contenir une liste de responsabilités pour les opérateurs en ligne et d'en débattre, plutôt que de confier des pouvoirs illimités à un organisme de réglementation non élu qui coûtera 200 millions de dollars?
    Oui.
     Vous ne m'avez pas demandé de faire des observations sur le fond du projet de loi C‑412. Nous sommes préoccupés par certaines des catégories énumérées dans le projet de loi C‑412, mais je pense qu'il mérite d'être étudié et pris en considération. Je serais ravie de parler des catégories qui nous posent problème.
    Très bien. L'objectif du projet de loi C‑412 était d'avoir un débat ouvert sur les responsabilités des plateformes, plutôt que de les confier à huis clos à un régulateur non élu et de lui donner le pouvoir illimité de réglementer la parole ou d'empiéter sur les libertés civiles.
     Pensez-vous que le gouvernement ou l'un des membres de ce comité devrait approuver cette idée?
    Je ne suis pas en train de faire des recommandations spécifiques, mais je pense que procéder par voie législative plutôt que par voie réglementaire présente des avantages.
    Je vous remercie.
    Merci, madame Rempel Garner.
     Nous passons maintenant à la députée Brière pour six minutes.

[Français]

     Merci, madame la présidente.
    Je salue tous nos témoins.
    Monsieur Rousseau, c'est un plaisir de vous recevoir. Je vous souhaite une bonne convalescence et un prompt rétablissement.
    Vous avez dit, dans vos remarques préliminaires, que la création d'un poste d'ombudsman et de la commission ne ferait qu'augmenter la bureaucratie. Je ne sais pas si vous étiez ici, mais nous venons d'entendre Mme Panas nous dire que sa vie est difficile tous les jours, qu'elle subit de la haine en ligne et sur la rue et qu'il n'y a pas de processus en place actuellement, ce qui est un vrai problème. Ce processus améliorerait donc grandement les choses.
    J'aimerais entendre vos commentaires là-dessus.
    Je vous remercie de votre très bonne question. Je l'apprécie particulièrement, puisqu'elle a été posée par la députée de Sherbrooke, par la députée qui me représente.
    Si le Comité acceptait ma recommandation et décidait que le projet de loi ne devait porter que sur la question de la victimisation sexuelle et de la pornodivulgation, au lieu d'y inclure aussi le volet relatif à la haine, c'est là que la question de la bureaucratie se pose. Le fait d'avoir mélangé la question de la victimisation sexuelle avec celle de la haine est problématique, puisqu'on peut être d'accord sur une partie, mais pas sur l'autre. On mélange deux débats qui n'ont pas nécessairement de lien. Par contre, cette approche a l'avantage de faire en sorte qu'il y a un volume d'affaires qui justifie peut-être davantage la création de la commission, de l'ombudsman et du bureau. C'est ce sur quoi je voulais attirer votre attention.
     Considérant les différents points de vue et les défis relatifs à la liberté d'expression, vous pourriez vous en sortir en vous concentrant sur la victimisation sexuelle. Cela justifie-t-il cette question qui est plus ciblée et très importante? Cela justifie-t-il la création de ces trois organismes? C'est surtout là-dessus que j'attire votre attention. Si on cherche d'autres voies que la création de cette bureaucratie, on peut penser à des recours juridiques par des particuliers, comme le permettent souvent les lois. Une personne pourrait entamer une poursuite. Si elle a été victime ou si elle a subi des dommages, elle pourrait avoir tendance à utiliser ce genre de recours. Par contre, cela soulève d'autres questions, comme l'accès à la justice.
    Une autre voie possible serait d'imaginer un fonds consacré aux victimes de pornodivulgation ou, plus largement, de discours haineux. Cela pourrait faciliter l'accès à la justice.
(1235)
    Je vous remercie de votre réponse.
    Nous avons entendu parler une maman dont la petite fille a subi des abus. La famille est actuellement en cour. Comme mon collègue le mentionnait plus tôt, il arrive parfois que les gens ne sachent pas à qui s'adresser ou qu'ils n'aient pas nécessairement l'argent pour entamer des poursuites.
    Ne pensez-vous pas qu'il s'agirait d'une façon de leur apporter de l'aide? Je pense qu'on sous-estime l'ampleur du problème quand on n'est pas pris dans ces réseaux ou dans ces plateformes ou que nos enfants ne sont pas nécessairement touchés par tout ce qui se passe en ligne.
    Les témoignages que nous avons entendus jusqu'à maintenant sont horribles. Cela brise le cœur. Notre objectif, c'est d'être là pour protéger nos enfants, pour aider les familles et pour faire en sorte de diminuer la haine en ligne, à tout le moins, si on n'est pas capable de l'éradiquer.
    Aidez-nous à trouver la bonne façon de le faire.
     Ce que vous dites est très juste. Si on crée ces trois organismes, il faudra s'assurer qu'il y a un certain volume d'affaires. Si on s'occupe de la question plus ciblée de la victimisation sexuelle et qu'on met de côté celle du contenu haineux, y aura-t-il un volume d'affaires suffisant pour justifier la création de ces trois organismes? C'est la question que je voulais vous soumettre.
    Cependant, à l'autre bout du spectre, le danger est qu'il y ait, au contraire, un trop grand volume d'affaires. Si on ajoute le volet du discours haineux à celui de la victimisation sexuelle, puisque la définition du contenu préjudiciable est très large, on risque alors de se retrouver avec un nombre extrêmement élevé de justiciables qui vont porter plainte. Il pourrait alors y avoir de très longs délais. Généralement, les tribunaux administratifs offrent un accès à la justice un peu plus rapide et moins onéreux que les tribunaux judiciaires, mais certains tribunaux administratifs sont quand même submergés par les affaires et il y a des délais très importants. Il ne faut donc pas penser que, parce qu'on crée une voie administrative, il y aura nécessairement un accès à la justice. C'est difficile, mais il faut essayer de prévoir le volume d'affaires qu'on aura et les ressources dont on aura besoin.
    On a dit que cela allait coûter environ 200 millions de dollars. Je pense que cette estimation vient du directeur parlementaire du budget. On pourrait penser qu'avec une telle somme, il y aura un traitement relativement rapide, mais la haine et la victimisation sexuelle en ligne sont des questions tellement vastes qu'il est tout à fait probable qu'il y ait un volume d'affaires extrêmement important, où certaines plaintes seront justifiées et d'autres moins, et qu'on se retrouve avec un problème d'accès à la justice. J'attire donc votre attention là-dessus.
     Il ne me reste que quelques secondes. Je vous remercie de votre présence, ainsi que tous les témoins qui sont avec nous aujourd'hui.
     Merci beaucoup, madame Brière.
    Monsieur Fortin, vous avez la parole pour six minutes.
     Merci, madame la présidente.
    Je souhaite la bienvenue aux trois témoins. C'est un beau groupe de témoins. Je suis content de les recevoir ici aujourd'hui. Je déplore seulement le fait que nous avons bien trop peu de temps pour poser des questions aussi importantes à des témoins aussi compétents.
     Maître Rousseau, je vous souhaite aussi un prompt rétablissement. Je veux d'abord mentionner que nous n'avons pas reçu votre discours préliminaire. Ce n'est pas obligatoire de l'envoyer, évidemment, mais vous aviez des références intéressantes. Si vous avez la possibilité de nous le transmettre, je vous en serais donc très reconnaissant.
    Je demanderais d'ailleurs la même chose à chacun des témoins.
    Cela dit, maître Rousseau, je vais aborder la question de la définition de la haine. Vous nous avez dit qu'effectivement, il s'agit d'une définition plutôt problématique. Vous avez fait allusion à une décision de la Cour suprême qui contient, si j'ai bien compris, une définition qui pourrait être plus appropriée, mais je n'ai pas vraiment compris de quelle décision il s'agissait.
    D'abord, pouvez-vous m'épeler le nom de la cause en question, pour que je puisse le noter convenablement?
     Ensuite, quelle définition la Cour suprême proposait-elle à cet égard?
(1240)
     Je vous remercie de votre question.
    Je crois que j'ai envoyé mes notes, mais peut-être trop tard. On m'a dit de les envoyer 72 heures à l'avance et je pense que je l'ai fait hier soir. C'est peut-être pour cela que vous ne les avez pas reçues. Elles devraient arriver avec un peu de retard. Dans le pire des cas, n'hésitez pas à m'écrire un courriel et je vous enverrai mes notes au cours des prochains jours.
     La définition proposée par le projet de loi est inspirée du jugement rendu par la Cour suprême dans l'affaire Saskatchewan (Human Rights Commission) c Whatcott. À mon avis, cette définition est un peu trop large; elle fait allusion à la détestation et à la diffamation, dont la définition fait allusion à la haine. C'est donc une définition circulaire et vague. De plus, elle est tirée d'un jugement en matière de droits de la personne. Or on sait que les droits de la personne diffèrent du droit criminel, notamment en ce qui a trait à la notion d'intention. Dans le domaine des droits de la personne, lorsqu'il est question de discrimination, on s'intéresse surtout aux effets, sans égard à l'intention, alors qu'en droit criminel, l'intention est au cœur de la réflexion. Ce n'est donc vraiment pas la même logique. Voilà pourquoi il est problématique de créer une définition inspirée d'un jugement en matière de droits de la personne dans un projet de loi qui s'inscrit dans une logique plus pénale. De plus, la définition est trop large.
    Moi, j'attire votre attention sur la décision dans l'affaire R. c Keegstra, qui a été rendue en 1990 et qui a été reprise dans l'affaire Mugesera c Canada (Ministre de la Citoyenneté et de l'Immigration). On y définit la notion de haine comme étant « une émotion à la fois intense et extrême qui est clairement associée à la calomnie et à la détestation ». Cela m'apparaît déjà un peu plus restreint que la définition du projet de loi, qui est inspirée de l'arrêt Whatcott, qui parle plutôt de détestation et de diffamation, puisqu'on parle ici du caractère intense et extrême de l'émotion. Déjà, le mot « extrême » permet d'éviter que ce soit interprété trop largement. Toutefois, là aussi, on parle de calomnie et de détestation, alors on a un peu le même problème. Je ne vous dis pas que la définition est parfaite, mais, puisqu'elle vient d'une affaire criminelle, elle est préférable à la définition donnée dans l'arrêt Whatcott.
     Je vous remercie, maître Rousseau.
    En ce qui concerne l'aspect des libertés individuelles prévues par la Charte, peut-on penser qu'une définition qui serait mal choisie, qui ne serait pas la bonne, pourrait avoir des conséquences sur la liberté d'expression? La loi pourrait régir certaines situations qu'elle ne devrait pas régir et cela pourrait susciter des débats judiciaires longs et coûteux qui n'auraient peut-être pas eu lieu si on avait eu une meilleure définition.
     Ai-je raison de m'inquiéter de cet aspect?
    Vous avez tout à fait raison.
    Évidemment, le défi est de protéger des personnes vulnérables qui sont victimes de pratiques de pornodivulgation ou de discours haineux tout en protégeant la liberté d'expression. C'est votre défi.
    Là où se traduit très concrètement cet équilibre, là où on peut le trouver, c'est dans la définition de la haine. La définition de contenu fomentant la haine et la définition de la haine sont au cœur de cet équilibre. J'attire votre attention sur le fait que vous devez définir cela de manière très précise. Cela concerne la liberté d'expression pour deux raisons.
    Premièrement, si vous définissez trop largement le concept de haine, les tribunaux vont sanctionner des gens qui ont des propos tout juste acceptables qui, dans une démocratie libérale ouverte, devraient idéalement être tolérés. Il y a ce risque.
    Deuxièmement, il y a un risque encore plus grand: si ce n'est pas clair, un justiciable qui souhaite s'exprimer ne saura pas exactement si son propos risque de tomber sous le coup de la loi ou pas. Un justiciable pourrait vouloir tenir un propos tout juste acceptable qui ne serait pas sujet à la loi. Or, puisque la définition n'est pas claire, il pourrait s'abstenir de tenir ce propos. Cet effet refroidissant est peut-être plus problématique que le risque que des tribunaux condamnent des gens pour des agissements qui devraient être protégés par la liberté d'expression.
    Ce que vous me dites m'amène à la proposition que vous avez soulevée sur l'abolition des exceptions religieuses.
    Ne s'agit-il pas d'un cas qui ressemble à ce que vous décrivez? La question des exceptions religieuses est tellement peu claire que cela peut nuire à la conduite des procès. Les gens ne savent pas ce qu'ils peuvent ou ne peuvent pas dire. Cela peut nuire en raison du fait que les procureurs de la Couronne ne savent pas s'ils devraient ou pas poursuivre quelqu'un.
    Quel est votre avis?
    Effectivement, c'est le même genre de problème: l'exception n'est pas claire. L'autre avantage d'abolir l'exception religieuse, c'est qu'on n'a pas besoin d'une tonne de bureaucratie. On combattrait vraiment le discours haineux sans rencontrer les problèmes de la bureaucratie et de coûts qui ont été soulevés plus tôt.
(1245)
    Je vous remercie.
     Merci beaucoup.

[Traduction]

    Nous allons maintenant passer au député MacGregor, s'il vous plaît.
    Merci beaucoup, madame la présidente.
     Merci à tous les témoins de s'être joints à nous aujourd'hui. Il s'agit d'une étude préalable importante sur un sujet très important pour de nombreux Canadiens.
     Professeur Clement, j'aimerais commencer par vous, juste sur le sujet de l'intelligence artificielle. L'autre chapeau que je porte est celui de membre du Comité de la sécurité publique, et au sein de ce comité, nous avons certainement entendu beaucoup d'inquiétudes de la part de nombreux experts au sujet du rythme rapide du développement de l'intelligence artificielle. Pouvez-vous dire à ce comité quel est le rôle de l'intelligence artificielle en ce qui concerne les pratiques de curation de contenu algorithmique?
     Merci beaucoup pour cette question.
     L'expression « intelligence artificielle » n'est pas très bien définie. Elle est utilisée de manière très large et a de multiples significations, mais nous pouvons la considérer comme un ensemble de techniques algorithmiques. Elle fait partie des pratiques algorithmiques de ces entreprises. Je préfère utiliser le terme « intensification algorithmique » plutôt que « intelligence », car ces algorithmes ne comprennent pas le contenu comme le font les humains, et leur capacité à modérer le contenu est donc très limitée, en particulier s'il doit être retiré.
     L'IA est utilisée par les plateformes en particulier pour garder les gens sur leur site et pour que le contenu continue de circuler et que les gens cliquent, et ainsi de suite, et ils peuvent être très bons dans ce domaine parce qu'ils peuvent continuer à l'affiner. C'est un processus statistique. Par ailleurs, comme nous l'avons entendu, plus récemment avec l'IA générative, elle est utilisée pour créer des hypertrucages, qui peuvent être profondément trompeurs. Je pense qu'il est très important que les utilisateurs comprennent clairement qu'il ne s'agit pas d'une image réelle et authentique. Cela ne résout pas tous les problèmes — comme ces amis IA qui deviennent séduisants de diverses manières — mais c'est un début.
     Merci.
     Au cours de la conversation sur le projet de loi C‑63, mes collègues conservateurs ont mentionné un de leurs propres projets de loi, le projet de loi C‑412. Je voudrais mentionner un autre projet de loi d'initiative parlementaire, présenté par mon collègue le député Peter Julian, le projet de loi C‑292, la loi sur la transparence des algorithmes en ligne.
     Je me demande si vous pourriez nous parler un peu des caractéristiques de ce projet de loi et peut-être nous expliquer en quoi le projet de loi C‑63 n'est peut-être pas à la hauteur de ce que nous devons faire dans ce domaine.
    J'ai effectivement examiné le projet de loi C-292. Il a en partie inspiré mes recommandations concernant la transparence algorithmique, car c'est la principale caractéristique de ce projet de loi.
     Cependant, je pense que ce que je propose ici autour des amendements prospectifs pour définir la transparence algorithmique ira au‑delà de ce que votre collègue a proposé dans le projet de loi C-292, en ce sens que sa définition ne se réfère qu'aux renseignements personnels. Il y a beaucoup plus de renseignements qui entrent dans les pratiques algorithmiques. Je pense qu'il est très important que nous comprenions tous les aspects de la façon dont les opérateurs en ligne conservent les renseignements.
     Je pense que c'est un bon début. Je pense que le projet de loi C-20 peut aller plus loin. Il a besoin d'un amendement sur la transparence algorithmique.
    Merci beaucoup.
     Madame Baron, je me tourne vers vous pour ma dernière question.
     Dans vos remarques liminaires, vous avez parlé de l'importance de protéger la liberté d'expression et vous avez dit qu'il s'agissait de la nouvelle place publique. Une différence essentielle, cependant, est que contrairement à la place publique physique, la place publique numérique n'est pas un spectateur passif. Nous savons que sur les plateformes, ces algorithmes peuvent jouer un rôle en amplifiant certains contenus tout en en supprimant d'autres. Cela peut avoir pour effet très réel de pousser certaines personnes dans des recoins assez sombres.
     Nous venons d'entendre un témoin dans le groupe précédent, un membre de la collectivité LGBTQ, qui a dit que sa capacité à s'exprimer librement avec le statu quo est entravée. Comment voulez-vous aborder cette question? Nous essayons de trouver un moyen d'avancer. Comment protéger sa capacité à s'exprimer librement, parce que le statu quo porte gravement atteinte à son droit?
(1250)
    Je n'ai pas vu le témoignage de l'autre témoin, mais je dirai que ce qu'il y a de bien avec ces plateformes en ligne, c'est qu'il y en a beaucoup. Il y a Bluesky. Il y a Twitter. Il y a Instagram. Il y a différentes collectivités qui ont des normes différentes. Comme nous l'avons vu depuis qu'Elon a racheté Twitter, de nombreuses personnes ont choisi de migrer vers Bluesky, et vous avez tout à fait le droit de le faire.
     Je pense qu'il est préférable d'imposer de nouvelles réglementations gouvernementales, surtout lorsque l'on voit que le résultat est apparemment la bureaucratie à trois têtes de 200 millions de dollars proposée dans la partie 1... La fin ne justifie pas les moyens.
    Avez-vous des observations à faire sur la transparence algorithmique?
    Je suis désolée, je suis avocate constitutionnelle.
    Ce n'est pas grave.
     Je vous remercie.
     Merci, monsieur MacGregor.
     Merci au témoin.
     Compte tenu de l'heure, 12 h 51, je vais maintenant passer très rapidement au deuxième tour, et je vais l'abréger un peu.
     Monsieur Van Popta, vous avez quatre minutes.
    Merci, madame la présidente.
     Avant de poser des questions aux témoins, j'aimerais présenter la motion dont j'ai donné avis à la dernière réunion. Nous avons entendu des témoignages en début de semaine, et encore aujourd'hui, sur la croissance rapide des préjudices en ligne, en particulier pour nos enfants. Professeur Clement, je suis moi aussi grand-père et j'ai l'image de mes petits-enfants innocents à l'esprit lorsque j'entends ces témoignages, c'est pourquoi je suis très motivé pour faire fonction rapidement sur ce sujet. Il s'agit sans aucun doute d'une épidémie mondiale qui nécessite une action immédiate.
     Heureusement, notre projet de loi d'initiative parlementaire conservateur, le projet de loi C‑412, aborde certaines de ces questions de manière immédiate. Par conséquent, madame la présidente, je propose la motion suivante, et nous demandons le consentement unanime: Que le Comité entreprenne d'urgence une étude préalable du projet de loi C‑412, Loi édictant des mesures de protection des mineurs à l'ère numérique et modifiant le Code criminel.
     Je demande le consentement unanime à cet égard.
    Avons-nous le consentement unanime?
     Monsieur MacGregor.
    Pouvez-vous l'interpréter encore une fois? S'agit‑il de la motion qui a été discutée la dernière fois?
     C'est la même motion que la dernière fois.
     Un député: Non, c'est une motion différente.
    Pourriez-vous l'interpréter encore une fois?
    Mes excuses si c'est différent. Il s'agit du même sujet: le Comité doit entreprendre d'urgence une étude préalable du projet de loi C‑412, « Loi édictant la Loi sur la protection des mineurs dans l'ère numérique et modifiant le Code criminel »
     L'avons-nous?
     Quelques mains se lèvent.
     J'ai d'abord M. MacGregor.
    Puis‑je clarifier quelque chose?
    Je pense que tout le monde souhaite clarifier quelque chose, mais allez‑y, monsieur Maloney.
    Je suppose que la raison pour laquelle M. Van Popta demande le consentement unanime est que cette motion n'a pas été distribuée avant aujourd'hui. Est‑ce exact?
    C'est exact.
    D'accord, c'est donc la raison pour laquelle nous ne l'avons pas. Je vous remercie de cet éclaircissement, car je l'ignorais.
     J'ai M. MacGregor, puis M. Fortin.
     Monsieur MacGregor.
    Le libellé de la motion est légèrement différent de celui qui a été distribué la dernière fois. Je ne peux pas dire oui ou non pour l'instant. J'ai besoin d'un peu plus de temps pour y réfléchir.
    Je propose, madame la présidente, que nous levions le débat à ce stade.
    M. Van Popta a demandé le consentement unanime. C'est soit un oui, soit un non.
     Avons-nous le consentement unanime?
    Non.
    Merci beaucoup.
     Monsieur Van Popta, je vais vous laisser poursuivre votre temps de parole pour les questions.
(1255)
    Je vous remercie.
     Combien de temps me reste‑t‑il?
    Je vous accorde deux minutes. Qu'en pensez-vous? C'est probablement très gentil de votre part de nous accorder deux minutes.
     D'accord, c'est bien. Je vous remercie.
     Merci à tous les témoins.
    Madame Baron, j'ai une question à vous poser. Je lis un article que vous avez écrit et qui a été publié dans The Hub le 28 février de cette année. Vous avez dit: « L'Internet est un endroit hideux ». Je suis d'accord avec vous. Il y a beaucoup de bonnes choses, mais aussi beaucoup de laideur. Vous avez dit que la loi sur les préjudices en ligne est « un projet de loi profondément anti-liberté d'expression qui menace de sanctions draconiennes pour les discours en ligne, empêchant l'expression légitime par le simple spectre d'une plainte auprès de la Commission canadienne des droits de la personne ou de la nouvelle Commission de la sécurité numérique du Canada ».
     Vous avez entendu que le ministre a supprimé les parties 2 et 3 de ce projet de loi, je suppose donc qu'il s'agit d'un projet de loi moins offensif. Voici ma question. À votre avis, si nous supprimions également la partie 1, de sorte qu'il ne reste que la partie 4, s'agirait‑il d'un bon projet de loi autonome? Pourrait‑il être combiné au projet de loi C‑412?
    Je pense que la partie 4 devrait être adoptée immédiatement. Elle est pressante et urgente, et je pense qu'il est vraiment regrettable que ce gouvernement l'ait mise dans le même sac que les parties 1, 2 et 3, qui sont tout à fait différentes.
     Quant au projet de loi C‑412, il contient des termes d'une imprécision déconcertante pour nous. Ces termes peuvent mener à la solitude, constituer de l'intimidation ou porter atteinte à la dignité. Ces termes sont également vagues et pourraient conduire à la suppression de contenus protégés. Je pense que ce projet de loi doit être débattu et étudié plus avant.
    C'est tout à fait juste. J'espère que nous en débattrons et que vous reviendrez témoigner à ce sujet.
     Ma question est la suivante: les deux peuvent-ils être débattus en même temps?
    Je crois que oui.
    L'un ne contredit pas l'autre.
    Non.
    Merci beaucoup pour cela.
     Nous allons maintenant passer à quatre minutes, deux minutes et deux minutes, et ce sera tout.
     Allez‑y, s'il vous plaît, monsieur Maloney.
     Merci, madame la présidente.
     Merci aux témoins.
     Madame Baron, j'aimerais revenir sur une chose que vous avez dite au début de vos remarques. Vous avez répété à plusieurs reprises que vous n'êtes pas en faveur d'un comité sur la sécurité numérique et du processus décrit dans la partie 1. Vous venez de dire très clairement que vous n'appuyez pas le projet de loi C‑412 parce qu'il est trop « vague », un terme qui a été utilisé par pratiquement tous les témoins interrogés sur ce sujet. Nous avons interrogé deux catégories de témoins: soit ils ne connaissaient pas le projet de loi, soit ils ne l'appréciaient pas. Je m'en tiendrai là.
     Mais qu'est‑ce qui vous déplaît dans l'idée...? Vous avez dit dans vos remarques qu'« il y a d'autres moyens de faire respecter cela », et vous avez ensuite critiqué le processus judiciaire. Où cela nous mène‑t‑il?
    Eh bien, tout d'abord, en ce qui concerne le processus judiciaire, nous pouvons nous pencher sur les causes de l'indulgence choquante des peines infligées aux personnes qui sont condamnées...
    Avec tout le respect que je vous dois, il s'agit là d'une question totalement différente. Nous parlons ici de prendre des mesures pour retirer des choses d'Internet. Cela n'a rien à voir avec les sanctions imposées aux personnes qui ont été inculpées et condamnées. Séparons les deux, si possible.
    Je pense qu'il existe des approches beaucoup plus souples et ciblées qui permettraient de lutter contre l'exploitation et la prédation sexuelles des enfants ainsi que contre la pornographie de vengeance. Il n'est pas nécessaire de disposer d'un régulateur et d'un commissaire de 200 millions de dollars. Par ailleurs, la majorité des Canadiens qui seront affectés par les dispositions de la partie 1 sont des adultes qui communiquent peut-être des opinions épicées en ligne. C'est, heureusement, la majorité des personnes.
    D'accord. Je vous demande donc quelles sont ces approches souples et utiles. Jusqu'à présent, tout ce que j'ai entendu dire, c'est que celle‑ci ne fonctionne pas et que les tribunaux ne sont pas bons non plus. Alors, qu'est‑ce que c'est?
    Il s'agit peut-être d'un bureau réduit qui se concentre uniquement sur la pornographie de vengeance et le matériel d'exploitation sexuelle des enfants.
     Il s'agit donc d'une sorte de mécanisme bureaucratique, d'une structure en place, mais pas de celle qui est proposée.
     C'est bien ce que vous dites?
    Je ne suis pas là pour présenter le mécanisme précis. Mon travail consiste à indiquer un mécanisme qui porterait moins atteinte aux droits constitutionnels.
    D'accord, mais c'est à nous de proposer un mécanisme et une solution. Lorsque des témoins comme vous, qui venez ici avec un certain niveau d'expertise, critiquent ce qui est proposé, j'aimerais vraiment entendre vos réflexions sur les solutions de rechange. C'est pourquoi je vous demande si vous en avez. Si vous n'en avez pas, ce n'est pas grave non plus.
    Je pense avoir dit tout ce que j'avais à dire sur ce à quoi devrait ressembler une réponse future.
(1300)
    Très bien.
    Vous avez dit quelque chose d'autre qui m'a intrigué. Je suppose qu'il s'agit d'une sorte d'autorégulation d'Internet ou des réseaux sociaux. Vous avez dit que les gens pouvaient migrer d'une plateforme à l'autre. En quoi le fait de migrer de Twitter ou Facebook vers Bluesky, la plateforme de médias sociaux actuellement la plus populaire, permet‑il de répondre aux préoccupations des mères, des familles et des victimes que nous avons déjà entendues dans le cadre de cette étude? Cela ne fait rien, si ce n'est qu'ils vont sur une plateforme plus agréable. En quoi cela résout‑il des problèmes tels que le Web sombre? Comment cela crée‑t‑il une solution pour les familles des victimes?
    Pour être claire, je répondais à cette question dans le contexte d'un témoin qui a dit ne pas se sentir en sécurité lorsqu'il communique sur des plateformes sociales. Je ne répondais pas à cette question en ce qui concerne les prédateurs d'enfants. Je pense qu'il est clair que toutes les plateformes sont conscientes que ce contenu est diffusé. Elles ont des algorithmes. Elles ont les moyens de les signaler et de les supprimer beaucoup plus rapidement. Il ne fait aucun doute que des tragédies se produisent encore. Dans la mesure du possible, je pense qu'il faut y remédier. Mon observation sur la migration vers Bluesky s'inscrivait dans un contexte totalement différent.
    Si je peux résumer votre témoignage, vous êtes ici pour dire que nous devons prendre des mesures drastiques pour protéger les enfants et créer un environnement en ligne plus sûr, mais vous n'offrez aucune solution ou moyen d'y parvenir.
    Je dis que les sanctions existantes doivent être appliquées. Pensez-vous que ce contenu n'est pas déjà criminalisé? Bien sûr qu'il l'est.
    Mais il n'est pas supprimé du monde en ligne, n'est‑ce pas? C'est l'objet de ce projet de loi.
    Merci.
    Merci beaucoup pour cela.

[Français]

     Monsieur Fortin, vous avez maintenant la parole pour deux minutes.
    Merci, madame la présidente.
    Madame Baron, j'ai cru voir, sur votre page LinkedIn, que vous parliez français; je vais en profiter.
    Je ne vous ferai pas répéter ce que vous avez déjà dit, mais j'aimerais vous emmener vers un autre sujet abordé par M. Rousseau, soit l'abolition des exceptions religieuses prévues au Code criminel.
    Le projet de loi C‑373 a été déposé, et celui-ci prévoit l'abolition des alinéas 319(3)b) et 319(3.1)b) du Code criminel. Ce sont des dispositions qui servent de défense à la tenue de discours haineux ou antisémites, dans la mesure où on se base sur un concept religieux auquel on croit et qu'on défend de bonne foi. Selon moi, la propagation de la haine m'apparaît un peu difficile à accepter dans le cadre d'une religion. Je dirais que 99 % des religions sont basées sur l'amour et le vivre-ensemble, et non sur la propagation de la haine.
    Est-ce une bonne idée d'abolir ces défenses d'exception religieuse? J'aimerais vous entendre là-dessus.

[Traduction]

    Je pense que c'est une question très compliquée. Je pense qu'il y a des problèmes inhérents à la criminalisation de la parole en général. Cela dit, en tant que société laïque et pluraliste, si nous devons considérer quelque chose comme un discours haineux, ce devrait être un discours haineux, qu'il soit fondé sur les croyances religieuses de la personne ou sur une philosophie laïque.

[Français]

     Seulement une minute et demie est passée et j'ai l'impression d'avoir fait le tour de la question. Madame Baron, je vous remercie de votre réponse, qui était claire.
    Je vais laisser la minute de temps de parole qui reste à mon collègue du NPD.
    Merci beaucoup, monsieur Fortin.
    J'en profite quand même pour remercier tous les témoins d'avoir été parmi nous aujourd'hui.
    Monsieur MacGregor, vous avez la parole pour les deux dernières minutes.

[Traduction]

    Merci, madame la présidente.
     Madame Baron, je souhaiterais vous poser une question concernant les responsabilités que les entreprises de médias sociaux devraient assumer. Un exemple a été donné dans le groupe précédent sur la façon dont Instagram a soudainement rendu privés les comptes de tous les utilisateurs de 16 ans ou moins, car des adultes parcouraient ces images et essayaient d'entrer en contact avec les jeunes adolescents. Instagram aurait pu le faire il y a 10 ans, mais ils l'ont fait maintenant parce qu'il y a la menace d'une réglementation.
     Ces entreprises de médias sociaux ont des algorithmes qui peuvent amplifier certains contenus et en supprimer d'autres. Quel est votre point de vue sur le rôle du gouvernement pour faire en sorte que ces entreprises de médias sociaux aient des normes de pratique de base qui permettent aux gens de participer en ligne en toute sécurité? Encore une fois, c'est la liberté d'expression qui pourrait être compromise, les gens pouvant s'exprimer librement. La grande crainte est que cela puisse conduire à des manifestations physiques. Les gens ont l'impression que leur vie est en danger.
     Que pensez-vous de la manière d'aborder la question de la responsabilisation des entreprises de médias sociaux pour rendre l'espace en ligne plus sûr?
(1305)
    D'instinct, je dirais — et c'est un peu en dehors de ma zone d'expertise — que lorsqu'il s'agit des enfants et de leur utilisation des médias sociaux, les parents sont les premiers responsables, pour être honnête. Je ne pense pas que le gouvernement doive se substituer aux parents pour superviser.
    La principale mission du gouvernement n'est‑elle pas de protéger ses citoyens? Je comprends votre point de vue, mais à un moment donné, nous devons utiliser le pouvoir collectif de l'État pour au moins rendre ces entreprises de médias sociaux un peu plus responsables. Je pense que c'est exactement ce que je demande.
    Je vous remercie.
     Je remercie également nos témoins qui sont venus en personne et ceux qui se sont exprimés en ligne. Je souhaite à tout le monde une excellente fin de journée, en toute sécurité.
     Je remercie également les députés du Comité pour cette merveilleuse séance. Je vous souhaite à tous de très bonnes fêtes de fin d'année et je vous donne rendez-vous en janvier.
     Je vais maintenant suspendre la séance. Je vous remercie.
    [La séance est levée à 16 h 40, le lundi 6 janvier 2025. Voir le Procès-verbal]
Explorateur de la publication
Explorateur de la publication
ParlVU