J'ouvre maintenant la séance.
[Traduction]
Bienvenue à la 127e réunion du Comité permanent de la justice et des droits de la personne de la Chambre des communes.
[Français]
Conformément au paragraphe 108(2) du Règlement et à la motion adoptée par le Comité le 2 décembre 2024, le Comité se réunit en public pour poursuivre sa préétude du projet de loi .
[Traduction]
Avant de présenter les témoins du premier groupe, j'ai quelques remarques préliminaires à vous donner.
Les témoins présents dans la salle sont priés d'utiliser le microphone et le casque d'écoute fournis. Éloignez le casque du microphone pour faciliter le travail des interprètes et pour préserver leur santé et leur sécurité. Peu importe que vous participiez à la réunion en ligne ou en personne, vous devez attendre que la présidence vous nomme avant de prendre la parole.
[Français]
Je parle français en ce moment. Les participants anglophones devraient entendre l'interprétation en anglais.
[Traduction]
Si vous n'avez pas compris ce que je viens de dire en français, votre appareil n'est pas bien réglé. Je vous invite à bien régler votre appareil pour vous assurer d'entendre la langue de votre choix et éviter d'interrompre les délibérations.
[Français]
S'il vous plaît, mettez vos appareils électroniques en sourdine.
[Traduction]
Si vous participez virtuellement à la réunion, veuillez activer votre microphone seulement quand la présidence vous nomme.
Je vais maintenant vous présenter les témoins qui comparaîtront ce matin.
[Français]
Premièrement, nous recevons Mme Frances Haugen.
[Traduction]
Mme Haugen est défenseure, Transparence et responsabilité des plateformes sociales. Elle nous rejoint par vidéoconférence.
Mme Marni Panas est spécialiste en inclusion agréée au Canada.
Nous accueillons également Mme Jocelyn Monsma Selby, la présidente de Connecting to Protect. Elle est thérapeute clinique et évaluatrice judiciaire, et elle comparaît aussi par vidéoconférence.
Vous disposez de cinq minutes chacune pour nous présenter vos déclarations liminaires. Je sais que c'est un peu difficile, surtout si vous nous joignez par écran interposé. Je vais vous avertir quand il vous restera 30 secondes. Quand le temps imparti pour vos remarques liminaires ou vos réponses aux questions des députés sera écoulé, je vais vous interrompre avec le plus de douceur et de tact possible.
Je souligne la présence parmi nous du sénateur Kristopher Wells. Il sera avec nous pour la première heure. Soyez le bienvenu, monsieur le sénateur.
J'invite Mme Frances Haugen à prendre la parole.
Vous disposez de cinq minutes.
:
Merci de l'invitation à comparaître aujourd'hui.
Comme vous avez probablement entendu beaucoup de gens parler des méfaits des médias sociaux, je vais vous en épargner l'inventaire. Je vais plutôt me concentrer sur deux thèmes qui, je l'espère, vont vous permettre de comprendre le contexte dans lequel s'inscrit mon témoignage et de réaliser l'urgence d'agir.
Premièrement, je tiens à souligner à quel point nous sous-estimons la gravité des effets des médias sociaux pour les enfants en raison des limites de nos méthodes d'observation et de mesure. Quand les chercheurs et les décideurs discutent des effets délétères des médias sociaux, ils se fondent en règle générale sur des études menées auprès d'adolescents au sujet des taux d'automutilation et de troubles alimentaires, ainsi que de la détérioration de la santé mentale chez les personnes de 16 ans. Or, ces études nous donnent des échos du passé et dépeignent les conséquences d'une exposition aux médias sociaux qui a commencé des années auparavant, souvent autour de 12 ou 13 ans.
Ce qui est alarmant, c'est de constater qu'aujourd'hui, les jeunes de 12 ou 13 ans ont été exposés aux médias sociaux à 8 ou 9 ans environ. En 2022, 30 % des enfants américains de 7 à 9 ans étaient déjà actifs sur les plateformes de médias sociaux, et cette proportion a sûrement augmenté depuis. Cette réalité entraîne ce que j'appelle un effet télescope de notre compréhension des effets des médias sociaux. À l'instar des astronomes qui observent des galaxies lointaines, l'information que nous étudions concerne toujours le passé, c'est‑à‑dire les plateformes de médias sociaux telles qu'elles étaient conçues avant et les habitudes en matière d'utilisation du passé. Ce n'est pas un problème si nous étudions les étoiles puisque les cieux évoluent lentement. En revanche, si nous étudions la vie numérique des adolescents, nous nous retrouvons devant un monde qui évolue rapidement et nous sommes constamment étonnés que les taux de préjudices ne cessent d'augmenter.
L'influence et les effets sont significativement différents pour un enfant de 7 ans et un adolescent de 13 ans. Actuellement, les enfants commencent à utiliser les médias sociaux de plus en plus jeunes, à des stades de développement encore plus déterminants et sur des plateformes encore plus évoluées et interactives que celles que fréquentent les adolescents que nous étudions actuellement. Si rien n'est fait, nous risquons de réaliser dans 10 ans que nous avons laissé une génération entière subir des changements fondamentaux de leur développement de manières que nous n'aurons ni anticipées ni empêchées.
Mon deuxième point concerne la menace émergente et sous-estimée de l'accroissement des avatars créés par l'intelligence artificielle, ou IA, et leurs répercussions sur le développement social des enfants. Ces avatars IA sont des compagnons virtuels évolués. Ils utilisent l'intelligence artificielle pour engager une conversation, réagir aux émotions et établir des liens en apparence réels avec les utilisateurs. Ils sont conçus pour être accessibles en tout temps, ne jamais perdre patience et toujours être à l'écoute des intérêts et des besoins des utilisateurs.
Le principal fournisseur de ces avatars IA est fier d'annoncer que les utilisateurs moyens — qui sont essentiellement des enfants de moins de 18 ans — passent 2 heures par jour à interagir avec ces compagnons virtuels. Cette statistique devrait nous alarmer. L'apprentissage des rapports entre vrais humains est intrinsèquement difficile et parfois inconfortable. Il faut faire des compromis, faire preuve de patience, être à l'écoute des besoins et des intérêts d'autrui, pas seulement des nôtres. Par contraste, les avatars IA offrent une solution de moindre effort. Il n'y a jamais de désaccord inconfortable, jamais de besoins contradictoires. Ces avatars n'exigent jamais de faire le difficile travail émotionnel inhérent aux amitiés véritables.
Nous devons élargir notre compréhension de ce que sont les médias sociaux. Ces espaces fondés sur l'IA repoussent la frontière des dommages potentiels. La facilité factice des relations virtuelles effrite encore plus la capacité et la volonté des enfants de nouer des rapports humains réels. Si nous ne faisons rien maintenant pour comprendre et réglementer ces technologies, nous courons le risque d'être désagréablement surpris par leurs impacts, comme nous l'avons été par ceux des plateformes de médias sociaux.
En conclusion, les problèmes associés aux médias sociaux sont le reflet de problèmes sociaux plus larges. Les adultes qui subissent le plus durement les effets négatifs des médias sociaux sont souvent les laissés pour compte de la société sur le plan géographique, physique ou économique. La socialisation en personne entraîne des coûts réels — il faut payer pour le transport, les activités, y consacrer du temps —, alors que la socialisation en ligne semble à première vue gratuite. Le coût réel se fait sentir sur la santé mentale, le développement et les relations humaines.
De plus, et c'est peut-être le plus important, il est fort probable que les enfants les plus vulnérables et les plus marginalisés soient aussi les plus susceptibles d'être happés dans la spirale de ces espaces virtuels, autant les médias sociaux traditionnels que les espaces fondés sur l'IA. Souvent, ces enfants ont moins d'interactions en personne et moins souvent accès à des activités supervisées en raison du manque de ressources. Ils reçoivent aussi moins souvent les conseils de mentors adultes qui peuvent les aider à composer avec les défis de grandir, ou leur expliquer le contexte et leur procurer du soutien quand ils subissent des préjudices en ligne.
Nous devons agir maintenant pour offrir aux enfants des espaces numériques appropriés et sûrs, car leur capacité de nouer de véritables relations et de communiquer va façonner le monde dans lequel nous allons vivre dans les prochaines décennies.
Merci.
:
Je m'appelle Marni Panas. J'utilise le pronom « elle ». Je suis une spécialiste en inclusion agréée au Canada. J'ai piloté la conception d'activités sur la diversité et l'inclusion pour les Services de santé de l'Alberta, le plus important fournisseur de soins de santé au Canada. Je suis la directrice de la diversité, de l'équité et de l'inclusion au sein de l'une des sociétés les plus respectées au Canada, et je préside le conseil d'administration du Centre canadien pour la diversité et l'inclusion.
Aujourd'hui, je vais m'exprimer en mon nom et parler de mes expériences personnelles. Je suis ici pour défendre avec vigueur le droit de tous les Canadiens à la liberté d'expression, qui est l'essence même de notre démocratie. Malheureusement, comme des millions d'autres personnes, je n'ai pas cette liberté d'expression parce que dans le cyberespace, il est plus sûr d'être raciste, homophobe, sexiste et transphobe que d'être noir, gai, une femme ou transgenre. La haine en ligne est réelle. Elle se déploie dans nos rues. Elle met les Canadiens en danger dans la vraie vie.
En septembre 2021, je suis montée sur une scène dans ma ville d'origine de Camrose, en Alberta, pour prononcer une conférence sur l'inclusion des personnes LGBTQ2S+. J'ai présenté cette conférence à des milliers d'étudiants, de professionnels de la santé et de dirigeants partout dans le monde. Quand j'étais sur la scène, un étudiant radicalisé par la haine en ligne, à l'instar de bien des jeunes, a diffusé ma conférence en direct, à mon insu, sur Facebook et plusieurs autres plateformes virtuelles d'extrême droite. Quand j'ai quitté la scène, des milliers de personnes avaient déjà publié des commentaires sur mon apparence, mon identité et ma famille. Les pires comprenaient des menaces et des avertissements de surveiller mes arrières. Ma conférence suivante a été annulée. Des policiers ont dû m'escorter pour que je puisse quitter le campus en toute sécurité.
En mars 2023, j'ai été invitée à participer à un groupe qui soulignait la Journée internationale des femmes en faisant de la sensibilisation sur un organisme de Calgary dont la mission est de protéger les femmes et les enfants contre la violence familiale. Étant donné que j'avais reçu beaucoup de menaces de violence en ligne, le Service de police de Calgary et le service de protection de mon employeur ont dû m'escorter à mon arrivée et à ma sortie de la bibliothèque publique de Calgary où avait lieu l'événement.
En février dernier, des gens enhardis par l'entrée en vigueur de la législation contre les personnes transgenres en Alberta nous ont harcelées et menacées en ligne, moi et d'autres personnes, avec une hargne que je n'avais jamais vue avant. Ils ont même tenté de m'intimider en contactant mon employeur. Je suis reconnaissante du soutien que j'ai reçu de mon employeur actuel, qui a de nouveau dû intervenir pour me protéger.
Ceux qui déversent leur haine en ligne sont rarement les plus dangereux, mais les mots ne sont jamais que des mots. Les gens qui lisent, qui entendent et qui croient les discours haineux sont ceux qui en viennent à passer à l'acte. Ces mots et les actes qu'ils provoquent m'ont suivie dans ma communauté, mon lieu de travail et même chez moi. Les conséquences du harcèlement constant que je subis parce que je vis en étant moi-même publiquement, avec fierté et bonheur, ont des conséquences profondes sur ma santé mentale, mon bien-être et mon sentiment de sécurité dans mon lieu de vie et au travail. Elles font en sorte que je vis en retrait des communautés auxquelles je suis attachée et que je me demande, chaque fois que quelqu'un me reconnaît sur la rue, si ce sera le moment fatidique où la haine en ligne se mutera en violence physique réelle. Jamais je ne me suis sentie aussi peu en sécurité dans ma communauté et mon pays.
Donc non, je n'ai pas droit à la liberté d'expression. La visibilité a un prix. La prise de parole a un prix. La comparution devant vous a un prix puisque la réunion est diffusée en ligne. La plupart du temps, le jeu n'en vaut pas la chandelle. Les gens trop souvent muselés sont pourtant ceux qui ont désespérément besoin des plateformes en ligne pour trouver une communauté et du soutien. C'est encore pire quand ces mêmes plateformes ne font rien contre la désinformation qui vise à déshumaniser et à diaboliser les personnes LGBTQ2S+, et qui contribue à une hausse marquée de la violence contre ces personnes, comme l'a souligné le Service canadien du renseignement de sécurité l'an dernier.
Le statu quo n'est plus tolérable. Les plateformes doivent être tenues responsables du contenu haineux qu'elles hébergent et de la désinformation dont elles autorisent la diffusion. Le gouvernement fédéral doit agir. Nous ne pouvons plus attendre. On m'a qualifiée de brave, de courageuse et même de résiliente, mais je préférerais être simplement en sécurité. Les gens ont le droit de vivre librement, sans avoir peur à cause de ce qu'ils sont et de qui ils aiment. C'est vrai aussi pour les espaces virtuels. C'est essentiel pour nos communautés et notre démocratie.
Préservez la liberté d'expression. Adoptez le projet de loi et protégez-nous de toute forme de préjudice en ligne.
[Français]
Je vous remercie.
:
Madame la présidente, distingués membres du Comité permanent de la justice et des droits de la personne, je vous remercie de l'occasion que vous me donnez de prendre la parole.
Premièrement, j'aimerais rappeler qu'au Canada, le cadre juridique traite l'exploitation et la violence sexuelles contre les enfants par l'entremise du Code criminel et de la loi sur la protection des enfants contre l'exploitation sexuelle. Toutefois, nous ne devrions pas nous fier au devoir général de diligence des plateformes Internet. Une loi devrait exiger le repérage ainsi que le signalement et le retrait immédiats des images sexuellement explicites illégales. Nous devons instaurer une réglementation qui permet d'atteindre ces objectifs et appliquer le principe de la sécurisation dès la conception.
Deuxièmement, il est énoncé dans le projet de loi qu'il a pour objectif de réduire les préjudices qui sont causés aux personnes par le contenu préjudiciable en ligne et de veiller à ce que les exploitants de services de médias sociaux rendent des comptes à l'égard des obligations qui leur incombent au titre de la loi. Cet énoncé pose problème. Toutes les plateformes Internet devraient être tenues responsables, pas seulement les sites de médias sociaux. Il suffit de trois clics de souris pour accéder à des images de violence sexuelle contre des enfants ou à du matériel d'exploitation sexuelle d'enfants sur les sites Internet courants, y compris des images générées par l'intelligence artificielle accessibles sur un nombre incalculable de plateformes, dont le Web caché. Des assistants personnels intelligents sont camouflés dans des sites Web et intégrés à des émojis et à des liens cachés qui obligent l'internaute à suivre un chemin numérique qui peut disparaître dès qu'il clique sur le lien suivant.
En 2022, l'Internet Watch Foundation, ou IWF, a établi une hausse de 360 % des signalements de contenus autogénérés de violence sexuelle contre des enfants de 7 à 10 ans, qui sont plus répandus que les contenus qui ne sont pas autogénérés. Cette tendance s'est poursuivie en 2023, année au cours de laquelle l'IWF a haché 2 401 images et vidéos sexuellement explicites autogénérées d'enfants de 3 à 6 ans. Dans 91 % des cas, les images montraient des fillettes prenant des poses sexuelles et exhibant leurs parties génitales à la caméra. Il est normal pour un enfant d'être curieux, de vouloir découvrir son corps ou faire des expériences sexuelles, mais ce n'est pas ce type de contenu que l'IWF a découvert. Ce qui choque, c'est l'accès non supervisé des enfants à des dispositifs numériques.
Troisièmement, il faut des lignes directrices sur la protection de l'enfance qui viseront la réglementation des services et l'établissement d'un âge du consentement eu égard au traitement des données et à l'utilisation des médias sociaux. Il faut impérativement empêcher l'accès à certains contenus. La prudence s'impose pour ce qui concerne l'adoption d'une réglementation fondée sur des précédents établis dans d'autres pays. Il faut examiner l'ensemble des lois, des conventions et des traités internationaux. On trouve un principe directeur important à l'article 5 de la Convention relative aux droits de l'enfant des Nations unies, qui souligne l'importance de tenir compte du stade de développement des capacités de l'enfant quand il interagit dans le monde virtuel.
Quatrièmement, le Canada devrait‑il établir un bureau, une commission et un ombudsman de la sécurité numérique? Y aurait‑il des avantages à établir un bureau de la sécurité en ligne et un commissariat ou un ombudsman pour défendre les droits des enfants au Canada? La réponse est oui. Plusieurs pays ont tracé la voie pour nous. Ils font partie d'un réseau mondial de réglementation de la sécurité en ligne. Ce réseau travaille à l'élaboration d'une approche concertée des enjeux de sécurité en ligne. Malheureusement, le Canada n'en fait pas partie.
J'ai été invitée à participer à un sommet mondial qui a eu lieu à Abu Dhabi la semaine dernière. Ce sommet était commandité par WeProtect et le gouvernement des Émirats arabes unis. J'étais l'unique représentante du Canada en matière de protection de l'enfance. Je souligne que je suis porte-parole d'une tierce partie autofinancée.
J'aimerais conclure par quelques réflexions.
Il a fallu 50 ans après l'invention de la presse de Gutenberg pour créer 20 millions de livres. Il a fallu 10 ans à Ford pour fabriquer 10 millions de modèles T. Il a fallu environ 2 ans au magazine Playboy pour vendre plus d'un million de copies par mois. Il a fallu 2 ans pour que le réseau mondial Internet, créé en 1995, atteigne 20 millions d'utilisateurs. Il a fallu 10 mois à Facebook pour atteindre un million d'utilisateurs. À l'heure actuelle, l'écosystème de Meta — y compris Instagram, WhatsApp et Messenger — a environ 2,93 milliards d'utilisateurs actifs chaque jour.
Il faut combler le fossé entre l'évolution rapide d'Internet et de l'accès à ce réseau et la réglementation nécessaire. Nous devons mettre de côté la partisanerie et l'incivilité pour mettre en place l'importante réglementation qui assurera la protection des enfants et des personnes vulnérables.
:
C'est une excellente question.
Un des défis inhérents à l'élaboration de ce genre de mesures de réglementation d'Internet est lié à l'évolution très rapide de la technologie. Par exemple, les Européens proposent actuellement d'interdire les fonctionnalités addictives. Or, dans le domaine technologique, il peut être très difficile de définir ce qu'est une fonctionnalité addictive. Le plus souvent, quand on indique à ces entreprises technologiques ce qui est interdit, la définition est très précise et donc facile à comprendre, et des ajustements minimes suffisent pour contourner l'interdiction, soit la définition est si générale qu'il est impossible de déterminer ce qu'est une fonctionnalité addictive.
Le devoir de diligence offre un compromis assez souple, qui permet d'exiger une démonstration proactive de la prise en compte des besoins des enfants et de l'adhésion au principe de la sécurisation dès la conception.
:
Oui, je sais que le mieux est l'ennemi du bien. Nous avons besoin du bien maintenant.
Le fait est que si les plateformes en ligne respectaient leurs propres normes de pratique et les normes de la collectivité qu'elles ont déjà mises en place, nous n'en serions probablement pas là. Elles proposent toutes d'excellentes normes de pratique, mais chaque fois que je signale quelqu'un qui ne les respecte pas, on les ignore. On nous ignore. Nous avons besoin de mesures maintenant. Des vies sont perdues à cause de cela.
Il importe de se souvenir que de nombreux jeunes trouvent une collectivité sur les plateformes en ligne. C'est essentiel pour les populations rurales et pour les gens comme moi. La première fois que j'ai trouvé quelqu'un comme moi, que j'ai réalisé pour la première fois de ma vie que je n'étais pas seule et que d'autres personnes me ressemblaient a été un moment salvateur pour moi. C'était il y a 20 ans, au début d'Internet. Cela m'a sauvé la vie.
Nous devons protéger ces espaces pour que les jeunes et les gens puissent trouver des liens sociaux sains et positifs. Cet espace leur a été volé. Les conséquences sont la violence, la mort, l'isolement, la solitude et le fait de devoir cacher les éléments les plus importants de son identité. Il faut que cela change maintenant. Nous ne pouvons plus attendre. Trop de vies ont été interrompues. Trop de vies ont été perdues à cause des préjudices subis en ligne.
:
Merci beaucoup, madame la présidente.
J'aimerais remercier tous les témoins qui se sont joints à nous pour nous aider à mener à bien notre étude.
Madame Panas, j'aimerais commencer par vous.
Je vous remercie d'être venue et d'avoir expliqué en quoi votre vécu — votre expérience de vie — fait de cette approche un élément très important dont nous devons tenir compte. Souvent, lorsqu'un parti présente une idée d'orientation sur la réglementation d'Internet ou des espaces en ligne, la première accusation portée contre les décideurs politiques est qu'ils suppriment la liberté de parole et d'expression, mais je pense que vous avez très clairement expliqué comment, en ne faisant rien... Le statu quo compromet en fait votre liberté d'expression à l'heure actuelle.
Je voudrais parler de ce concept d'espace public ou de place publique. Lorsque nous sommes dans une salle, comme c'est le cas en ce moment, tout le monde a une voix égale et nous pouvons tous nous entendre de la même manière, mais dans un espace en ligne, en particulier sur les plateformes de médias sociaux, la plateforme elle-même n'est pas un spectateur passif. Elle peut promouvoir activement le contenu, ou bien elle peut activement le mettre dans certains coins et diriger les gens vers certains coins sombres d'Internet.
Je siège aussi au Comité de la sécurité publique. Nous avons étudié la manière dont nos adversaires étrangers utilisent les plateformes en ligne pour diffuser de la désinformation et les recoupements avec le sujet qui nous occupe sont assez nombreux. Des témoins nous ont parlé ici non seulement de la nécessité d'adopter une approche législative ou réglementaire, mais d'essayer d'inculquer une stratégie de littératie numérique.
Avez-vous des idées sur la manière de doter les Canadiens des compétences dont ils pourraient avoir besoin pour naviguer dans l'espace en ligne?
:
Merci beaucoup pour la question et pour les commentaires positifs.
Oui, c'est effrayant d'être ici. Ce n'est pas à cause de vous — vous êtes plutôt chaleureux — mais je sais qu'au moment où je quitterai cet espace... Je connais les gens qui me regardent en ce moment et je sais ce qui m'attend en ligne. Honnêtement, c'est terrifiant.
C'est une question tellement complexe. Internet est tellement complexe. La littératie en fait partie. Nous avons besoin d'une approche pluridimensionnelle pour la favoriser. Nous avons besoin d'aides à l'éducation, mais aussi de reddition de comptes en ligne.
Vous savez, quand je pense à la littératie, c'est un mot très intéressant. Par exemple, X a interdit le mot « cis » — « cisgenre », par exemple. C'est un mot latin. Il s'agit essentiellement d'un terme de biologie et de chimie, souvent ancré dans la science, qui a été interdit en raison des implications de la négation de l'existence des personnes transgenres. C'est là tout l'objectif.
La littératie dépendrait des plateformes pour promouvoir l'emploi d'un langage approprié au lieu d'interdire certains mots, une pratique qui sert en fait à m'éliminer de la société. Les gens ont besoin de littératie, mais les plateformes doivent être tenues comptables de favoriser une littératie appropriée.
Madame Haugen, j'aimerais vous poser la question suivante. Nous sommes actuellement dans une sorte d'impasse législative à la Chambre des communes. Pratiquement rien n'est accompli à la Chambre. C'est ainsi depuis la fin du mois de septembre. En fait, notre comité n'est même pas saisi du projet de loi . Il s'agit d'une étude préalable. Il n'est même pas rendu à l'étape de la deuxième lecture.
Le fait est que cette législature va bientôt manquer de temps. Le projet de loi n'est pas près d'atterrir sur le bureau de la gouverneure générale. Vous venez de parler de la rapidité avec laquelle cette technologie évolue. Il se peut que nous n'ayons pas de véritable approche législative de ce problème avant deux ou trois ans.
De quels éléments la future législature devra-t-elle tenir compte? Nous avons ce projet de loi , mais quels autres éléments devrions-nous peut-être envisager d'insérer dans un éventuel projet de loi?
:
L'une des raisons pour lesquelles je suis si enthousiasmée par l'approche adoptée par le Canada, c'est que vous avez organisé plus d'assemblées de citoyens que n'importe qui d'autre dans le monde. Vous avez réellement eu des conversations. Des groupes de Canadiens sont allés discuter des compromis à faire sur la manière d'aborder Internet. C'est ce qui en est ressorti, à l'exception des pièces jointes relatives au discours haineux qui ont été ajoutées à la fin. Par conséquent, je pense que le projet de loi dans son ensemble est assez solide. Il aborde un lot d'éléments fondamentaux dont il faut tenir compte.
Là où je vous encouragerais à faire preuve d'un peu plus d'ouverture d'esprit ou à préparer l'avenir, c'est en veillant à ce que le concept de plateforme sociale puisse évoluer. Par exemple, il est facile de se moquer de la réalité virtuelle à l'heure actuelle. Si vous vous promenez dans Meta Horizon Worlds, l'espace de réalité virtuelle de Facebook, vous verrez qu'il est rempli de personnes âgées de moins de 12 ans. La vérification de l'âge est importante pour cette raison. Les personnes qui parlent aux robots conversationnels pilotés par une IA ont en grande majorité moins de 18 ans.
Réfléchissez de manière un peu plus large à ce que signifie être social, car les enfants commencent à dire... Les jeux sont d'autres espaces qui sont effectivement des réseaux sociaux. Tant que vous réfléchissez de manière un peu plus large à ce qui se cache sous le capot, à la structure globale et que vous dites que nous devons avoir un devoir de diligence proactif et que nous devons nous soucier de la transparence et de ces enjeux, c'est ce qui est important.
:
Merci, madame la présidente.
Je remercie les témoins de leur présence. Je me fais l'écho de ma collègue, Mme Ferreri, qui a souligné l'importance de notre discussion.
Madame Haugen, je veux être sûr d'avoir bien compris: vous avez dit que vous ne connaissiez pas le projet de loi , qui vise ostensiblement le même résultat d'assurer la sécurité des enfants en ligne, mais en prévoyons des moyens très différents de ceux prévus dans le projet de loi . Il est regrettable que vous n'ayez pas eu l'occasion d'en prendre connaissance.
Peut‑on dire la même chose de vous, madame Selby, que vous ne connaissez pas le projet de loi ?
Je vais commencer par vous, madame Panas. J'ai écouté très attentivement votre déclaration liminaire. Vous avez réitéré dans certaines de vos réponses qu'en fin de compte, vous vous sentez en sécurité ici, mais qu'il n'en va pas de même lorsque vous quittez cet immeuble. Vous avez parlé des différentes formes de harcèlement en ligne.
Soyons francs: c'est la réalité à laquelle les Canadiens sont confrontés. Cela ne s'applique pas nécessairement qu'aux enfants et aux adolescents. Cela vaut aussi pour les adultes. Le Code criminel du Canada renferme une définition juridique du harcèlement criminel, mais ce qui manque cruellement dans le Code criminel du Canada, ce sont des dispositions relatives au harcèlement en ligne. Malheureusement — et je remets ici directement en cause le gouvernement libéral —, le projet de loi ne contient aucune disposition relative au harcèlement en ligne. Le projet de loi , lui, en contient. Je ne sais pas si vous avez eu l'occasion de vous plonger dans le projet de loi C‑412 pour examiner les dispositions qui traitent du harcèlement en ligne.
La question que je vous pose, madame Panas, est la suivante: pensez-vous que les forces de l'ordre et les juges devraient disposer de plus d'outils pour délivrer des ordonnances de « non-communication » en cas de harcèlement criminel en ligne? Pensez-vous que c'est une bonne idée?
:
Merci, madame la présidente.
Je tiens à remercier tous les témoins de leur présence. Le sujet est très vaste.
Madame Panas, je reviendrai d'abord sur ce que vous avez dit. Vous avez parlé de se sentir à l'aise et en sécurité en ligne. Le jour de Noël dernier, j'ai publié une vidéo. Je me tenais devant l'arbre de Noël d'un centre communautaire et je souhaitais à tout le monde un joyeux Noël. Les 5, 6 ou 10 premiers commentaires étaient: « J'espère que vous perdrez les prochaines élections », « Pourris en enfer » — bla bla bla — et c'étaient les plus gentils, mais je ne me suis pas laissé atteindre. J'ai le dos large. Cela n'a pas d'importance. Ce n'est pas l'objet de ce projet de loi. Ce projet de loi vise à protéger les personnes qui n'ont pas cette capacité et qui sont les plus vulnérables.
Je voudrais revenir sur ce que M. Brock essayait de faire. Je tiens à vous remercier pour vos réponses concernant la différence entre le projet de loi , que vous soutenez, et le projet de loi , que je considère comme étant... Eh bien, ce que je pense n'a pas d'importance. Des témoins nous ont dit qu'il était beaucoup trop étroit et qu'il ne permettait pas de réaliser nos objectifs. Selon un témoin, le projet de loi confond le droit de la responsabilité civile et le droit pénal, et je suis d'accord.
Je tiens à aborder ce point d'emblée. Si quelque chose d'offensant est publié en ligne et que cela implique certaines des choses dont nous parlons — je ne citerai pas d'exemples —, le projet de loi prévoit une méthode pour faire retirer immédiatement ce contenu d'Internet. Comparez cela à la soi-disant solution du projet de loi qui exigerait que la personne retienne les services d'un avocat, prépare une sorte de demande ou de requête, s'adresse à un juge et essaie de le convaincre que ce contenu devrait être retiré.
Tout d'abord, il s'agit des personnes les plus vulnérables, qui ne savent pas comment trouver un avocat, qui n'ont pas les moyens de s'en payer un, qui doivent trouver un avocat qui sait comment s'y prendre et comparaître devant un juge qui n'a aucune expertise en la matière. C'est une farce insultante déguisée en politique. C'est inefficace. J'aimerais qu'il n'en soit plus question.
Je suppose que vous êtes d'accord avec cela, madame Panas. Vous avez déjà souligné l'importance de pouvoir agir rapidement.
:
Merci, madame la présidente.
Mesdames Haugen et Selby, j'aimerais en fait poursuivre sur le même sujet. L'un de nos témoins précédents, le Centre canadien de protection de l'enfance, demande expressément que les services de messagerie privée et certains aspects des fonctions de messagerie privée fassent l'objet d'une réglementation.
C'est difficile. Pour donner un exemple personnel, j'ai des jumeaux de 12 ans. Ils sont sur Messenger Kids. Nous les avons initiés avec des iPads. Nous ne sommes pas encore prêts à passer au téléphone portable. Je suis sûre que je vis la même chose que beaucoup de parents. C'est la nouvelle frontière. Lorsqu'ils auront leur propre téléphone portable, comment puis‑je être sûr que ces services de messagerie les protégeront?
Madame Haugen, vous avez renvoyé à Instagram, mais les entreprises de médias sociaux en font-elles assez? Devons-nous adopter cette approche réglementaire?
J'aimerais vous entendre toutes les deux — Mme Haugen d'abord, puis Mme Selby — nous donner un peu de contexte.
:
Nous reprenons maintenant pour notre deuxième groupe.
[Français]
Nous accueillons maintenant M. Andrew Clement, professeur émérite à la Faculté de l'information de l'Université de Toronto, qui comparaît à titre personnel et qui témoignera par vidéoconférence.
[Traduction]
J'espère que tout le monde est en mesure de comprendre les deux langues et que vous avez sélectionné la langue de votre choix au bas de la page.
[Français]
Nous recevons aussi M. Guillaume Rousseau, qui est professeur titulaire et directeur des programmes de droit et politique appliqués de l'État à l'Université de Sherbrooke et qui participe à la réunion par vidéoconférence.
[Traduction]
Nous accueillons Joanna Baron, directrice exécutive de la Fondation constitutionnelle canadienne. Elle est présente en personne.
Veuillez attendre que je vous reconnaisse par votre nom avant de prendre la parole.
Chaque témoin disposera de cinq minutes au maximum pour ses remarques préliminaires.
Monsieur Clement, veuillez commencer par vos remarques préliminaires. Vous disposez de cinq minutes.
:
Merci, madame la présidente et membres du Comité, de me donner l'occasion de contribuer à votre importante pré-étude du projet de loi , la loi sur les préjudices en ligne.
Je suis Andrew Clement, professeur émérite à la faculté des renseignements de l'Université de Toronto, et je m'exprime en mon nom personnel. Je suis informaticien de formation et j'étudie depuis longtemps les implications sociales et politiques de l'informatisation. Je suis également grand-père de deux jeunes filles, et j'apporte donc un intérêt à la fois professionnel et personnel aux questions complexes auxquelles vous êtes confrontés.
Je me limiterai à combler une absence flagrante dans la première partie du projet de loi — que je soutiens généralement — à savoir la nécessité d'une transparence algorithmique. Plusieurs témoins ont soulevé ce point. Le travail de Frances Haugen est particulièrement important à cet égard.
Les opérateurs de médias sociaux, au sens large, fournissent à leurs utilisateurs un accès à de grandes quantités de divers types de contenus, mais ils ne sont pas simplement des pourvoyeurs passifs de renseignements. Ils sélectionnent activement ce contenu, rendant certains contenus inaccessibles tout en amplifiant d'autres contenus, en se basant principalement sur des calculs de ce à quoi les utilisateurs sont le plus susceptibles de répondre en cliquant, en aimant, en partageant, en faisant des observations, etc.
La priorité absolue des opérateurs est de faire en sorte que les internautes restent sur leur site et soient exposés à des publicités génératrices de revenus. En un clin d'oeil, ils sélectionnent le contenu spécifique à afficher à une personne en suivant des instructions précises, sur la base d'une combinaison des caractéristiques de la personne — par exemple, ses données démographiques, son comportement et son réseau social — ainsi que des caractéristiques du contenu, telles que les mots-clés, le potentiel de revenu et les étiquettes attribuées. C'est ce que l'on appelle une « pratique algorithmique de curation de contenu », ou « pratique algorithmique » en abrégé.
Ces pratiques algorithmiques déterminent ce qui apparaît le plus clairement dans le minuscule espace d'affichage des appareils personnels et guident ainsi les utilisateurs à travers le vaste éventail de possibilités de contenu. Associées à des fonctions interactives soigneusement conçues, ces pratiques de curation sont devenues si attrayantes, voire addictives, qu'elles retiennent l'attention des adolescents américains, entre autres, pendant près de cinq heures par jour. Fait troublant, le temps qu'ils passent sur les médias sociaux est fortement corrélé à des résultats défavorables en matière de santé mentale et à une augmentation rapide des taux de suicide à partir de 2012 environ. Nous avons entendu des témoignages saisissants à ce sujet de la part de vos autres témoins. Les grands opérateurs sont conscients des effets néfastes de leurs pratiques, mais résistent à la réforme, parce qu'elle porte atteinte à leurs modèles d'affaires.
Nous avons besoin de plusieurs approches pour promouvoir la sécurité en ligne, mais une meilleure compréhension des pratiques de curation algorithmique est certainement l'une des plus importantes.
Les Canadiens ont commencé à demander aux opérateurs d'être plus transparents sur leurs pratiques de curation. L'Assemblée des citoyens sur l'expression démocratique a recommandé que les fournisseurs de services numériques « soient tenus de divulguer [...] le fonctionnement interne de leurs algorithmes ». Les répondants à la consultation en ligne concernant ce projet de loi sur les préjudices en ligne ont noté « l'importance de [...] la transparence algorithmique lors de l'établissement d'un régime réglementaire. » Votre comité permanent jumeau, le Comité permanent de la sécurité publique et nationale, a formulé une recommandation similaire: « Que le gouvernement du Canada collabore avec les plateformes pour encourager la transparence algorithmique [...] afin d'améliorer les décisions en matière de modération du contenu. »
Au niveau international, les États‑Unis, l'Union européenne et d'autres pays ont élaboré ou sont en train d'élaborer des régimes réglementaires concernant les pratiques algorithmiques des plateformes en ligne. La plupart des grands services de médias sociaux ou des opérateurs en ligne au Canada opèrent également dans l'Union européenne, où ils sont déjà soumis à des exigences de transparence algorithmique que l'on retrouve dans plusieurs lois, notamment la loi sur les services numériques. Celle‑ci exige que « les plateformes en ligne [...] veillent systématiquement à ce que les destinataires de leur service soient correctement informés de la manière dont les systèmes de recommandation influent sur la façon dont les renseignements sont affichés et peuvent influencer la façon dont les renseignements leur sont présentés. »
Si le projet de loi oblige les opérateurs à fournir des renseignements détaillés sur les contenus préjudiciables accessibles sur le service, il reste étonnamment silencieux sur les pratiques algorithmiques qui sont essentielles pour déterminer l'accessibilité, la portée et les effets de ces contenus. Il est facile de remédier à cette lacune par des amendements: premièrement, en ajoutant une définition de « pratique algorithmique de curation de contenu », et deuxièmement, en ajoutant des exigences pour l'inclusion des pratiques algorithmiques de curation de contenu dans les plans de sécurité numérique à l'article 62 et dans les données électroniques accessibles aux personnes accréditées aux articles 73 et 74. Je proposerai une formulation d'amendement spécifique dans une soumission écrite.
Je vous remercie de votre attention et je répondrai volontiers à vos questions.
:
Bonjour à tous. Je vous remercie de m'avoir invité à parler du projet de loi .
Je vous prie d'excuser mon apparence. J'ai subi une opération chirurgicale hier en raison de laquelle je porte un pansement, mais, malgré quelques cicatrices sur la tête, tout va bien dans ma tête. Je devrais être en mesure de faire cette présentation et de répondre à vos questions.
En tant que juriste constitutionnaliste, je veux surtout attirer votre attention sur la question de la liberté d'expression et, comme je viens du Québec, je veux aussi attirer votre attention sur le fait que le projet de loi C‑63 ressemble beaucoup au projet de loi no 59, qui a été étudié au Québec en 2015 et en 2016.
Pour ceux qui, comme moi, ont mené une bataille contre le projet de loi no 59, c'est un peu le jour de la marmotte, puisqu'on retrouve dans le projet de loi des éléments extrêmement similaires, dont l'interdiction de discours haineux. Cela nous rappelle à quel point les compétences québécoises et les compétences fédérales ne sont pas toujours suffisamment exclusives et à qu'il y a beaucoup de chevauchements. J'arrête ici ma parenthèse sur le fédéralisme canadien, mais je souligne quand même au passage que je viens tout juste de déposer un rapport avec le Comité consultatif sur les enjeux constitutionnels du Québec au sein de la fédération canadienne. Si vous vous intéressez à cette question, sachez qu'un rapport vient d'être déposé au gouvernement du Québec.
Le projet de loi no 59 qui avait été étudié en 2015 et en 2016 interdisait les discours haineux, et cela avait été jugé très problématique en matière de liberté d'expression. Finalement, le gouvernement de l'époque avait décidé de mettre de côté une partie du projet de loi et de ne pas adopter le volet du projet de loi concernant les discours haineux pour garder l'autre partie du projet de loi, qui était beaucoup plus consensuelle et qui portait notamment sur l'encadrement des mariages de mineurs. En ce qui a trait au projet de loi C‑63, j'espère donc qu'on se prépare à un dénouement semblable.
Je pense que le projet de loi contient beaucoup d'éléments intéressants au sujet de la victimisation sexuelle et de la « pornodivulgation », qui me semble être le bon équivalent français du terme revenge porn. Tout ce volet sur la protection des mineurs et la protection contre la victimisation sexuelle m'apparaît très important. Par contre, tout ce qui concerne la haine m'apparaît beaucoup plus problématique.
Parfois, on parle de scinder le projet de loi en disant que la partie 1 ne pose aucun problème et que les parties 2 et 3 sont plus problématiques. Pour ma part, j'attire votre attention sur le fait que, même dans la partie 1, la définition de contenu préjudiciable inclut les contenus fomentant la haine. Même dans la partie 1, il y a ce mélange entre la question de la protection des mineurs contre certains éléments liés à la pornographie et la question de la haine. Selon moi, si on veut bien retravailler le projet de loi, il faut non seulement ne pas adopter les parties 2 et 3, mais également éliminer de la partie 1 ce qui concerne la haine.
Le problème de tout ce qui concerne la haine dans le projet de loi, c'est notamment le fait que la définition est très vague et très large. Pour définir la haine, on fait référence à la détestation et à la diffamation, mais, dans les définitions de détestation et de diffamation, on fait souvent référence à la haine. Tout cela est un peu circulaire. C'est très vague et, pour cette raison, il est très difficile pour un justiciable de savoir quelle est son obligation, de savoir ce qu'il peut dire et ce qu'il ne peut pas dire.
Je comprends que cette définition est inspirée de l'affaire Whatcott de la Cour suprême, mais il y a deux problèmes à cet égard.
D'abord, cette définition a été donnée dans le cadre d'une affaire liée aux droits de la personne; or, ici, on veut s'en inspirer en droit criminel. Sur le plan de la preuve, notamment, ces deux domaines sont fort distincts. Ensuite, je comprends pourquoi on s'inspire de la Cour suprême en ce qui concerne les définitions, car cela fait que la disposition de la loi a moins de chances d'être invalidée. Je le comprends sur le plan technique, mais sur le fond, une définition qui n'est pas claire et qui n'est pas bonne n'est pas claire et n'est pas bonne, même si elle émane de la Cour suprême.
J'ai envie de vous répéter cette phrase célèbre: la Cour suprême n'est pas sans appel parce qu'elle est infaillible, elle est infaillible parce qu'elle est sans appel.
Comme législateurs, vous devez donc vraiment vous demander si la définition est claire plutôt que vous demander seulement si c'est la définition de la Cour suprême. À la limite, si vous tenez absolument à avoir une définition inspirée de la Cour suprême, je vous recommanderais plutôt celle de l'arrêt Keegstra, qui est plutôt une décision en matière criminelle. Elle est un peu plus claire et un peu moins problématique que la définition inspirée de l'affaire Whatcott.
Cela dit, si vous allez dans le sens de ce que je propose et que vous retirez le volet sur la haine dans le projet de loi, cela soulèvera la question suivante: si on fait un projet de loi plus ciblé sur la victimisation sexuelle et la protection des mineurs, aura-t-on besoin d'une commission, d'un ombudsman, d'un bureau et de toute la bureaucratie qui est prévue alors que l'objet de la loi est plus limité? Il faudra donc repenser le projet de loi pour qu'il soit moins bureaucratique.
Enfin, j'attire votre attention sur le fait qu'il faudrait ajouter au projet de loi l'abolition des exemptions qui permettent, au nom de la religion, de tenir des discours haineux. On parlait tantôt du projet de loi et du projet de loi , mais il y a également le projet de loi , que je vous invite à étudier.
Je vous remercie.
:
Bonjour. Je vous remercie de me donner l'occasion de m'exprimer devant ce comité.
Je représente la Fondation constitutionnelle canadienne, un organisme national de bienfaisance juridique qui défend les libertés fondamentales. Nous avons participé aux arrêts Whatcott, Fleming, Ward et à d'autres arrêts déterminants de la Cour suprême du Canada sur la liberté d'expression. Nous considérons que ce projet de loi, le projet de loi , représente une grave menace pour le droit de tous les Canadiens à la liberté d'expression et à une démocratie florissante.
Nous saluons l'annonce du selon laquelle il a l'intention de scinder le projet de loi en ce qui concerne les parties 1 et 4, mais nous restons préoccupés par la constitutionnalité de certains aspects de la partie 1, ainsi que des parties 2 et 3 dans leur intégralité.
J'aborderai tout d'abord les parties du projet de loi qui étendent les sanctions pour les infractions liées au discours de haine, y compris les « contenus nuisibles » et les « contenus qui fomentent la haine ». Je fais référence à la fois au mandat du nouveau commissaire à la sécurité numérique, créé dans la partie 1 du projet de loi, et aux sanctions élargies pour les crimes haineux dans la partie 2.
La partie 1 du projet de loi impose à un opérateur de « mettre en œuvre des mesures adéquates pour atténuer le risque que les utilisateurs [...] soient exposés à des contenus préjudiciables ». Cela inclut les « contenus qui fomentent la haine ». Cet agent coûtera environ 200 millions de dollars sur cinq ans et imposera aux plateformes des amendes pouvant atteindre plusieurs millions de dollars.
La deuxième partie du projet de loi, quant à elle, renforce les sanctions pour les crimes haineux existants, notamment la promotion du génocide, désormais passible d'une peine pouvant aller jusqu'à la réclusion à perpétuité. Elle crée également une nouvelle infraction autonome, à l'article 320.1001, pour toute infraction fédérale motivée par la haine, désormais passible d'une peine pouvant aller jusqu'à l'emprisonnement à perpétuité.
Comme l'a mentionné le témoin précédent, et je suis d'accord avec bon nombre de ses observations, le discours de haine est un concept intrinsèquement subjectif. Ces peines et obligations réglementaires élargies présentent un risque de disproportion flagrante et de refroidissement excessif de l'expression protégée. Dans l'arrêt Whatcott, la Cour suprême du Canada a déclaré que la haine n'englobe que les « manifestations les plus extrêmes [capturées] par les mots 'détestation' et 'diffamation' ». Seul ce type de discours peut être pénalisé sans violer la Charte.
Le projet de loi adopte cette formulation dans le paragraphe 319(7) proposé: « la haine s'entend de l'émotion qui implique la détestation ou la diffamation ». Mais « détestation » n'est en fait qu'un synonyme de « haine », et la diffamation est un concept hautement subjectif. Nous vivons actuellement une période de désaccords passionnés et souvent difficiles dans notre société, où de nombreuses affirmations sont formulées et comprises différemment selon le contexte.
Par exemple, le fait de qualifier quelqu'un de sioniste peut être considéré comme une diffamation ou, de manière plus douteuse, comme une promotion du génocide, ou encore comme un éloge, selon l'orateur et l'auditoire. Il y a quelques jours, une ancienne productrice de la CBC, Shenaz Kermalli, a accusé le d'expression haineuse pour avoir posé avec une personne portant un sweat-shirt « F Hamas » sur les médias sociaux. C'est le problème de la criminalisation du langage. Il est subjectif. Il change en fonction du contexte.
Ces préoccupations deviennent pressantes avec les sanctions élargies proposées dans la partie 2. Même si l'on peut compter sur nos juges pour respecter les principes de proportionnalité lorsqu'ils condamnent un délinquant en vertu de l'article 320, par exemple, l'éventail des peines prévues par la loi comprendra désormais l'emprisonnement à vie. Ce n'est pas une possibilité frivole que les procureurs puissent renvoyer les juges à un éventail de peines allant jusqu'à l'emprisonnement à vie pour un crime tel que le vandalisme s'il est allégué que le crime a été motivé par la haine.
En réalité, il est pratiquement impossible d'identifier à l'avance, de manière prévisible, la ligne qui sépare le discours haineux simplement « horrible mais légal » du discours haineux criminel. Ce manque de clarté constitue une menace urgente pour le discours en ligne, qui est notre place publique actuelle et qui devrait accueillir ce type de désaccord passionné et contradictoire. Lorsque ce type de sanctions est en jeu, tout le monde est incité à la prudence. Les plateformes signaleront et supprimeront les contenus qui sont en fait des expressions protégées, et les personnes s'autocensureront.
Enfin, j'aborderai brièvement la troisième partie du projet de loi. Elle rétablit un recours civil pour les discours haineux en ligne, qui permet aux membres du public de porter plainte devant la Commission canadienne des droits de la personne. Cela serait désastreux. Vous ne devez pas aller de l'avant avec cette proposition. Même si la plupart des cas présumés sont rejetés parce qu'ils n'atteignent pas le seuil du discours de haine, les sanctions pour les personnes jugées responsables — jusqu'à 50 000 $ versés au gouvernement plus 20 000 $ à la victime — sont suffisamment sévères pour que nous puissions en déduire que le nouveau régime conduira à un grand nombre d'atténuations de l'expression par crainte de contourner la ligne de démarcation. Il portera gravement atteinte à la liberté de la presse de publier des opinions controversées, qui sont nécessaires à l'épanouissement de la société civile. Enfin, la procédure est synonyme de sanction, même si l'affaire n'est pas poursuivie. Nous verrons de plus en plus de personnes punies pour avoir exprimé des opinions protégées.
Je vous remercie. Vos questions sont les bienvenues.
:
Merci, madame la présidente.
Je salue tous nos témoins.
Monsieur Rousseau, c'est un plaisir de vous recevoir. Je vous souhaite une bonne convalescence et un prompt rétablissement.
Vous avez dit, dans vos remarques préliminaires, que la création d'un poste d'ombudsman et de la commission ne ferait qu'augmenter la bureaucratie. Je ne sais pas si vous étiez ici, mais nous venons d'entendre Mme Panas nous dire que sa vie est difficile tous les jours, qu'elle subit de la haine en ligne et sur la rue et qu'il n'y a pas de processus en place actuellement, ce qui est un vrai problème. Ce processus améliorerait donc grandement les choses.
J'aimerais entendre vos commentaires là-dessus.
:
Je vous remercie de votre très bonne question. Je l'apprécie particulièrement, puisqu'elle a été posée par la députée de Sherbrooke, par la députée qui me représente.
Si le Comité acceptait ma recommandation et décidait que le projet de loi ne devait porter que sur la question de la victimisation sexuelle et de la pornodivulgation, au lieu d'y inclure aussi le volet relatif à la haine, c'est là que la question de la bureaucratie se pose. Le fait d'avoir mélangé la question de la victimisation sexuelle avec celle de la haine est problématique, puisqu'on peut être d'accord sur une partie, mais pas sur l'autre. On mélange deux débats qui n'ont pas nécessairement de lien. Par contre, cette approche a l'avantage de faire en sorte qu'il y a un volume d'affaires qui justifie peut-être davantage la création de la commission, de l'ombudsman et du bureau. C'est ce sur quoi je voulais attirer votre attention.
Considérant les différents points de vue et les défis relatifs à la liberté d'expression, vous pourriez vous en sortir en vous concentrant sur la victimisation sexuelle. Cela justifie-t-il cette question qui est plus ciblée et très importante? Cela justifie-t-il la création de ces trois organismes? C'est surtout là-dessus que j'attire votre attention. Si on cherche d'autres voies que la création de cette bureaucratie, on peut penser à des recours juridiques par des particuliers, comme le permettent souvent les lois. Une personne pourrait entamer une poursuite. Si elle a été victime ou si elle a subi des dommages, elle pourrait avoir tendance à utiliser ce genre de recours. Par contre, cela soulève d'autres questions, comme l'accès à la justice.
Une autre voie possible serait d'imaginer un fonds consacré aux victimes de pornodivulgation ou, plus largement, de discours haineux. Cela pourrait faciliter l'accès à la justice.
:
Je vous remercie de votre réponse.
Nous avons entendu parler une maman dont la petite fille a subi des abus. La famille est actuellement en cour. Comme mon collègue le mentionnait plus tôt, il arrive parfois que les gens ne sachent pas à qui s'adresser ou qu'ils n'aient pas nécessairement l'argent pour entamer des poursuites.
Ne pensez-vous pas qu'il s'agirait d'une façon de leur apporter de l'aide? Je pense qu'on sous-estime l'ampleur du problème quand on n'est pas pris dans ces réseaux ou dans ces plateformes ou que nos enfants ne sont pas nécessairement touchés par tout ce qui se passe en ligne.
Les témoignages que nous avons entendus jusqu'à maintenant sont horribles. Cela brise le cœur. Notre objectif, c'est d'être là pour protéger nos enfants, pour aider les familles et pour faire en sorte de diminuer la haine en ligne, à tout le moins, si on n'est pas capable de l'éradiquer.
Aidez-nous à trouver la bonne façon de le faire.
:
Ce que vous dites est très juste. Si on crée ces trois organismes, il faudra s'assurer qu'il y a un certain volume d'affaires. Si on s'occupe de la question plus ciblée de la victimisation sexuelle et qu'on met de côté celle du contenu haineux, y aura-t-il un volume d'affaires suffisant pour justifier la création de ces trois organismes? C'est la question que je voulais vous soumettre.
Cependant, à l'autre bout du spectre, le danger est qu'il y ait, au contraire, un trop grand volume d'affaires. Si on ajoute le volet du discours haineux à celui de la victimisation sexuelle, puisque la définition du contenu préjudiciable est très large, on risque alors de se retrouver avec un nombre extrêmement élevé de justiciables qui vont porter plainte. Il pourrait alors y avoir de très longs délais. Généralement, les tribunaux administratifs offrent un accès à la justice un peu plus rapide et moins onéreux que les tribunaux judiciaires, mais certains tribunaux administratifs sont quand même submergés par les affaires et il y a des délais très importants. Il ne faut donc pas penser que, parce qu'on crée une voie administrative, il y aura nécessairement un accès à la justice. C'est difficile, mais il faut essayer de prévoir le volume d'affaires qu'on aura et les ressources dont on aura besoin.
On a dit que cela allait coûter environ 200 millions de dollars. Je pense que cette estimation vient du directeur parlementaire du budget. On pourrait penser qu'avec une telle somme, il y aura un traitement relativement rapide, mais la haine et la victimisation sexuelle en ligne sont des questions tellement vastes qu'il est tout à fait probable qu'il y ait un volume d'affaires extrêmement important, où certaines plaintes seront justifiées et d'autres moins, et qu'on se retrouve avec un problème d'accès à la justice. J'attire donc votre attention là-dessus.
:
Merci, madame la présidente.
Je souhaite la bienvenue aux trois témoins. C'est un beau groupe de témoins. Je suis content de les recevoir ici aujourd'hui. Je déplore seulement le fait que nous avons bien trop peu de temps pour poser des questions aussi importantes à des témoins aussi compétents.
Maître Rousseau, je vous souhaite aussi un prompt rétablissement. Je veux d'abord mentionner que nous n'avons pas reçu votre discours préliminaire. Ce n'est pas obligatoire de l'envoyer, évidemment, mais vous aviez des références intéressantes. Si vous avez la possibilité de nous le transmettre, je vous en serais donc très reconnaissant.
Je demanderais d'ailleurs la même chose à chacun des témoins.
Cela dit, maître Rousseau, je vais aborder la question de la définition de la haine. Vous nous avez dit qu'effectivement, il s'agit d'une définition plutôt problématique. Vous avez fait allusion à une décision de la Cour suprême qui contient, si j'ai bien compris, une définition qui pourrait être plus appropriée, mais je n'ai pas vraiment compris de quelle décision il s'agissait.
D'abord, pouvez-vous m'épeler le nom de la cause en question, pour que je puisse le noter convenablement?
Ensuite, quelle définition la Cour suprême proposait-elle à cet égard?
:
Je vous remercie de votre question.
Je crois que j'ai envoyé mes notes, mais peut-être trop tard. On m'a dit de les envoyer 72 heures à l'avance et je pense que je l'ai fait hier soir. C'est peut-être pour cela que vous ne les avez pas reçues. Elles devraient arriver avec un peu de retard. Dans le pire des cas, n'hésitez pas à m'écrire un courriel et je vous enverrai mes notes au cours des prochains jours.
La définition proposée par le projet de loi est inspirée du jugement rendu par la Cour suprême dans l'affaire Saskatchewan (Human Rights Commission) c Whatcott. À mon avis, cette définition est un peu trop large; elle fait allusion à la détestation et à la diffamation, dont la définition fait allusion à la haine. C'est donc une définition circulaire et vague. De plus, elle est tirée d'un jugement en matière de droits de la personne. Or on sait que les droits de la personne diffèrent du droit criminel, notamment en ce qui a trait à la notion d'intention. Dans le domaine des droits de la personne, lorsqu'il est question de discrimination, on s'intéresse surtout aux effets, sans égard à l'intention, alors qu'en droit criminel, l'intention est au cœur de la réflexion. Ce n'est donc vraiment pas la même logique. Voilà pourquoi il est problématique de créer une définition inspirée d'un jugement en matière de droits de la personne dans un projet de loi qui s'inscrit dans une logique plus pénale. De plus, la définition est trop large.
Moi, j'attire votre attention sur la décision dans l'affaire R. c Keegstra, qui a été rendue en 1990 et qui a été reprise dans l'affaire Mugesera c Canada (Ministre de la Citoyenneté et de l'Immigration). On y définit la notion de haine comme étant « une émotion à la fois intense et extrême qui est clairement associée à la calomnie et à la détestation ». Cela m'apparaît déjà un peu plus restreint que la définition du projet de loi, qui est inspirée de l'arrêt Whatcott, qui parle plutôt de détestation et de diffamation, puisqu'on parle ici du caractère intense et extrême de l'émotion. Déjà, le mot « extrême » permet d'éviter que ce soit interprété trop largement. Toutefois, là aussi, on parle de calomnie et de détestation, alors on a un peu le même problème. Je ne vous dis pas que la définition est parfaite, mais, puisqu'elle vient d'une affaire criminelle, elle est préférable à la définition donnée dans l'arrêt Whatcott.
:
Vous avez tout à fait raison.
Évidemment, le défi est de protéger des personnes vulnérables qui sont victimes de pratiques de pornodivulgation ou de discours haineux tout en protégeant la liberté d'expression. C'est votre défi.
Là où se traduit très concrètement cet équilibre, là où on peut le trouver, c'est dans la définition de la haine. La définition de contenu fomentant la haine et la définition de la haine sont au cœur de cet équilibre. J'attire votre attention sur le fait que vous devez définir cela de manière très précise. Cela concerne la liberté d'expression pour deux raisons.
Premièrement, si vous définissez trop largement le concept de haine, les tribunaux vont sanctionner des gens qui ont des propos tout juste acceptables qui, dans une démocratie libérale ouverte, devraient idéalement être tolérés. Il y a ce risque.
Deuxièmement, il y a un risque encore plus grand: si ce n'est pas clair, un justiciable qui souhaite s'exprimer ne saura pas exactement si son propos risque de tomber sous le coup de la loi ou pas. Un justiciable pourrait vouloir tenir un propos tout juste acceptable qui ne serait pas sujet à la loi. Or, puisque la définition n'est pas claire, il pourrait s'abstenir de tenir ce propos. Cet effet refroidissant est peut-être plus problématique que le risque que des tribunaux condamnent des gens pour des agissements qui devraient être protégés par la liberté d'expression.
:
Merci beaucoup pour cette question.
L'expression « intelligence artificielle » n'est pas très bien définie. Elle est utilisée de manière très large et a de multiples significations, mais nous pouvons la considérer comme un ensemble de techniques algorithmiques. Elle fait partie des pratiques algorithmiques de ces entreprises. Je préfère utiliser le terme « intensification algorithmique » plutôt que « intelligence », car ces algorithmes ne comprennent pas le contenu comme le font les humains, et leur capacité à modérer le contenu est donc très limitée, en particulier s'il doit être retiré.
L'IA est utilisée par les plateformes en particulier pour garder les gens sur leur site et pour que le contenu continue de circuler et que les gens cliquent, et ainsi de suite, et ils peuvent être très bons dans ce domaine parce qu'ils peuvent continuer à l'affiner. C'est un processus statistique. Par ailleurs, comme nous l'avons entendu, plus récemment avec l'IA générative, elle est utilisée pour créer des hypertrucages, qui peuvent être profondément trompeurs. Je pense qu'il est très important que les utilisateurs comprennent clairement qu'il ne s'agit pas d'une image réelle et authentique. Cela ne résout pas tous les problèmes — comme ces amis IA qui deviennent séduisants de diverses manières — mais c'est un début.
Madame Baron, je me tourne vers vous pour ma dernière question.
Dans vos remarques liminaires, vous avez parlé de l'importance de protéger la liberté d'expression et vous avez dit qu'il s'agissait de la nouvelle place publique. Une différence essentielle, cependant, est que contrairement à la place publique physique, la place publique numérique n'est pas un spectateur passif. Nous savons que sur les plateformes, ces algorithmes peuvent jouer un rôle en amplifiant certains contenus tout en en supprimant d'autres. Cela peut avoir pour effet très réel de pousser certaines personnes dans des recoins assez sombres.
Nous venons d'entendre un témoin dans le groupe précédent, un membre de la collectivité LGBTQ, qui a dit que sa capacité à s'exprimer librement avec le statu quo est entravée. Comment voulez-vous aborder cette question? Nous essayons de trouver un moyen d'avancer. Comment protéger sa capacité à s'exprimer librement, parce que le statu quo porte gravement atteinte à son droit?
:
Merci, madame la présidente.
Avant de poser des questions aux témoins, j'aimerais présenter la motion dont j'ai donné avis à la dernière réunion. Nous avons entendu des témoignages en début de semaine, et encore aujourd'hui, sur la croissance rapide des préjudices en ligne, en particulier pour nos enfants. Professeur Clement, je suis moi aussi grand-père et j'ai l'image de mes petits-enfants innocents à l'esprit lorsque j'entends ces témoignages, c'est pourquoi je suis très motivé pour faire fonction rapidement sur ce sujet. Il s'agit sans aucun doute d'une épidémie mondiale qui nécessite une action immédiate.
Heureusement, notre projet de loi d'initiative parlementaire conservateur, le projet de loi , aborde certaines de ces questions de manière immédiate. Par conséquent, madame la présidente, je propose la motion suivante, et nous demandons le consentement unanime: Que le Comité entreprenne d'urgence une étude préalable du projet de loi C‑412, Loi édictant des mesures de protection des mineurs à l'ère numérique et modifiant le Code criminel.
Je demande le consentement unanime à cet égard.
:
D'accord, c'est bien. Je vous remercie.
Merci à tous les témoins.
Madame Baron, j'ai une question à vous poser. Je lis un article que vous avez écrit et qui a été publié dans The Hub le 28 février de cette année. Vous avez dit: « L'Internet est un endroit hideux ». Je suis d'accord avec vous. Il y a beaucoup de bonnes choses, mais aussi beaucoup de laideur. Vous avez dit que la loi sur les préjudices en ligne est « un projet de loi profondément anti-liberté d'expression qui menace de sanctions draconiennes pour les discours en ligne, empêchant l'expression légitime par le simple spectre d'une plainte auprès de la Commission canadienne des droits de la personne ou de la nouvelle Commission de la sécurité numérique du Canada ».
Vous avez entendu que le ministre a supprimé les parties 2 et 3 de ce projet de loi, je suppose donc qu'il s'agit d'un projet de loi moins offensif. Voici ma question. À votre avis, si nous supprimions également la partie 1, de sorte qu'il ne reste que la partie 4, s'agirait‑il d'un bon projet de loi autonome? Pourrait‑il être combiné au projet de loi ?
:
Merci, madame la présidente.
Madame Baron, j'ai cru voir, sur votre page LinkedIn, que vous parliez français; je vais en profiter.
Je ne vous ferai pas répéter ce que vous avez déjà dit, mais j'aimerais vous emmener vers un autre sujet abordé par M. Rousseau, soit l'abolition des exceptions religieuses prévues au Code criminel.
Le projet de loi a été déposé, et celui-ci prévoit l'abolition des alinéas 319(3)b) et 319(3.1)b) du Code criminel. Ce sont des dispositions qui servent de défense à la tenue de discours haineux ou antisémites, dans la mesure où on se base sur un concept religieux auquel on croit et qu'on défend de bonne foi. Selon moi, la propagation de la haine m'apparaît un peu difficile à accepter dans le cadre d'une religion. Je dirais que 99 % des religions sont basées sur l'amour et le vivre-ensemble, et non sur la propagation de la haine.
Est-ce une bonne idée d'abolir ces défenses d'exception religieuse? J'aimerais vous entendre là-dessus.
:
Merci, madame la présidente.
Madame Baron, je souhaiterais vous poser une question concernant les responsabilités que les entreprises de médias sociaux devraient assumer. Un exemple a été donné dans le groupe précédent sur la façon dont Instagram a soudainement rendu privés les comptes de tous les utilisateurs de 16 ans ou moins, car des adultes parcouraient ces images et essayaient d'entrer en contact avec les jeunes adolescents. Instagram aurait pu le faire il y a 10 ans, mais ils l'ont fait maintenant parce qu'il y a la menace d'une réglementation.
Ces entreprises de médias sociaux ont des algorithmes qui peuvent amplifier certains contenus et en supprimer d'autres. Quel est votre point de vue sur le rôle du gouvernement pour faire en sorte que ces entreprises de médias sociaux aient des normes de pratique de base qui permettent aux gens de participer en ligne en toute sécurité? Encore une fois, c'est la liberté d'expression qui pourrait être compromise, les gens pouvant s'exprimer librement. La grande crainte est que cela puisse conduire à des manifestations physiques. Les gens ont l'impression que leur vie est en danger.
Que pensez-vous de la manière d'aborder la question de la responsabilisation des entreprises de médias sociaux pour rendre l'espace en ligne plus sûr?