Passer au contenu

JUST Réunion de comité

Les Avis de convocation contiennent des renseignements sur le sujet, la date, l’heure et l’endroit de la réunion, ainsi qu’une liste des témoins qui doivent comparaître devant le comité. Les Témoignages sont le compte rendu transcrit, révisé et corrigé de tout ce qui a été dit pendant la séance. Les Procès-verbaux sont le compte rendu officiel des séances.

Pour faire une recherche avancée, utilisez l’outil Rechercher dans les publications.

Si vous avez des questions ou commentaires concernant l'accessibilité à cette publication, veuillez communiquer avec nous à accessible@parl.gc.ca.

Publication du jour précédent Publication du jour prochain
Passer à la navigation dans le document Passer au contenu du document






Emblème de la Chambre des communes

Comité permanent de la justice et des droits de la personne


NUMÉRO 126 
l
1re SESSION 
l
44e LÉGISLATURE 

TÉMOIGNAGES

Le lundi 9 décembre 2024

[Enregistrement électronique]

(1600)

[Français]

    Je déclare la séance ouverte.

[Traduction]

    Bienvenue à la 126e réunion du Comité permanent de la justice et des droits de la personne de la Chambre des communes.
    À ce stade‑ci de la réunion, j'aimerais proposer l'adoption du budget de 23 250 $ pour la pré-étude sur le projet de loi C‑63. Je crois comprendre que le budget a déjà été distribué à tous les membres du Comité.
    Pouvez-vous lever la main si vous êtes d'accord?
    (La motion est adoptée.)
     Le vice-président (M. Larry Brock): C'est unanime. La motion est adoptée.
    Je vous remercie.
    Conformément à l'article 108(2) du Règlement et à la motion adoptée le 2 décembre 2024, le Comité se réunit en séance publique pour commencer son étude de l'objet du projet de loi C‑63, Loi édictant la Loi sur les préjudices en ligne, modifiant le Code criminel, la Loi canadienne sur les droits de la personne et la Loi concernant la déclaration obligatoire de la pornographie juvénile sur Internet par les personnes qui fournissent des services Internet et apportant des modifications corrélatives et connexes à d'autres lois.
    J'aimerais maintenant souhaiter la bienvenue à nos témoins pour la première heure.
    Nous accueillons les représentants du Barreau du Québec, qui témoignent par vidéoconférence: Me Catherine Claveau, présidente; Me Nicolas Le Grand Alary, du Secrétariat de l'Ordre et affaires juridiques; et Me Michel Marchand, membre du Groupe d'experts en droit criminel.
    Nous recevons en personne Mme Anaïs Bussières McNicoll, directrice du Programme des libertés fondamentales de l'Association canadienne des libertés civiles.
    Mesdames et messieurs les témoins et les députés, veuillez attendre que je vous nomme avant de prendre la parole. Pour ceux qui participent par vidéoconférence, veuillez vous assurer d'avoir sélectionné la langue de votre choix pour l'interprétation simultanée, qui se trouve dans le coin inférieur gauche de votre écran. Veuillez vous mettre en sourdine lorsque vous ne parlez pas.
    Je rappelle à tous les députés de ne prendre la parole qu'après avoir été interpellés par la présidence.
    Sans plus tarder, je vous cède la parole. Chaque témoin dispose de cinq minutes.
    Qui veut commencer?
    Mme Bussières McNicoll pourrait peut-être y aller.
(1605)

[Français]

    Je vous remercie de me donner l'occasion de vous faire part du point de vue de l'Association canadienne des libertés civiles, ou ACLC, sur le projet de loi C‑63.
    L'ACLC est une organisation nationale indépendante et non gouvernementale fondée en 1964. Son mandat est de défendre et de promouvoir les libertés civiles, les droits de la personne et les libertés démocratiques de toutes les personnes au Canada. La lutte en faveur d'une protection solide de la liberté d'expression, de la vie privée et des principes de justice fondamentale est au cœur de notre mandat.
    L'ACLC reconnaît l'importance d'initiatives législatives visant à protéger certains des membres les plus vulnérables de notre société contre des formes particulièrement préjudiciables de discours en ligne. En ce sens, l'ACLC reconnaît que certaines des obligations qui seraient créées par la partie 1 du projet de loi concernant les exploitants de services réglementés seraient les bienvenues. Toutefois, l'actuelle mouture de la Loi sur les préjudices en ligne prévoit également des obligations plus générales qui doivent être clarifiées et limitées adéquatement, à défaut de quoi elles soulèveront des problèmes, notamment en matière de liberté d'expression.
    Par exemple, l'obligation générale, prévue au paragraphe 55(1), de mettre en œuvre les mesures adéquates pour atténuer le risque que les utilisateurs d'un service soient exposés à du contenu préjudiciable a une portée trop vague. En l'absence de balises adéquates, les exploitants sont susceptibles de tenter de se conformer à cette obligation imprécise de la manière la plus efficace et la plus économique possible. Cela pourrait être fait aux dépens de la liberté d'expression des usagers, par exemple par le truchement de la surveillance proactive du contenu, ce qui, à ce stade, n'est pas interdit par la loi, ou encore par la suppression de contenu sur la base d'analyses algorithmiques non transparentes.
    L'obligation générale imposée aux exploitants de mettre en œuvre des outils et des processus pour signaler du contenu préjudiciable, prévue à l'article 59, souffre de lacunes similaires, elles aussi susceptibles de mettre en danger la liberté d'expression. Par exemple, la Loi sur les préjudices en ligne, telle qu'elle est rédigée, permettrait aux exploitants de supprimer plusieurs catégories de contenu signalé sans donner à leur auteur la possibilité de présenter son point de vue. En fait, pour plusieurs catégories de contenu, la loi, telle qu'elle est rédigée, permettrait même implicitement aux exploitants de supprimer du contenu signalé sans avoir déterminé au préalable si celui-ci correspondait effectivement à du contenu préjudiciable.
    Ces préoccupations peuvent être atténuées grâce aux recommandations 1 à 3 que nous avons décrites dans notre mémoire écrit. Nous y suggérons d'exiger des exploitants qu'ils remplissent leurs obligations légales sans se livrer à une surveillance de masse et sans limiter indûment la liberté d'expression des usagers. Nous recommandons aussi d'exiger de la Commission canadienne de la sécurité numérique, une nouvelle commission proposée dans le projet de loi, qu'elle s'assure, sur une base annuelle, que les exploitants se conforment bel et bien à leurs obligations en lien avec les droits des usagers.
    En ce qui a trait aux parties 2 et 3 du projet de loi, l'ACLC se réjouit de l'annonce récente du ministre de la Justice indiquant qu'il souhaite les retirer du présent projet de loi. Ce faisant, le ministre de la Justice accède à une demande formulée il y a plusieurs mois par l'ACLC et par plusieurs autres organisations de la société civile visant à s'assurer que l'étude de la partie 1 par ce comité ne soit pas éclipsée par des changements controversés au Code criminel et à la Loi canadienne sur les droits de la personne. L'ACLC est d'avis que les parties 2 et 3 du projet de loi ne devraient pas être adoptées par le Parlement.
    En ce qui a trait aux modifications proposées au Code criminel, la nouvelle infraction motivée par la haine augmenterait de manière irrationnelle la peine maximale associée à toute infraction au Canada jusqu'à l'emprisonnement à vie. Cette exorbitante discrétion judiciaire ouvrirait la voie à des peines disproportionnées et à une augmentation du nombre de négociations de plaidoyers de culpabilité par des accusés innocents et vulnérables. Elle limiterait aussi la liberté d'expression au Canada.
    L'ACLC s'oppose également à la disposition proposée relative à la crainte d'une infraction de propagande haineuse ou d'un crime haineux. Le droit criminel devrait être un moyen de tenir les individus pour responsables des gestes qu'ils ont posés, et non des gestes que d'autres personnes craignent qu'ils posent un jour. Permettre à un juge de limiter la liberté et l'expression d'individus qui ne sont même pas soupçonnés ou accusés d'avoir commis un crime, et encore moins condamnés, porte atteinte, de manière déraisonnable et injustifiée, à plusieurs droits protégés par la Charte canadienne des droits et libertés.
    Finalement, en ce qui a trait aux modifications proposées à la Loi canadienne sur les droits de la personne, à la partie 3 du projet de loi, elles seraient inappropriées et inefficaces pour résoudre le problème des discours haineux dans notre société moderne. Ces modifications feraient en sorte que les organismes de défense des droits de la personne seraient inondés de plaintes, alors qu'ils souffrent déjà d'un manque chronique de ressources.
    Je vous remercie de votre attention.
    Je serai heureuse de répondre à vos questions.
    Merci beaucoup.
    Madame Claveau, vous avez la parole pour cinq minutes.
    Mesdames et messieurs les députés, bonjour.
    Je suis Catherine Claveau, bâtonnière du Québec. Je suis accompagnée aujourd'hui de Me Michel Marchand, membre du Groupe d'experts en droit criminel, et de Me Nicolas Le Grand Alary, avocat au Secrétariat de l'Ordre et affaires juridiques du Barreau du Québec. Nous vous remercions d'avoir invité le Barreau à témoigner au sujet du projet de loi C‑63.
    Forts de notre expérience en droit criminel et en droits de la personne, nous formulons uniquement des commentaires sur les parties 2 et 3 du projet de loi, c'est-à-dire sur les modifications proposées au Code criminel et à la Loi canadienne sur les droits de la personne.
    Commençons par la partie 2 du projet de loi, soit les modifications au Code criminel. Considérant l'augmentation prononcée des crimes haineux, dont la majorité sont fondés sur la race et l'origine ethnique, il est primordial que le projet de loi offre aux tribunaux des outils efficaces afin de lutter contre ceux-ci, tout en s'assurant qu'ils respectent les principes de justice fondamentale et les exigences constitutionnelles canadiennes. D'ailleurs, pour cette raison, le Barreau du Québec appuie la demande du ministre de la Justice du Québec, selon laquelle le législateur devrait retirer du Code criminel l'exemption religieuse dans le cadre de la propagande haineuse.
    Nous sommes aussi d'avis qu'il est essentiel de codifier une définition de la haine. Cela aura pour effet, d'une part, d'encourager les signalements en permettant aux communautés de bien comprendre ce qui est interdit et, d'autre part, d'aider tous les intervenants, dont les policiers, à agir à l'intérieur d'un cadre réglementaire bien défini.
    Toutefois, nous émettons des réserves quant à la définition du terme « haine » proposée par le projet de loi, qui s'inspire de l'arrêt Whatcott. Dans cette affaire, la Cour suprême du Canada s'est prononcée sur la constitutionnalité d'une disposition visant l'interdiction de publications haineuses dans un contexte de droits de la personne. Nous croyons qu'en matière criminelle, la décision clé est l'arrêt Keegstra, qui a été rendu en 1990 et dont l'analyse a été reprise dans l'arrêt Mugesera en 2005.
    Dans ces décisions, la Cour suprême a interprété la notion de haine eu égard spécifiquement aux dispositions du Code criminel et a estimé que « le mot “haine” désigne une émotion à la fois intense et extrême qui est clairement associée à la calomnie et à la détestation. » Ainsi, afin d'éviter le risque de contestation de la constitutionnalité de cette disposition, considérant que le fardeau de preuve en droit criminel diffère de celui qui s'applique en droit civil et que la Charte canadienne des droits et libertés offre des garanties à l'accusé en matière criminelle, nous suggérons que le projet de loi reprenne cette dernière définition.
    De plus, le projet de loi érige en infraction parmi les crimes haineux le fait de commettre une infraction prévue au Code criminel ou à toute autre loi fédérale en étant motivé par la haine fondée sur certains facteurs. Cette nouvelle infraction serait punissable de l'emprisonnement à perpétuité. L'étendue de cette nouvelle disposition, qui renvoie à « toute loi fédérale », est large et elle risque de viser une très vaste gamme d'infractions, sans qu'aucune différenciation ne soit faite quant à la gravité objective de chacune de ces infractions.
    Or, cette nouvelle disposition est contraire au principe fondamental de proportionnalité de la peine, énoncé à l'article 718.1 du Code criminel. Nous proposons donc de bonifier les dispositions déjà existantes dans le Code criminel, ce qui éviterait ainsi de créer un nouveau régime de poursuite des crimes haineux qui coexisterait avec le régime actuel.
    Passons maintenant à la partie 3 du projet de loi, soit les modifications à la Loi canadienne sur les droits de la personne. D'abord, nous saluons le rétablissement de l'article 13 de la Loi, qui vise la communication de discours haineux. Nous constatons que le nouveau libellé proposé est plus précis et mieux circonscrit, ce qui permettra d'établir un équilibre entre les droits et les libertés protégés par la Charte canadienne. Nous appuyons également la définition de « discours haineux » proposée dans le projet de loi, qui respecte les enseignements de la Cour suprême dans l'arrêt Whatcott, décision rendue dans un contexte de droits de la personne.
    Finalement, le projet de loi introduit un aspect punitif dans la Loi canadienne sur les droits de la personne, ce que nous remettons en question. La Cour suprême écrivait, notamment dans les arrêts Taylor et Blencoe, que la loi n'a pas pour objet de punir la faute, mais bien de prévenir la discrimination et que les régimes de protection des droits de la personne doivent avoir pour objectif la conciliation, et non la punition. Dans la forme proposée par le projet de loi, il s'agirait d'une mesure punitive qui dénaturerait l'objectif des régimes de protection des droits de la personne.
(1610)
    Nous suggérons de prévoir que la pénalité soit plutôt versée à la victime ou, si elle n'est pas identifiable ou identifiée, qu'elle soit versée à un organisme voué à la défense des droits de la personne ou à un groupe visé dans la communication constituant l'acte discriminatoire.
    Il pourrait également être prévu, à l'instar du paragraphe 53(3) de la Loi canadienne sur les droits de la personne, la possibilité d'ordonner à l'auteur de l'acte discriminatoire le paiement d'une indemnité spéciale à la victime, si cet acte a été délibéré ou inconsidéré. D'autres commentaires se trouvent dans notre mémoire.
    Nous sommes maintenant disponibles pour répondre à vos questions.
    Je vous remercie.
(1615)
     Merci, madame Claveau.

[Traduction]

    Nous passons maintenant à Me Le Grand Alary, qui dispose de cinq minutes.

[Français]

    Me Le Grand Alary est avec moi au Barreau. Il n'y aura donc pas d'allocution.
    Monsieur Marchand, vous avez la parole pour cinq minutes.
    Me Marchand fait aussi partie de l'équipe du Barreau du Québec.

[Traduction]

    Nous allons passer à la témoin no 1. Vous avez cinq minutes, je vous prie.
    Bonjour. Je vous remercie du temps que vous m'avez accordé aujourd'hui.
    Je m'appelle Jane. Peut-être que beaucoup d'entre vous portent le même titre que moi, celui de parent. Je suis la mère d'une jeune fille fougueuse qui a été agressée sexuellement et qui, en raison de cette agression, est également devenue une victime d'exploitation sexuelle. Peut-être que vous, en tant que parents, pouvez comprendre l'histoire de mon enfant, qui est malheureusement devenue aussi la réalité de notre famille.
    Dans les quelques minutes qui me sont allouées, j'aimerais vous donner un aperçu et vous décrire quelques détails de l'horrible agression sexuelle que ma petite fille a subie et continue d'endurer tous les jours. Ma fille n'était qu'une bambine quand, un jour, le destin l'a frappée. Elle n'était qu'une jeune enfant qui n'avait pas d'autre choix que de confier sa vie à un adulte qui était censé la protéger, lui apprendre à faire la différence entre le bien et le mal, et l'aimer de manière à lui montrer ce à quoi une relation saine est censée ressembler à l'avenir.
    De l'âge préscolaire à la maternelle, on lui a fait croire que les rapports et les gestes sexuels entre les enfants et les adultes étaient tout à fait acceptables et normaux. Certains jours, au lieu de regarder des dessins animés, elle passait son temps avec un adulte présumément de confiance qui banalisait le matériel de pornographie juvénile. Pour y arriver, elle était exposée à répétition à possiblement des centaines de vidéos d'exploitation d'enfants, chaque fois que l'occasion se présentait. À l'aide de divers matériels portant sur la violence sexuelle faite aux enfants, elle a facilement été violée par son agresseur à maintes reprises. D'après les preuves recueillies par les forces de l'ordre, il est possible qu'elle ait été violée et agressée sexuellement tous les jours. Elle avait entre trois et six ans, et elle a tellement été violée qu'on lui a fait croire que c'était un jeu amusant. À maintes reprises, elle était récompensée avec des bonbons pour ses gestes. Il s'agissait notamment de relations sexuelles orales, des relations vaginales et de l'insertion de divers objets dans son anus.
    L'auteur du crime était son père biologique. Cet homme a également fait la traite de sa propre fille en la faisant participer virtuellement à des activités sexuellement explicites et scénarisées avec un ou plusieurs adultes dans les murs sombres du monde en ligne. Lorsque l'agresseur de mon enfant a été arrêté, il a admis que les abus avaient pris des proportions incontrôlables. Il était devenu insensible à l'idée de violer ma fille pour sa propre satisfaction sexuelle. Il a admis aux forces de l'ordre qu'il en voulait toujours plus.
    La compréhension que ma fille a de ce qui lui est arrivé est plus grande qu'elle ne le souhaiterait. L'ampleur des dommages qui lui ont été causés à ce moment‑là, et qui se poursuivent encore aujourd'hui, est incalculable. Ma petite fille a d'innombrables souvenirs qui la hantent pendant son sommeil. Souvent, elle est anxieuse, craintive et apeurée. Malheureusement, les sévices qui lui ont été infligés sont maintenant hyperactivement présents sur le Web clandestin. C'est l'une des séries de matériel d'exploitation sexuelle d'enfants les plus téléchargées qui y circulent. Des prédateurs d'enfants ont sauvegardé et diffusé des images et des vidéos de son petit corps nu et contorsionné de manière provocatrice. Ses parties intimes ne sont plus intimes. Son vagin est exposé à la vue du monde entier. Son sourire, son rire et son innocence lui ont tous été enlevés. La façon dont elle est représentée dans ces photos et ces vidéos n'est pas la manière dont elle veut être perçue.
    Ceux qui prennent l'initiative de télécharger, de visionner, de sauvegarder et de partager le matériel pédophile inacceptable de mon enfant continuent à lui faire du tort. Les auteurs ont carrément prémédité leurs gestes et les ont posés contre son gré. Les personnes qui possèdent des produits de l'exploitation sexuelle d'enfants devraient sans aucun doute être tenues responsables et assumer l'entière responsabilité morale de leur propre contribution à la crise de l'exploitation continue que mon enfant et bien d'autres continuent de subir.
    À cause des comportements inacceptables de ces agresseurs, mon enfant ne jouit pas d'une vie épanouie. C'est le seul mécanisme d'adaptation dont elle croit disposer pour se protéger. Elle essaie de se cacher en ne sortant pas de la maison. Si elle le fait, elle craint d'être reconnue. Elle a l'impression que ses blessures sont irréparables. Elle veut que les souvenirs disparaissent. Tant qu'Internet n'aura pas de règlements et de règles obligatoires visant à la protéger, elle et les autres victimes, contre le matériel d'exploitation sexuelle d'enfants, les images continueront d'exister. L'évolution de la technologie est son cauchemar. À l'heure actuelle, elle ne peut pas échapper à l'abus, pas plus que l'abus ne peut la laisser tranquille.
    Je me battrai pour mon enfant et réclamerai la protection qu'elle mérite. Il ne devrait pas y avoir de débat ici. Mon enfant souffre en silence depuis beaucoup trop longtemps. Elle ne devrait ni avoir honte ni se sentir coupable des attaques personnelles qui ont lieu sur Internet non contrôlé. Permettez-lui, à elle et aux autres, de retrouver leur dignité.
(1620)
    Nous avons désormais le choix d'être des agents de changement et de façonner l'avenir de tous les enfants. Ma petite fille n'est pas seulement victime d'une infraction directe. Elle est victimisée à nouveau chaque fois que le matériel d'exploitation sexuelle d'enfants sur lequel elle figure circule sur le Web clandestin. Quel genre de personne ne veut pas protéger l'avenir de nos enfants ou petits-enfants? Je le répète avec empressement: nous avons besoin d'une culture du respect de la loi qui applique avec rigueur la réglementation d'Internet. L'Internet non réglementé a causé du tort à mon enfant et à d'innombrables autres partout au pays.
    Je remercie la témoin no 1.
    Je donne maintenant la parole à M. Van Popta. Monsieur, vous avez six minutes.
    Merci, monsieur le président.
    Je remercie tous les témoins.
    Jane, je tiens à vous remercier de votre déclaration très courageuse.
    Avant de poser des questions aux témoins, j'aimerais lire une motion, ou un avis de motion:
Étant donné que:

il existe un besoin d'adopter rapidement des dispositions pour assurer la sécurité des Canadiens tout en protégeant la liberté d'expression;

des membres de plusieurs partis politiques ont exprimé le besoin de scinder le projet de loi C‑63 en partie en raison de réserves au sujet des dispositions du projet de loi qui impliquent des restrictions à la liberté d'expression;

le Comité effectue à l'heure actuelle une étude préliminaire du projet de loi C‑63;

le projet de loi C‑63 propose de confier l'entière responsabilité de l'élaboration de la réglementation des plateformes en ligne à un organisme de réglementation qui n'a pas encore été formé, et il le fait avec trop d'ambiguïté quant à la réglementation que cet organisme proposera ou administrera;

d'après plusieurs témoins, une meilleure approche pour assurer la sécurité des Canadiens en ligne tout en protégeant leurs libertés civiles serait de légiférer sur une liste définie de responsabilités que les plateformes en ligne doivent assumer pour assurer la sécurité des Canadiens;

Que le Comité procède simultanément à l'étude préliminaire du projet de loi C‑412, Loi sur la promotion de la sécurité à l'ère numérique, en même temps que son étude préliminaire du projet de loi C‑63, afin d'examiner d'autres options législatives pour protéger les Canadiens en ligne qui pourraient être rapidement avancées par consensus sans les éléments controversés du projet de loi C‑63.
    Voilà la motion, monsieur le président.
    Monsieur Van Popta, vous ne faites que présenter un avis de motion sans la proposer, n'est‑ce pas?
    Je ne fais que donner l'avis de motion; c'est exact.
    Il vous reste environ quatre minutes et demie.
    Eh bien, merci beaucoup.
    Madame McNicoll, j'ai une question pour vous. Nous étudions le projet de loi C‑63, et je sais, d'après votre témoignage et ce que j'ai lu sur les propos de votre organisation, que vous connaissez très bien le sujet. Avant de vous poser une question là‑dessus, j'aimerais avoir votre avis sur le projet de loi C‑412, que je viens de mentionner dans cette motion. Il s'agit d'un projet de loi d'initiative parlementaire présenté par une députée conservatrice, notre collègue Michelle Rempel Garner, qui porte sur certains des mêmes enjeux et sujets que le projet de loi C‑63.
    Je vais simplement vous en donner un aperçu très général. Le projet de loi C‑412 modernisera l'infraction actuelle de harcèlement sexuel afin de viser le harcèlement en ligne. Il obligera les plateformes de médias sociaux à renforcer les mesures de protection pour les enfants dans les cas d'intimidation, de violence sexuelle, d'automutilation et de contenu d'exploitation sexuelle — ce dont la témoin Jane a parlé. Par ailleurs, il mettra à jour les lois canadiennes existantes sur la distribution non consensuelle d'images produites artificiellement, autrement dit, les hypertrucages. Le projet de loi C‑63 n'aborde aucun de ces sujets, et il y a donc là une grande lacune que le projet de loi C‑412 comblera, selon nous. Voici ma question: êtes-vous d'accord pour dire que ce sont des sujets importants qui devraient être discutés en priorité, une occasion que présente le projet de loi C‑412?

[Français]

    Je vous remercie de la question.
    Il est évident que, pour me prononcer sur un projet de loi de manière éclairée, il faut que je le connaisse en détail. J'ai la chance de l'avoir déjà lu, et je connais bien certains sujets qu'on y aborde. Je suis d'accord sur la suggestion que les contenus préjudiciables que vous avez mentionnés sont problématiques.
    Le projet de loi C‑412 soulève peut-être moins de problèmes sur le plan de la liberté d'expression, mais il en soulève d'autres en matière de respect de la vie privée et de droit à l'égalité.
    Je m'explique. Une bonne partie du projet de loi renvoie au contrôle parental du contenu pouvant être vu par des mineurs. Évidemment, quand on parle de contrôle parental, il faut savoir que les méthodes existantes pour vérifier l'âge des usagers sont imparfaites et qu'elles soulèvent des questions en matière de respect de la vie privée et de droit à l'égalité.
    Il est du moins nécessaire que ces techniques soient efficaces, qu'elles ne discriminent pas les gens sur la base de leur ethnie et que les données personnelles qui sont collectées dans le cadre de la vérification de l'âge soient traitées d'une manière adéquate, c'est-à-dire en conformité avec les principes qui existent au Canada, notamment en matière de respect de la vie privée.
(1625)

[Traduction]

    Je comprends.
    Je suis heureux que vous connaissiez un peu le projet de loi C‑412. Selon vous, les projets de loi C‑412 et C‑63 pourraient-ils être étudiés en même temps?

[Français]

     Cela ne relève pas de ma compétence.

[Traduction]

    Très bien.
    Dans votre témoignage, vous avez fait référence aux parties 1, 2 et 3. Vous êtes ravie que les parties 2 et 3 aient maintenant été retirées. Je sais que votre organisation l'a recommandé, de sorte que le ministre vous a écoutée. Félicitations.
    Ma question vise à savoir si la partie 4 du projet de loi C‑63 pourrait être complètement séparée et traitée distinctement afin de protéger plus rapidement les victimes de harcèlement sexuel. À titre d'information, la partie 4 modifie la Loi concernant la déclaration obligatoire de la pornographie juvénile sur Internet par les personnes qui fournissent des services Internet. La partie 1, quant à elle, crée un organisme de réglementation. Il faudra beaucoup de temps et d'argent pour y arriver. La partie 4, si elle est complètement séparée, pourrait être traitée très rapidement.
    Qu'en pensez-vous?

[Français]

     Je vous dirais que la partie 4 soulève certainement moins de problèmes.
    En revanche, la partie 1 est très importante. Je sais que la société civile a pris beaucoup de temps pour y réfléchir et que plusieurs organisations, dont la mienne, sont prêtes à se positionner à son sujet.

[Traduction]

    Il vous reste neuf secondes.
    Je ne peux rien faire en neuf secondes.
    Madame McNicoll, je vous remercie de votre témoignage.
    Merci, monsieur Van Popta.
    Monsieur Mendicino, vous avez six minutes.
    Je pense que c'est au tour de Mme Brière.

[Français]

    Madame Brière, vous avez la parole pour six minutes.

[Traduction]

    Merci, monsieur le président.

[Français]

    Je vous remercie, Témoin 1, de votre témoignage.

[Traduction]

    Je vais devoir vous arrêter ici, madame Brière. Il n'y a pas d'interprétation. Il y a des problèmes avec votre casque d'écoute.

[Français]

    D'accord. Pourtant, on a fait les tests de son tantôt, et cela fonctionnait.

[Traduction]

    Pouvons-nous passer à quelqu'un d'autre? Nous n'avons pas le temps de suspendre la séance.
    Est‑ce que ce sera vous, monsieur Maloney?
    Madame Brière, nous n'allons pas suspendre la séance. Nous demanderons aux techniciens de vous appeler pour régler vos problèmes d'écouteurs.
    En attendant, je vais céder la parole à M. Maloney.
    Monsieur Maloney, il vous reste environ cinq minutes et demie.
    Merci, monsieur le président.
    Je remercie tous les témoins d'être parmi nous aujourd'hui.
    Jane — je vais vous appeler ainsi —, je vous remercie infiniment de nous avoir raconté votre histoire horrible. Nous parlons ici d'un projet de loi présenté par le gouvernement, le projet de loi C‑63, et en particulier de la partie 1. Vous avez en quelque sorte répondu à la question que je veux vous poser. Vous avez dit que l'Internet non réglementé a causé du tort à votre enfant et qu'il continue de le faire.
    Un volet important de la partie 1 du projet de loi, à laquelle nous nous attardons, concerne les soi-disant dispositions de retrait qui seraient nécessaires sur Internet. Les dispositions du Code criminel sont une chose, mais, comme vous y avez fait allusion, il faut avoir la capacité de régler instantanément un problème lorsqu'il survient et de faire retirer quelque chose d'Internet le plus rapidement possible.
    Pouvez-vous nous en dire plus sur l'importance de ce volet, à votre avis? De plus, si ce projet de loi n'est pas adopté maintenant, pouvez-vous expliquer quelle incidence cela pourrait avoir sur votre famille et d'autres personnes?
(1630)
    La mise en œuvre du retrait immédiat est certainement la partie la plus importante pour résoudre ce problème. Sans cela, il n'y a pas de fin.
    Merci.
    Je suppose que vous avez eu des interactions avec la police et les autorités. Des mesures ont-elles été prises immédiatement pour que le contenu soit retiré du monde en ligne? Si c'est le cas, veuillez nous faire part de votre expérience à cet égard.
    D'après mon expérience, le processus a été très lent, interminable et horriblement douloureux.
    C'était complètement inefficace.
    Que répondez-vous à ceux qui critiquent ouvertement ces dispositions du projet de loi et qui ont déclaré sans équivoque que s'il était adopté, ils supprimeraient ces parties et, en fait, annuleraient complètement la législation?
    Cette partie du projet de loi est l'une des plus importantes pour protéger les enfants. C'est le début de la fin.
    Merci.
    Je vais passer à vous, madame McNicoll, parce que dans votre déclaration préliminaire et dans vos réponses à certaines de ces questions, vous avez abordé les parties 2 et 3, dont nous ne parlons pas en ce moment.
    Vous avez dit que la partie 1 est importante et que vous êtes prête à prendre position. Quelle est votre position sur la partie 1, en particulier à la lumière de ce que vous venez d'entendre de la part de Jane?

[Français]

    Je crois avoir compris que l'obligation à laquelle vous faisiez allusion est celle prévue notamment aux articles 67, 68 et suivants de la partie 1 du projet de loi. Ces articles traitent de certains contenus hautement préjudiciables, notamment du contenu qui sexualise des enfants. On y parle du délai accordé à l'exploitant de la plateforme pour réviser et supprimer le contenu, après le signalement, s'il s'avère que le contenu est réel.
    Selon l'ACLC, ces dispositions ne posent pas de problème. Selon nous, le problème est davantage en lien avec les obligations beaucoup plus générales qui sont imposées aux exploitants. Je parle notamment des articles 55 et 59.
    L'article 55 prévoit une obligation générale de prendre les mesures raisonnables pour que les usagers ne soient pas exposés à du contenu préjudiciable. Quand je parle de contenu préjudiciable, je pense aux sept catégories. Malheureusement, en l'absence de paramètres suffisants, un exploitant pourrait être tenté d'adopter une approche très précautionneuse pour se soumettre à ce genre d'obligation, et ce genre d'approche pourrait limiter la liberté d'expression d'une manière déraisonnable au Canada.
    Par exemple, en recherchant et en supprimant de manière proactive du contenu, on fait de la surveillance étatique par proxy. Dans ce cas, l'ACLC y voit un problème, mais ce n'est pas prohibé par la loi telle qu'elle existe présentement. L'exploitant pourrait aussi décider de supprimer du contenu sans même le réviser, ce qui serait aussi problématique, à notre avis.
    Franchement, nous ne sommes pas là pour dire que la liberté d'expression est absolue au Canada et qu'il ne peut pas y avoir de limites raisonnables. Cependant, encore faut-il que les obligations imposées aux exploitants soient délimitées d'une manière suffisante pour leur permettre de comprendre quelles sont leurs obligations et de comprendre qu'ils doivent les honorer en se conformant de manière raisonnable au principe de la liberté d'expression.

[Traduction]

    Je vous remercie.
    Compte tenu du témoignage de Jane, il vaut mieux avoir une disposition de retrait dans le projet de loi que de s'en remettre au droit pénal, et certainement mieux que de s'en remettre aux fournisseurs d'accès Internet eux-mêmes. N'êtes-vous pas d'accord?

[Français]

    Je ne sais pas s'il est préférable d'avoir les deux mécanismes, mais je pense que c'est intéressant. Encore une fois, personnellement, je n'ai pas d'objection en ce qui a trait à l'article qui permet le retrait du contenu dont le Témoin 1 parlait, qui est effectivement hautement troublant et préjudiciable. Les mots me manquent pour exprimer ma sympathie à ce témoin, qui a courageusement rapporté son expérience.

[Traduction]

    Je vous remercie.
    Votre temps est écoulé, monsieur Maloney.
    Merci, monsieur le président.

[Français]

    Monsieur Fortin, vous avez la parole pour six minutes.
    Merci, monsieur le président.
    Je remercie les témoins d'être des nôtres. Je tiens à exprimer toute ma sympathie au Témoin 1. Je remercie ce témoin de son témoignage concernant les agressions dont a été victime sa fille — j'irais presque jusqu'à dire son bébé. Je trouve troublant que ce genre de comportement puisse encore se produire, et je pense que, à titre de législateurs, nous devons tout faire pour éviter que cela ne se reproduise.
    Cela dit, maître Claveau, je vous remercie également d'être avec nous.
    Je voudrais revoir avec vous deux aspects de votre position.
    D'abord, vous nous avez dit que le Barreau soutenait la demande de Québec de retirer du Code criminel les deux dispositions de l'article 319 qui concernent l'exception religieuse. Quand on traite de la question de l'exception religieuse, on nous dit souvent que cette disposition n'a pas été utilisée souvent et que, finalement, ça ne sert peut-être à rien de l'enlever.
    Peut-on penser que cette disposition, même si elle n'a pas été traitée souvent par les tribunaux, a été prise en considération au moment de décider si on intente ou pas des procédures judiciaires dans un dossier?
(1635)
     Nous présumons cela, nous aussi.
    Je pense qu'il faut aussi reconnaître que, malheureusement, la propagande de discours haineux est en hausse et que tous les discours en lien avec les motifs religieux augmenteront probablement.
    Une des solutions que nous envisageons pour remédier à ce fléau serait d'abolir l'exemption pour motifs religieux.
    Un autre aspect dont je voulais discuter avec vous, c'est la définition du mot « haine ». Il est très difficile, voire impossible, de définir ce concept d'une façon claire et qui conviendrait à tout le monde et à toutes les situations. C'est toujours délicat.
    Les enseignements de la Cour suprême sur ces questions sont évidemment précieux. La définition à laquelle vous renvoyez, qui provient de l'arrêt Keegstra, énonce que ce mot « désigne une émotion à la fois intense et extrême qui est clairement associée à la calomnie et à la détestation. »
    Évidemment, il peut être plus facile de définir les concepts de « calomnie » et de « détestation ». Je ne veux pas fabuler, mais les décisions des juges qui auront un jour à déterminer si un accusé a été sous l'emprise d'une émotion intense et extrême — pas n'importe quelle émotion — risquent d'être étonnamment discordantes. Par ailleurs, je n'ai pas d'autre définition à proposer. Je m'en remets à la sagesse des juges de la Cour suprême.
    Selon vous, dans quelle mesure devrait-on être prudent quand on cherche à définir quelque chose d'aussi personnel et subjectif que l'émotion intense ou extrême dont une personne est sous l'emprise?
    Je vous remercie de la question.
    Je vais demander à mes collègues d'y répondre, puisqu'ils sont plus au fait que moi de l'interprétation à faire des arrêts de la Cour suprême.
    Monsieur le député, je pense que vous avez raison sur ce point.
    De manière générale, selon les commentaires du Barreau, il est difficile de trouver une définition du mot « haine ». En fait, il faut s'assurer que les critères prévus dans les arrêts de la Cour suprême sont respectés. Il faut donc une définition qui permet d'éviter le plus possible les contestations judiciaires ou les décisions discordantes que vous évoquez.
    Je demanderais à M. Marchand de compléter ma réponse pour ce qui est de l'aspect plus technique des définitions.
    On parle d'une émotion à la fois intense et extrême comme d'un critère objectif.
    Cependant, il faut faire la distinction entre les critères établis dans les arrêts Keegstra et Mugesera, par exemple, qui sont rendus en droit criminel, et les critères établis dans des décisions rendues en droits de la personne, comme l'arrêt Whatcott, où on a décidé de reformuler le critère.
    Au fond, le critère a été adopté tel qu'il l'avait déjà été dans les arrêts que je viens de mentionner, et on l'a tout simplement adapté en précisant qu'il faut se mettre dans la peau d'une personne raisonnable pour qualifier l'émotion, qui n'est pas celle de la personne qui exprime les propos en question, mais bien celle des personnes qui les reçoivent.
    Je pense que les définitions du mot « haine » qui sont données par la Cour suprême sont très claires. Il s'agit de s'en servir pour les intégrer dans le Code criminel.
    Ce qui est prévu actuellement dans les dispositions du projet de loi C‑63, constitue une norme inférieure au critère établi dans l'arrêt Mugesera, selon moi.
    Il faut faire très attention, parce que, dans un contexte où il est question de liberté d'expression et de religion, les gens ont des droits. La Cour suprême a analysé la question en profondeur et avec beaucoup de sérieux. Elle a étudié des centaines de pages avant d'arriver à ses conclusions et de prendre une décision.
(1640)

[Traduction]

    Merci, maître Marchand.
    Votre temps est écoulé, monsieur Fortin.
    Monsieur Julian, vous avez six minutes.
    Merci, monsieur le président.
    Je tiens à vous dire, Jane, que je suis au Parlement depuis de nombreuses années, et que c'est l'un des exposés les plus émouvants que j'ai entendus de la part d'un témoin. Je sais qu'il a été extrêmement difficile pour vous de comparaître devant le Comité. Nous ne saurions trop vous remercier de votre honnêteté brutale sur ce que votre fille a vécu. Je pense que c'est quelque chose que nous garderons à l'esprit pendant un certain temps. Merci de nous en avoir fait part. Nous espérons tous que votre fille reçoit les soins et le soutien dont elle a besoin.
    Le fait que ces images continuent de circuler démontre évidemment l'importance d'aller de l'avant le plus rapidement possible avec les dispositions de la partie 1 du projet de loi qui traitent de l'exploitation sexuelle criminelle des enfants.
    À l'heure actuelle, est‑ce que ce sont des particuliers, des entreprises...? Qui continue de partager ces terribles images d'actes criminels?
    Ce sont toutes les personnes qui accèdent aux murs sombres du Web, comme les prédateurs d'enfants et les personnes qui s'intéressent à ce genre de contenu. Ce sont eux qui échangent ces images et les téléchargent régulièrement, presque quotidiennement.
    Ils le font en toute impunité.
    Malheureusement, oui. Il n'y a pas que les images. Les prédateurs parlent régulièrement de mon enfant.
    Je ne peux pas imaginer, comme parent, ce que vous vivez et ce qu'elle vit.
    C'est une situation très effrayante.
    Le message que vous nous envoyez est très clair: il faut agir. Je pense que tous les membres du Comité le comprennent. Je ne saurais trop vous remercier d'être venue nous en parler aujourd'hui.
    J'ai des questions à poser aux autres témoins.

[Français]

    Je m'adresserai maintenant à Mme Bussières McNicoll et à Mme Claveau.
    La partie 1 du projet de loi C‑63 prévoit des amendes. Quand il s'agit d'un exploitant, on mentionne « une amende maximale de dix millions de dollars ou, s'il est supérieur, d'un montant égal à trois pour cent de ses revenus bruts globaux ».
    Par ailleurs, si la déclaration de culpabilité se fait par procédure sommaire, on mentionne « une amende maximale de cinq millions de dollars ou, s’il est supérieur, d’un montant égal à deux pour cent de ses revenus bruts globaux ».
    Quand il s'agit d'un individu, on prévoit « une amende maximale de 50 000 dollars ». Cela semble très peu si l'on tient compte des répercussions, comme celles qu'ont subies les membres de la famille du Témoin 1 et sa fille.
    C'est une chose de mettre en place un cadre législatif, et c'est une autre chose de définir des peines pour mettre fin à ce fléau. Dans le cas relatif à la fille du Témoin 1, il est évident qu'il est nécessaire de prendre des mesures importantes.
    Que pensez-vous des peines que je viens de mentionner et de l'approche adoptée dans le projet de loi?
    Madame Bussières McNicoll, je vous demanderais de répondre en premier à ma question.
(1645)
     Merci de la question.
     Je dirais, d'entrée de jeu, qu'il est important de remettre en contexte le fait que la loi prévoit sept catégories de contenus préjudiciables. Quand on envisage de donner des peines à des individus, il est important de ne pas tomber dans l'excès de manière à ce que les individus soient indûment pénalisés en lien avec certains contenus.
    En ce qui a trait aux peines qui sont imposées aux exploitants — je vais laisser les autres se prononcer, s'ils le souhaitent, sur l'ampleur des peines —, il est important de garder en tête que, plus les pénalités sont élevées, plus les obligations doivent être claires, sinon les exploitants voudront à tout prix se conformer aux obligations qui sont vagues, et ils pourraient le faire au détriment de la liberté d'expression.
    On en revient aux exemples que j'ai donnés plus tôt. Le fait d'adopter une approche outrancièrement précautionneuse par rapport au contenu qui est signalé et de procéder très vite, de façon exagérée, quant à la révision de ce contenu pourrait être préjudiciable à la liberté d'expression en ligne.
    Votre préoccupation est donc liée aux définitions proposées dans le projet de loi et à l'orientation qui est donnée. Merci d'avoir clarifié cela.
     Madame Claveau, je vous poserais la même question sur la structure du projet de loi et sur la partie 1 concernant les pénalités.
    Je pense que tout le monde est d'accord pour dire que c'est nécessaire. Que pensez-vous de l'approche adoptée dans la partie 1 du projet de loi?
    Je vais passer la parole à Me Le Grand Alary.
    Merci de la question.
    Comme vous l'avez sans doute vu en prenant connaissance de notre mémoire, nous n'avons pas de commentaires particuliers à faire sur la partie 1 du projet de loi.
    Par contre, de manière générale, lorsqu'il s'agit de sanctions et de pénalités de cette nature, surtout lorsqu'il est question d'un régime de sanctions administratives pécuniaires, il faut faire tout un exercice pour établir le montant de ces pénalités, qu'elles visent des particuliers ou des entreprises. On parle souvent du pourcentage du chiffre d'affaires, par exemple. Il faut prendre en considération beaucoup d'éléments.
    Sans prendre position sur la conformité ou sur le caractère opportun de cette approche, je dirai qu'il y a effectivement du travail à faire lorsqu'on établit un régime de sanctions administratives pécuniaires.
    Je vous inviterais à comparer cela à d'autres régimes qui ont déjà été adoptés pour voir s'il y a des ressemblances. Vous pourriez aussi prendre connaissance des enseignements fournis par la Cour suprême dans ses décisions en ce qui concerne la validité de tels régimes.

[Traduction]

    Merci. Votre temps est écoulé, monsieur Julian.
    Cela met fin à notre première série de questions.
    Nous passons maintenant à la deuxième série. Ce sera la dernière avec le premier groupe de témoins. Elle durera 15 minutes et sera répartie ainsi: cinq minutes, cinq minutes, deux minutes et demie et deux minutes et demie.
    Nous allons commencer par vous, madame Ferreri.
    Vous avez cinq minutes.
    Merci, monsieur le président.
    Je remercie les témoins de leurs témoignages d'aujourd'hui.
    Témoin 1, me permettez-vous de vous appeler par le prénom que vous avez utilisé? Est‑ce que cela vous convient?
(1650)
    Oui.
    Merci.
    Jane, ce que vous avez fait aujourd'hui est très courageux. La population ne sait pas que ces événements arrivent. Elle n'en a aucune idée. Je crois que la moitié de la solution consiste à... Manifestement, nous devons légiférer et mettre des changements en œuvre, mais les gens ne croient pas que des parents font la traite de leurs enfants. La population ne croit pas que les enfants sont utilisés quotidiennement comme outils sexuels en ligne, comme vous l'avez dit ici aujourd'hui. Elle ne le sait pas parce qu'elle ne veut pas croire que l'humanité est à ce point horrible.
    Je tiens à vous remercier. Nous ne pouvons rien régler si nous ne reconnaissons pas ce qui se passe réellement. Je vous remercie de votre témoignage.
    Je veux souligner deux ou trois éléments. Ce que nous essayons de déterminer, c'est la meilleure recommandation à mettre en œuvre le plus tôt possible pour protéger les enfants en ligne. Nous avons entendu des témoignages sur l'extorsion sexuelle. Des enfants s'enlèvent la vie.
    Jane, vous êtes traumatisée pour le reste de votre vie. Votre enfant est traumatisée pour le reste de sa vie. Les répercussions sur la communauté sont considérables.
    Dans sa forme actuelle, le projet de loi C‑63 demande — et j'utiliserai le libellé du projet de loi — une Commission canadienne de la sécurité numérique, un Bureau canadien de la sécurité numérique, un poste d'ombudsman de la sécurité numérique et, par la suite, un mandat pour la Commission et l'ombudsman. C'est un autre exemple montrant que les actions ne seraient pas instantanées.
    Pour revenir à ce que disait mon collègue libéral au sujet du retrait immédiat de l'image, ce n'est pas ce que permettra le projet de loi C‑63. Pour ce faire, il faut mettre en place un organisme de réglementation, ce qui pourrait prendre des années.
    Avec le projet de loi C‑412, nous mettrions cette obligation en œuvre instantanément en passant par la plateforme de médias sociaux proprement dite. Un juge aurait instantanément la capacité de nommer la personne qui détient l'image, de divulguer son nom et de porter des accusations contre elle. Il incomberait alors aux plateformes de médias sociaux de vérifier l'âge — ce qu'elles peuvent faire au moyen d'algorithmes, comme nous le savons.
    Le problème qui se pose dans le projet de loi C‑63 est le même que celui que nous avons observé avec d'autres organismes de réglementation. L'intention n'est pas accompagnée d'une action.
    Je vais vous donner l'exemple de l'ombudsman fédéral des victimes. Il y a eu une augmentation de 477 %. Rien ne se passe après que les victimes s'adressent à l'ombudsman, n'est‑ce pas? Aucune mesure n'est rattachée à ce poste.
    Voici ma question pour vous, Jane. Voudriez-vous qu'un projet de loi comme le projet de loi C‑412 impose des mesures immédiates aux plateformes de médias sociaux et permette aux juges de divulguer les noms afin que les images soient réellement retirées et qu'on ne se limite pas seulement à une intention de retrait?
    Tout d'abord, je dirai que je ne suis pas au fait du projet de loi que vous venez de mentionner.
    Ce qui m'intéresse, c'est le contenu du projet de loi C‑63. Je trouve qu'il offre une protection supplémentaire et une avancée pour mon enfant et les autres enfants.
    Je comprends que vous ne sachiez pas en quoi consiste ce projet de loi. Votre commentaire est donc tout à fait pertinent et c'est avec plaisir que je vous éclairerai.
    Je peux vous dire que le projet de loi C‑63laisse toujours planer le risque qu'il faille attendre des années. Je peux affirmer que nous voulons tous la même chose: nous voulons protéger les enfants aujourd'hui. Or, si on met en place un organisme de réglementation sans imposer d'obligation de diligence aux plateformes de médias sociaux, les changements ne peuvent être instantanés. En effet, l'organisme de réglementation devra alors tenir une réunion, puis une autre, et ainsi de suite.
    Comprenez-vous ce que je dis? Ce projet de loi n'apporterait pas de changements directs pour la personne touchée. Est‑ce que c'est approprié?
    Je fais confiance aux responsables du projet de loi C‑63 et à ce qu'ils font pour protéger tous les enfants au Canada.
    D'accord. Je comprends. Bien entendu, je ne saurais trop insister sur le fait que nous voulons absolument protéger les enfants.
    Encore une fois, je vous soumets la question. Si on avait l'option de choisir entre le fait de passer directement par la plateforme de médias sociaux...? En fait, je vais prendre votre exemple. À l'heure actuelle, pourquoi les images de votre enfant ne sont-elles pas retirées?
    Elles ne le sont pas parce que ce n'est pas obligatoire. Personne n'a à les retirer; on ne dit à personne qu'il faut les retirer. Il n'y a pas de conséquences.
    Exactement. Avec le projet de loi C‑63, il faudrait encore passer par une personne, un organisme de réglementation. Disons qu'il s'agirait d'un ombudsman. Il faudrait alors que l'ombudsman tienne une réunion avec l'organisme de réglementation. Ensuite, il devrait s'adresser à la plateforme de médias sociaux.
    Ce que nous proposons, c'est que, au lieu de devoir passer par un intermédiaire, il faudrait s'adresser directement à un juge. Le juge confirmerait l'identité de la personne — parce que la plateforme de médias sociaux aurait une obligation de diligence et devrait retirer l'image instantanément.
    Votre temps est écoulé, madame Ferreri.
    Merci.
    Je comprends ce que vous dites, mais je fais confiance au processus. En tant que parent, je fais confiance au processus.
    Merci, témoin 1.
    Nous passons à M. Bittle. Vous avez cinq minutes.
    Merci beaucoup, monsieur le président.
    Jane, j'aimerais me faire l'écho des commentaires de mes collègues. Le grand courage dont vous avez fait preuve en vous exprimant est absolument incroyable, et votre détermination à protéger non seulement votre propre fille, mais aussi d'autres enfants, est louable. Merci.
    Lors de la dernière réunion, nous avons entendu Carol Todd, qui s'est dite préoccupée par le fait que les victimes se font poser des questions juridiques techniques, et je ne veux pas entrer dans ces détails.
    Cependant, comme vous avez parlé de votre expérience avec la police et du processus actuel, et du fait qu'aucune aide n'était offerte, je me demandais si vous pouviez nous parler de l'aide que pourrait apporter une commission de la sécurité numérique qui pourrait agir au nom des victimes. Je sais que certains diront qu'il s'agit de bureaucratie, mais je me demandais si vous pourriez nous parler de la voix qu'un tel organisme donnerait aux victimes. Est‑ce que ce serait bénéfique?
(1655)
    Je suis désolée. Votre question s'adressait-elle à moi?
    Oui. Merci.
    Oui, vous avez raison. Nous n'avons vraiment pas eu beaucoup d'aide au début.
    Je n'ai pas vraiment entendu toute votre question. Je ne m'étais pas rendu compte que vous vous adressiez à moi. Je suis désolée.
    Ce n'est pas grave. Je peux reformuler ma question. La solution de rechange suggérée est que les victimes soient tenues de s'adresser à un tribunal et à un juge, ce qui, à mon avis, part d'une bonne intention, mais peut aussi prendre du temps.
    Je me demandais si vous pouviez comparer, d'une part, la possibilité qu'une personne comme un commissaire à la sécurité numérique agisse en votre nom et, d'autre part, l'obligation personnelle de porter le dossier devant un juge ou un tribunal. J'aimerais savoir comment vous envisagez ces possibilités.
    Oui, j'appuie tout à fait cette option. J'aime l'idée qu'on se concentre sur les plateformes, qui devraient être responsables du contenu qu'elles partagent. Si on leur imposait une certaine reddition de comptes, elles ne seraient pas autorisées à continuer d'exploiter mon enfant.
    Vous avez tout à fait raison.
    Encore une fois, je vous remercie de soulever ce problème et de le dénoncer, car je peux vous dire — et je pense que M. Julian en conviendrait — qu'il n'est pas facile de composer avec les grandes entreprises de technologie. Elles s'opposent à la réglementation pendant nos démarches, mais il y a des conséquences et des victimes, et le gouvernement doit agir. Je pense qu'on ne s'entend pas autour de cette table sur la solution à privilégier. Je pense que nous sommes unanimes sur la nécessité d'agir pour protéger nos enfants.
    Je vais m'adresser à Mme McNicoll.
    Vous avez parlé de l'opposition entre la protection de la vie privée et la protection de la liberté d'expression. Je me demandais si vous pouviez nous parler de la partie 1 du projet de loi et de la protection de la vie privée pour les victimes dont les images sont partagées. Veuillez nous parler de la difficulté de concilier la liberté d'expression et la protection de la vie privée et des droits des personnes qui sont exploitées sur Internet.

[Français]

    Merci de la question.
    D'entrée de jeu, je vous dirais qu'il y a effectivement des obligations légales précises. Elles sont suggérées dans la partie 1 du projet de loi. Celles-ci permettraient d'obtenir rapidement la suppression de contenu qui est particulièrement préjudiciable. Je pense ici à du contenu qui sexualise des enfants ou perpétue la victimisation des survivants et à du contenu intime partagé sans consentement. À cet égard, je crois que c'est un progrès important.
    Cela étant dit, il y a quand même des problèmes en matière de vie privée dans la partie 1 de ce projet de loi. C'est pour cette raison que l'une de nos recommandations vise à clarifier le fait que les obligations des exploitants et les obligations de la Commission canadienne de la sécurité numérique et des autres organismes de réglementation doivent respecter la vie privée des utilisateurs et des exploitants.
    Je m'explique à cet égard.
    On sait évidemment que les exploitants ont accès à des renseignements personnels d'utilisateurs dans le cadre de leurs activités. On sait aussi qu'il existe des lois fédérales régissant déjà la collecte, la rétention, la protection ainsi que le partage de renseignements confidentiels et de renseignements personnels. En ne faisant pas explicitement allusion à l'existence de ces obligations, une certaine confusion peut en découler chez les exploitants.

[Traduction]

    Merci. Votre temps est écoulé, monsieur Bittle.
    Nous allons passer à M. Fortin.

[Français]

    Vous avez la parole pour deux minutes et demie.
    Merci, monsieur le président.
    J'aimerais m'adresser à Mme Claveau ou aux autres représentants du Barreau du Québec concernant l'emprisonnement à perpétuité.
    Selon ce que je comprends, le Barreau considère que la disposition est un peu large lorsqu'elle prévoit une telle peine pour une vaste série d'infractions. Je partage aussi ce point de vue, et je trouve cela inquiétant.
    Cependant, si on veut donner un certain caractère sérieux et grave au type d'infraction dont on traite, y a-t-il moyen d'augmenter la peine?
    Je crois comprendre que vous proposez de revoir les peines une par une. Ne pourrait-on pas prévoir une disposition selon laquelle, dans certains cas qu'on pourrait définir, la peine maximale ou la peine minimale serait le double de ce qui est prévu?
    Cela pourrait-il être une avenue intéressante à examiner, à votre avis, ou devons-nous vraiment procéder infraction par infraction et prévoir des peines spécifiques?
(1700)
    Merci de la question.
    Je vous renvoie à la page 8 de notre mémoire. Vous verrez que nous proposons justement cette solution. Nous proposons d'augmenter les peines qui existent déjà, et même de prévoir plus que le double qui est suggéré. Cela dépend évidemment de l'infraction.
    Je vais laisser mon collègue Me Le Grand Alary vous donner des précisions.
    Nous nous sommes basés sur une disposition existante en matière de violence contre un partenaire intime. Lorsque l'infraction serait motivée par la haine, la peine maximale serait augmentée de la façon suivante: les peines de deux ans deviennent celles de cinq ans, celles de cinq ans passent à 10 ans, celles de 10 ans passent à 14 ans et les peines de 14 ans deviennent des peines à perpétuité.
    Il faut comprendre aussi que les calculs ne sont peut-être pas tout le temps le double. Il y a peut-être des nuances, mais cela s'inscrit dans la logique du Code criminel...
    Maître Le Grand Alary, je suis désolé de vous interrompre. Je ne veux pas être impoli, mais il ne me reste que quelques secondes.
    Selon ce que je comprends, la solution universelle voulant qu'il faille simplement doubler les peines n'est pas une bonne idée.
    Est-ce bien cela?
    C'est en effet cela. Lorsqu'une infraction est passible d'une peine de 14 ans ou plus, le défendeur a droit à une enquête préliminaire. Lorsqu'elle est passible d'une peine de cinq ans, il a droit à un procès devant jury.
    Dans le Code criminel, il existe déjà divers barèmes quant aux peines. Le fait de simplement les doubler ne serait peut-être pas la solution. Il s'agirait peut-être de les revoir en fonction des barèmes déjà établis pour des infractions de diverses natures.
     Merci, maître Le Grand Alary.
    Je pense que mon temps de parole est écoulé, monsieur le président.

[Traduction]

    Votre temps est écoulé. Merci.
    Monsieur Julian, vous avez deux minutes et demie.

[Français]

     Merci beaucoup, monsieur le président.
    J'aimerais m'adresser de nouveau à Mme Claveau et à Mme Bussières McNicoll.
    Madame Claveau, vous avez parlé de l'article 13 de la Loi canadienne sur les droits de la personne et de la Commission canadienne des droits de la personne.
    Le ministre a déjà mentionné son intérêt de retirer cet article du projet de loi. Or, si on rétablit l'article 13 dans la Loi canadienne sur les droits de la personne, il sera peut-être difficile pour la Commission canadienne des droits de la personne de mettre en place l'important processus nécessaire pour traiter les plaintes, étant donné qu'elle manque déjà de ressources pour faire son travail.
    Madame Claveau, cette situation vous préoccupe-t-elle?
     Oui, nous nous préoccupons effectivement de la situation.
    Dans le même contexte, si nous considérons le projet de loi et la situation actuelle, la Commission canadienne de la sécurité numérique prévue dans le projet de loi n'aura pas nécessairement, elle non plus, toutes les ressources nécessaires pour faire son travail.
    Êtes-vous également préoccupée par le fait qu'une situation semblable à celle qu'a vécue le Témoin 1 pourrait se reproduire? Dans ce cas-là, on ne s'est pas attaqué rapidement au problème, alors qu'il aurait fallu agir avec célérité et mettre en place des mesures sévères en matière de victimisation des enfants.
    Le Barreau considère que, de manière générale, il faut vraiment s'assurer d'avoir toutes les ressources nécessaires permettant d'appliquer la loi, sinon ça ne donne rien. Il est vraiment important de s'en assurer.
     Merci.
    J'aimerais poser la même question à Mme Bussières McNicoll pour ce qui est de la nécessité de fournir les ressources nécessaires à la Commission canadienne des droits de la personne et à la nouvelle entité qui sera constituée, soit la Commission canadienne de la sécurité numérique.
     Je vous remercie de la question.
    En ce qui a trait aux tribunaux existants en matière de droits de la personne, vous avez bien raison. Nous fournissons d'ailleurs des détails à ce sujet dans le mémoire que nous vous avons transmis. Le fait qu'ils manquent de ressources et qu'ils accusent un retard quant au traitement de leurs dossiers est bien documenté. Nous nous expliquons mal comment le fait d'ajouter à leurs tâches le dossier relatif au discours haineux sans leur fournir de ressources importantes va pouvoir les aider. Sur le plan purement et simplement pragmatique, il y a un problème.
    Nous avons aussi d'autres réserves en lien avec le fait de demander à ces tribunaux, qui ont une expertise très ciblée et très importante en matière de droits à l'égalité, de réglementer le discours haineux et la liberté d'expression au Canada.
    En ce qui concerne le second volet de votre question, je n'ai pas de commentaire particulier à formuler. Si on crée une nouvelle entité pour faire ce travail ou de nouveaux organismes de réglementation, il est effectivement important de bien les financer.
(1705)

[Traduction]

    Merci. Votre temps est écoulé, monsieur Julian.
    Merci à tous nos invités dans le premier groupe de témoins. Nous vous remercions de votre temps et de votre attention.
    Nous allons maintenant suspendre la séance pendant quelques minutes.
(1705)

(1710)

[Français]

    Nous reprenons la séance.

[Traduction]

    Dans le deuxième groupe de témoins, nous accueillons Emily Laidlaw, de l'Université de Calgary; Étienne-Alexis Boucher, de Droits collectifs Québec; et Matthew Hatfield, d'OpenMedia.
    Chers collègues, les tests de connexion de tous ces témoins qui comparaissent par vidéoconférence ont été effectués. Tous les résultats sont satisfaisants.
    J'aimerais maintenant céder la parole aux témoins pour leurs déclarations préliminaires.
    Nous allons commencer par vous, madame Laidlaw. Vous avez cinq minutes.
    Je m'appelle Emily Laidlaw. Je suis titulaire d'une chaire de recherche du Canada et professeure agrégée de droit à l'Université de Calgary.
    Lors de la dernière réunion du Comité, et plus tôt aujourd'hui, vous avez entendu des récits horribles, qui font ressortir les préjudices que ce projet de loi vise à éliminer. Dans le temps qui m'est imparti, j'aimerais expliquer quelle structure juridique est nécessaire pour atteindre ces objectifs, pourquoi une loi est nécessaire, pourquoi la partie 1 du projet de loi C‑63 est structurée tel qu'elle l'est et quels amendements sont nécessaires.
    Mon champ d'expertise est le droit lié à la technologie et les droits de la personne, en particulier la réglementation des plateformes, la liberté d'expression et la protection de la vie privée. Je consacre ma carrière à examiner la meilleure façon de rédiger ce genre de lois. Je vais soulever trois points dans ma déclaration préliminaire.
    Premièrement, pourquoi avons-nous besoin d'une loi? Lorsqu'Internet a été commercialisé dans les années 1990, les entreprises de technologie sont devenues de puissants arbitres de l'expression. Elles établissent les règles et la façon de les faire respecter. Leur pouvoir n'a fait que croître au fil du temps.
    Les médias sociaux sont essentiellement des entreprises de données et de publicité et, maintenant, des entreprises d'intelligence artificielle. Leurs services aux consommateurs et la conception de leurs produits et services peuvent directement causer du tort. Par exemple, la conception des algorithmes par les médias sociaux a une incidence pour notre santé mentale: les algorithmes font la promotion de contenu encourageant l'automutilation et la haine. Ils utilisent des techniques de persuasion pour encourager des comportements de dépendance — par exemple, en offrant du contenu agréable à visionner qu'on peut faire défiler à l'infini et en envoyant constamment des notifications.
    Jusqu'à présent, au Canada, nous nous sommes largement appuyés sur l'autogouvernance des entreprises. L'Union européenne, le Royaume-Uni et les États-Unis ont adopté des lois il y a des décennies. Beaucoup de pays en sont à la deuxième génération de ces lois, et un réseau d'organismes de réglementation collabore pour créer une uniformité à l'échelle mondiale.
    Pendant ce temps, le Canada n'a jamais adopté de loi exhaustive dans ce domaine. La législation qui s'applique est fragmentaire: elle aborde un peu la diffamation, la protection de la vie privée et le droit de la concurrence. Elle relève des dimensions importantes du problème, sans s'y attaquer directement.
    Par conséquent, où en sommes-nous au Canada? La partie 1 du projet de loi C‑63 est le fruit d'années de consultations, auxquelles j'ai contribué. À mon avis, après l'avoir amendée, il s'agira de la meilleure structure juridique pour lutter contre les préjudices en ligne.
    Cela m'amène à mon deuxième point. Ce projet de loi a une incidence sur le droit à la liberté d'expression.
    Notre groupe d'experts a consacré beaucoup de temps à réfléchir à la meilleure façon de protéger la liberté d'expression, et l'approche progressive que nous avons recommandée se reflète dans ce projet de loi.
    Cette approche progressive comporte trois niveaux.
    Premièrement, la plus grande atteinte à la liberté d'expression est le retrait du contenu, et le projet de loi ne l'exige que pour deux types de contenu qui sont les pires parmi les pires — les images qui, nous en convenons tous, devraient être retirées: le contenu d'exploitation sexuelle d'enfants et la divulgation non consensuelle d'images intimes, qui constituent tous deux des crimes.
    Le deuxième niveau est l'obligation spéciale de protéger les enfants, compte tenu de leur vulnérabilité particulière. L'obligation exige que les médias sociaux intègrent la sécurité dès la conception de leurs produits et services.
    Le troisième niveau, le fondement, est que les médias sociaux ont l'obligation d'agir de façon responsable. Cela n'exige pas de retirer du contenu, mais plutôt que les médias sociaux atténuent les risques d'exposition à des contenus préjudiciables.
    À mon avis, le projet de loi s'aligne sur les normes mondiales parce qu'il est axé sur les risques systémiques de préjudice et mise sur l'atténuation des risques, associée à des obligations en matière de transparence.
    Troisièmement, je ne suis pas ici pour préconiser l'adoption du projet de loi tel quel. Il n'est pas parfait. Il devrait être étudié attentivement et amendé.
    Par ailleurs, d'autres parties du projet de loi n'ont pas nécessairement besoin d'être amendées, mais supposent des choix difficiles qui devraient être débattus. Il faut débattre de la portée du projet de loi; des préjudices à inclure ou non; des médias sociaux à viser en fonction de la taille ou du type; de la structure réglementaire; de la création d'un nouvel organisme ou du recours à un organisme existant et des pouvoirs qu'il devrait avoir; et de ce qui devrait être inclus dans la loi, d'une part, et de ce qui devrait être élaboré plus tard dans des codes de pratique ou des règlements, d'autre part.
    Cependant, certains amendements sont, à mon avis, essentiels. Je vais terminer avec cette liste de trois amendements.
    Premièrement, l'obligation d'agir de façon responsable devrait également comprendre l'obligation de tenir compte des droits fondamentaux et des moyens pris par les entreprises pour atténuer les risques. Autrement, les médias sociaux pourraient mettre en œuvre des solutions bâclées au nom de la sécurité qui auront une incidence disproportionnée sur les droits. Ce type de disposition figure dans les lois de l'Union européenne et du Royaume-Uni.
    Deuxièmement, l'obligation d'agir de façon responsable et l'obligation de protéger les enfants devraient clairement régir la responsabilité et la transparence algorithmiques. Je pense que cet aspect est vaguement couvert dans le projet de loi actuel, mais il faudrait l'étoffer et le rendre explicite.
    Troisièmement, l'article sur la protection de l'enfance devrait être présenté comme étant les intérêts supérieurs de l'enfant. De plus, les définitions de contenu préjudiciable pour les enfants devraient être amendées. Je propose deux amendements principaux: premièrement, le contenu poussant un enfant à se porter préjudice devrait avoir une portée étroite afin que les enfants qui explorent leur identité ne soient pas accidentellement visés. Deuxièmement, les éléments de conception qui créent une dépendance devraient être ajoutés à la liste.
    Je vous remercie du temps que vous m'avez accordé. J'attends avec impatience notre discussion.
(1715)
    Merci, madame Laidlaw.
    Nous passons maintenant à M. Boucher.

[Français]

    Vous avez la parole pour cinq minutes.
    Bonjour à tous, chers parlementaires, honorables membres du Comité permanent de la justice et des droits de la personne de la Chambre des communes.
    Je vous remercie énormément de me permettre de m'exprimer dans le cadre de la préétude du projet de loi C‑63, qui porte sur les discours haineux en ligne.
    Je suis Étienne‑Alexis Boucher, directeur général de Droits collectifs Québec. Je devais être accompagné par l'avocat général de Droits collectifs Québec, Me François Côté, mais il ne peut malheureusement être des nôtres en raison de la marque du micro qu'il utilise.
    Droits collectifs Québec est un organisme à but non lucratif gouverné par un conseil d'administration indépendant. Il se définit comme un acteur de transformation sociale, et il est présent sur l'ensemble du territoire québécois. Sa mission est de contribuer à la défense des droits collectifs sur le territoire québécois, eu égard notamment aux droits linguistiques et constitutionnels des citoyens et des citoyennes. Notre approche est non partisane, et l'action de l'organisme comporte de nombreux champs d'intervention, dont l'éducation populaire, la mobilisation sociale, la représentation politique et l'action judiciaire.
    Après avoir dressé un bref portrait de l'organisme, mon propos principal au cours de cette intervention porte sur le consensus québécois qui existe à deux égards. Nous avons déjà agi quant au premier, et cela a été traité par les témoins du premier groupe un peu plus tôt. Nous avons entendu des témoignages particulièrement poignants concernant la mère d'une jeune femme dont les images intimes ont été partagées.
    Alors qu'Ottawa refusait de bouger sur cette question, le Québec a fini, lui, par prendre les devants. Il est devenu un précurseur en la matière, et l'Assemblée nationale a adopté des mesures qui relèvent du Code pénal. Malheureusement, le Québec n'a pas de pouvoir quant au Code criminel. Du moins, c'est l'état de la situation actuelle. Il a donc, par les prérogatives que lui permet la Constitution du Canada, adopté des mesures concernant le partage de contenu intime sans consentement. Autrement dit, puisque le gouvernement fédéral ne se penchait pas sur la question, on a répondu à ce consensus québécois par cette initiative.
    Je rappelle aussi, en matière de consensus québécois, l'adoption à l'unanimité à l'Assemblée nationale de la demande d'abolir les alinéas 319(3)b) et 319(3.1)b) du Code criminel, qui prévoient que « nul ne peut être déclaré coupable » de fomenter volontairement la haine contre un groupe identifiable « [s]'il « a, de bonne foi, exprimé une opinion sur un sujet religieux ou une opinion fondée sur un texte religieux auquel il croit, ou a tenté d'en établir le bien-fondé par argument ».
    Voilà une exception au nom de la liberté de religion qui n'a pas sa place dans un État moderne comme le Canada. On comprend que la Constitution de 1867 prévoit que le fondé de pouvoir est issu du droit divin au Canada. Même le chef d'État ne peut être choisi par les citoyens et les citoyennes du Canada de manière démocratique, mais bien par Dieu. Cependant, on est rendu au XXIe siècle, et je pense que la liberté de religion n'a pas à être hiérarchisée de manière plus importante que la liberté de conscience, par exemple, ou la liberté d'opinion politique, alors que des contraintes sont reconnues par tous comme étant valables. Par exemple, lorsqu'on est un professeur, on ne peut exprimer dans le cadre de ses fonctions des opinions basées sur le statut politique du Québec ou du Canada. Ce sont des contraintes apportées à une liberté fondamentale qui sont tout à fait justifiables.
    Or, la question de rendre possible un crime, ce qui est normalement considéré comme un crime, comme n'en étant pas un au nom de la liberté de religion, c'est pour nous complètement inacceptable. C'est pourquoi nous invitons finalement les parlementaires à répondre à l'appel du ministre de la Justice du Québec, qui, encore une fois, recueille l'assentiment d'une très grande majorité de Québécoises et de Québécois. Il exprimait ainsi un consensus largement établi, à savoir qu'il est tout simplement inacceptable d'accepter un discours haineux basé sur les religions.
    Il y a eu des exemples très concrets. On a vu les dérives et les conséquences que cette exception a permises jusqu'à présent, alors que des gens, de manière tout à fait publique, devant des centaines de milliers de personnes, si on compte les gens qui ont visionné les images qui étaient très présentes sur les médias sociaux, ont pu constater l'appel au génocide qui a été fait au nom d'une religion.
(1720)
    Malheureusement, cet appel n'a pas pu faire l'objet de poursuites criminelles, étant donné, probablement, cette exception. De nouveau, nous pensons que cela est inacceptable. Ce consensus a été dégagé tant par l'État québécois que par des organismes, comme le Rassemblement pour la laïcité, dont je suis le vice-président. Cet organisme regroupe des dizaines d'organisations, voire des milliers de personnes.
     Merci, monsieur Boucher.

[Traduction]

    Merci. Vous aurez peut-être du temps supplémentaire si les députés décident de vous en accorder. Cependant, votre temps de parole est écoulé.
    Nous allons maintenant passer à M. Hatfield.
    Vous avez cinq minutes, monsieur.
    Bonsoir. Je m'appelle Matt Hatfield et je suis le directeur exécutif d'OpenMedia, une communauté non partisane de plus de 250 000 personnes au Canada qui travaillent pour avoir un Internet ouvert, abordable et sans surveillance.
    Je me joins à vous depuis le territoire non cédé des nations Stó:lo, Tsleil-Waututh, Squamish et Musqueam.
    Je dirais qu'il est assez impressionnant d'être ici aujourd'hui pour parler du projet de loi sur les préjudices en ligne. Lorsque les Canadiens ont vu pour la première fois ce à quoi pourrait ressembler ce projet de loi en prenant connaissance d'un livre blanc sur le sujet en 2021, ils n'ont pas beaucoup aimé ce qu'ils ont vu. OpenMedia était d'avis qu'il s'agissait d'un plan pour faire de l'Internet au Canada l'un des plus censurés et surveillés dans le monde démocratique, et nous étions loin d'être les seuls à être inquiets.
    Pour une fois, le gouvernement a écouté. Il a mis un frein à son empressement à légiférer. Des consultations nationales ont été organisées dans tout le pays avec un large éventail d'intervenants et d'experts sur la liberté d'expression et les préjudices afin de trouver une façon de bien réglementer. La partie 1 du projet de loi C‑63 qui en résulte est une énorme amélioration, le jour et la nuit. Les approches punitives simplistes qui auraient fait plus de mal que de bien ont disparu. De plus, les distinctions et les nuances qui ont été apportées à bien des endroits témoignent d'une réelle compréhension du fonctionnement d'Internet et de la façon de gérer les différents préjudices. Le fait de greffer à la partie 1 — la Loi sur les préjudices en ligne comme telle — les modifications au Code criminel et à la Loi sur les droits de la personne qui sont proposées a gravement occulté ce bon travail. C'est pourquoi, aux côtés de nos pairs, nous avons demandé que les parties soient séparées et nous nous réjouissons de la décision du gouvernement de les séparer.
    Je vais me concentrer sur la partie 1 et la partie 4.
    OpenMedia répète depuis des années que les Canadiens n'ont pas à sacrifier leurs libertés fondamentales pour apporter des améliorations très importantes à notre sécurité en ligne. Le recentrage du projet de loi C‑63 en est la preuve. Au lieu d'essayer de régler tout ce qui est désagréable sur Internet en même temps, le projet de loi C‑63 se concentre sur sept types de contenu déjà illégal au Canada et traite ceux qui sont les pires et les plus facilement identifiables — le matériel d'exploitation d'enfants et le matériel d'adultes partagé sans consentement — le plus sévèrement. C'est la bonne décision à prendre. Au lieu de criminaliser les plateformes pour les actes horribles d'un petit nombre d'utilisateurs, ce qui les aurait sans doute amenées à réagir de manière excessive en surveillant et censurant chacun d'entre nous, le projet de loi C‑63 leur demande de procéder à leurs propres évaluations des risques posés par ces sept types de contenu et de démontrer ce qu'elles font pour tenter de les atténuer. C'est encore une fois la bonne décision à prendre. Ainsi, les nombreux ingénieurs talentueux dont disposent les plateformes travailleront pour répondre aux besoins de la population canadienne, en réfléchissant de manière créative aux moyens de réduire ces préjudices illégaux particuliers. Les plateformes expliqueront ainsi au fur et à mesure ce qu'elles font, afin que nous puissions évaluer si cela a du sens et corriger le tir si ce n'est pas le cas.
    Cependant, je tiens à être très clair: ce n'est pas le moment d'adopter le projet de loi C‑63 et de s'arrêter. C'est tout le contraire. Comme les parties qui sont maintenant séparées soulèvent de nombreuses préoccupations, il n'y a pas suffisamment d'attention qui a été accordée à l'amélioration de la partie 1. Je sais que vous entendrez un éventail d'experts juridiques et politiques vous faire part de leurs préoccupations au sujet de certains éléments du libellé de la partie 1 et des correctifs recommandés. J'espère que vous les écouterez tous très attentivement et que vous adopterez bon nombre des solutions qu'ils vous proposent.
    Ce n'est pas le moment de procéder à l'aveuglette. La nouvelle commission de la sécurité numérique se voit accorder des pouvoirs extraordinaires pour examiner, orienter et rendre des décisions exécutoires sur les façons pour les plateformes de modérer l'expression publique des Canadiens dans les espaces en ligne que nous utilisons le plus. C'est approprié si, et seulement si, vous vous assurez qu'ils examinent attentivement et minimisent les répercussions sur notre liberté d'expression et notre vie privée. Il ne suffit pas que la commission pense à nos droits dans ses décisions explicites. Le plan de sécurité d'une plateforme qui est mal conçu pourrait réduire un préjudice en ligne, mais avoir une incidence largement disproportionnée sur notre vie privée ou notre liberté d'expression. Vous devez vous assurer que les plateformes et l'organisme de réglementation effectuent des évaluations écrites des répercussions de leurs plans sur nos droits et veillent à ce qu'elles soient faibles et proportionnelles à l'atténuation du préjudice. Les mesures prévues dans le projet de loi C‑63 pour protéger les communications privées et chiffrées et empêcher les plateformes de surveiller les utilisateurs doivent être renforcées et rendues hermétiques.
    OpenMedia a un rôle unique à jouer dans ces discussions parce que nous sommes à la fois une communauté de défense des droits qui luttera toujours pour protéger nos droits et nos libertés fondamentales, et une communauté de défense des consommateurs qui militent en faveur d'une réglementation sensée qui renforce notre pouvoir et améliore notre vie quotidienne. Si le Comité fait son travail, il peut faire du projet de loi C‑63 une réussite sur ces deux plans. Depuis 2021, les membres de notre communauté ont envoyé près de 22 000 messages au gouvernement pour lui demander de s'attaquer de la bonne façon aux préjudices en ligne. Prendre le temps d'étudier attentivement le projet de loi C‑63 et d'y apporter les correctifs nécessaires avant de l'adopter vous permettrait de répondre à nos années de militantisme et de faire d'Internet un endroit meilleur et plus sain pour de nombreuses années à venir.
    Je vous remercie et je me ferai un plaisir de répondre à vos questions.
(1725)

[Français]

    Merci, monsieur Hatfield.
    Vous n'avez pas la berlue. Je remplace M. Brock, mais les procédures demeurent les mêmes.
    Je remercie les témoins de leurs présentations.
    Monsieur Jivani, vous avez la parole pour six minutes.
    Merci, monsieur le président.

[Traduction]

     Ma première question s'adresse à M. Hatfield.
    Je vous remercie de votre exposé.
    Comme vous avez exprimé très clairement des réserves au sujet des parties 2 et 3 du projet de loi C‑63, j'aimerais savoir pourquoi certains articles de la partie 1 ne vous inquiètent pas plus que cela, en particulier ceux qui portent sur la commission de la sécurité numérique, le bureau de la sécurité numérique, l'ombudsman de la sécurité numérique qui vont jeter les bases de la bureaucratie qui va rendre possibles les parties 2 et 3.
    Est‑ce que ces articles de la partie 1 vous préoccupent? Pourriez-vous nous faire part de quelques préoccupations précises que vous avez concernant la partie 1, sur laquelle nous nous concentrons aujourd'hui?
    Je ne pense pas que la partie 1 exige les parties 2 et 3. Je pense que nous pouvons les séparer complètement, et je pense que le gouvernement devrait le faire.
    En ce qui concerne nos préoccupations au sujet de la partie 1, on accorde énormément de pouvoir à l'organisme de réglementation. Nous croyons qu'il est important que le Canada ait un organisme de réglementation dans ce domaine, tout comme il a un organisme de réglementation de la protection de la vie privée et un organisme de réglementation de la concurrence. La sécurité numérique est une question assez complexe et nuancée pour qu'il soit utile d'avoir une source d'expertise gouvernementale qui aide à prendre de bonnes décisions à ce sujet, mais cela ne signifie pas qu'on devrait simplement lui donner un chèque en blanc. Il faut examiner tout cela attentivement et imposer des limites à l'organisme de réglementation avant que le projet de loi ne quitte le Comité.
    Pourriez-vous nous donner des exemples de ces limites qui devraient être envisagées selon vous?
(1730)
    La plus importante, à notre avis, est que les décisions prises par la commission doivent être assorties d'évaluations obligatoires des répercussions qu'elles ont sur la liberté d'expression et la vie privée, qu'il s'agisse des décisions qu'elle prend directement ou les décisions qui concernent l'approbation des plans de sécurité.
    Si elle approuve les plans de sécurité soumis par les plateformes, ces plans doivent préciser ce que les plateformes estiment être les répercussions de ces plans sur la vie privée et la liberté d'expression. L'organisme de réglementation doit les évaluer et déterminer si elles sont proportionnelles et si, honnêtement, une poursuite risque d'être intentée contre elles, ce qui voudrait dire que les répercussions prévues dans les plans ne sont sans doute pas proportionnelles. Il doit prendre des décisions importantes, mais à l'intérieur de certaines limites.
    Monsieur Hatfield, il y a d'autres projets de loi à l'étude dont l'objectif serait plutôt de mettre à jour des lois existantes et de faire en sorte qu'il soit plus facile pour le système de justice pénale de répondre aux besoins des victimes et d'accroître la reddition de comptes des plateformes. Il semble — et corrigez-moi si je me trompe — que vous préfériez la création de ce que je considère être une nouvelle bureaucratie plutôt que le renforcement du système que nous avons actuellement. Pourquoi?
    Je pense que le projet de loi C‑412 comporte beaucoup de bons éléments. Nous pensons que ce projet de loi, si le présent n'est pas adopté, mérite d'être étudié, mais je pense que le projet de loi C‑63 accomplirait plus sur une plus longue période pour les Canadiens que le projet de loi C‑412. Je pense que la portée du projet de loi C‑412 est étroite, sans doute trop étroite. En ce qui concerne les préjudices auxquels ils tentent de remédier tous les deux, je pense que le fait d'avoir un organisme de réglementation est vraiment avantageux.
    Prenez les lois sur la protection des renseignements personnels par exemple. On ne se contente pas de dire: « Voici vos lois sur la protection des renseignements personnels sur papier, et voici un droit privé d'action que vous pouvez utiliser. Notre droit à la vie privée est défendu. » Nous considérons qu'il est très utile d'avoir un commissaire à la protection de la vie privée qui peut aider les Canadiens à faire valoir leurs droits dans ce domaine. Nous espérons que la commission de la sécurité numérique fonctionnera de la même façon.
    Monsieur Hatfield, vous avez parlé des effets à long terme de la partie 1. Je dirais que ces effets à long terme sont justement les parties 2 et 3 qui vous préoccupent, et c'est pourquoi je pense que beaucoup de Canadiens qui sont d'accord avec nombre d'objectifs que le gouvernement a exprimés en ce qui concerne la partie 1 s'inquiètent des effets en cascade que cela aura plus tard, étant donné surtout que le gouvernement a déjà déclaré ses intentions au sujet des parties 2, 3 et 4. Il a déjà dit qu'il y aurait des suites. Si vous vous inquiétez des suites, peut-être que l'original vaut la peine d'être reconsidéré.
    Je vous remercie de votre contribution.
    Combien de temps me reste‑t‑il?
    Il vous reste une minute et demie.
    Madame Laidlaw, pendant le temps qu'il me reste, j'aimerais revenir à vous pour vous demander d'en dire un peu plus sur les amendements auxquels vous avez fait référence dans votre déclaration préliminaire. Si vous pouviez nous donner un peu plus de détails et de contexte, je vous en serais reconnaissant.
    Oui, merci beaucoup de m'en donner l'occasion.
    Ce qui est essentiel, à mon avis — et cela fait suite à ce que M. Hatfield vient de dire —, c'est qu'il y a toujours un risque de réaction excessive si l'accent est uniquement mis sur les préjudices. C'est pourquoi il est important que l'un des principaux préjudices soit lié à la liberté d'expression et à la vie privée en particulier. Il est donc important que les entreprises déposent des plans de sécurité numérique qui expliquent comment elles prennent des décisions pour leurs services qui contrebalancent les préjudices, mais qu'elles pensent aussi à une façon de le faire en protégeant le mieux possible la vie privée et la liberté d'expression. La commission de la sécurité numérique aurait l'obligation d'examiner cela dans le cadre de ses activités, mais l'entreprise doit aussi avoir cette responsabilité.
    En ce qui concerne les mesures de protection de l'enfance, je pense que l'intérêt supérieur de l'enfant est protégé par le droit international. Je pense que c'est le modèle à suivre. Il est extrêmement important de préciser ce que nous recherchons en matière de protection de l'enfance lorsque nous parlons de sécurité intégrée dans la conception.
    Bien sûr, il y a la responsabilité algorithmique. Je pourrai en discuter davantage avec vous, mais je suis consciente du temps.
    Je vous remercie.

[Français]

     Madame Brière, vous avez la parole pour six minutes.
    Merci, monsieur le président.
    C'est un grand plaisir de vous voir occuper ce fauteuil, monsieur le président.
    J'aimerais saluer M. Étienne‑Alexis Boucher, qui vient de ma région.
    Je poserai mes questions à Mme Laidlaw et à M. Hatfield.
    Madame Laidlaw, on a dit tantôt que le projet de loi était le résultat de plusieurs années de consultation. Vous avez fait partie de ce processus.
    Pourquoi a-t-on retenu la liste des sept catégories de contenus préjudiciables?
    Par ailleurs, on impose aux plateformes l'obligation d'agir de façon responsable. Qu'est-ce que cela veut dire, concrètement? J'imagine que cela suppose la nécessité d'identifier les risques de préjudice et d'en atténuer les effets.
    J'aimerais avoir vos commentaires là-dessus.
(1735)

[Traduction]

    Merci.
    J'ai eu de nombreuses discussions avec d'autres gouvernements, et j'ai constaté que l'obligation d'agir de façon responsable équivaut généralement à l'obligation de diligence au Royaume-Uni ou aux obligations de diligence raisonnable et de gestion des risques en Europe en général. Il s'agit donc de faire en sorte que les entreprises intègrent l'approche de diligence raisonnable à l'échelle systémique.
    L'obligation d'agir de façon responsable émane de la Commission canadienne de l'expression démocratique, et c'est vraiment pratique. Leur recommandation était que nous ne devrions pas utiliser l'expression « devoir de diligence ». C'est le libellé du droit de la responsabilité délictuelle. Cela pourrait porter à confusion si une affaire est portée devant les tribunaux. Nous voulons qu'il s'agisse d'une obligation législative distincte qui est simplement énoncée dans la loi, et l'expression « obligation d'agir de manière responsable » décrit mieux cette obligation.
    En ce qui concerne les préjudices inclus, je pense que c'est un point de débat. J'en ai discuté avec des collègues, et l'un des préjudices qui pourraient être ajoutés à la liste est l'usurpation d'identité. C'est un enjeu majeur, et je pense qu'il serait pertinent de l'inclure.
    Il est important de noter ce qui ne figure pas sur la liste. Un point sur lequel j'ai eu de nombreuses discussions est l'inclusion de la mésinformation et de la désinformation, qui entrent généralement dans la catégorie de ce qui est « légal, mais abominable ». C'est inclus dans la loi de l'Union européenne. Il a été décidé de ne pas l'inclure au Canada en raison de ce que je considérerais comme des risques problématiques pour la liberté d'expression. Autrement dit, nous irions au‑delà de ce qui devrait être pris en considération par un organisme de réglementation.
    Enfin, nous devons réfléchir à ce qu'un organisme de réglementation peut faire concrètement. Nous savons que cela coûtera de l'argent, alors il faut penser aux éléments que l'on devrait inclure, qui sont à haut risque, et sur lesquels un organisme de réglementation peut enquêter et faire une différence maintenant.
    Je vais m'arrêter ici.
    Merci.

[Français]

    Merci beaucoup.
    Vous êtes donc d'avis que la liste de catégories de contenus préjudiciables devrait être revue.
    Ai-je bien compris vos propos?

[Traduction]

    Je reconnais qu'il y a matière à débat. Il pourrait y avoir des arguments raisonnables dans un sens ou dans l'autre. Je suis à l'aise avec l'idée de procéder avec la liste telle quelle. Le seul élément que j'ajouterais serait sans doute l'usurpation d'identité, mais je ne m'écarterais pas beaucoup de la liste actuelle, compte tenu de ce qui relève de la compétence fédérale.

[Français]

    Merci.
    Dans l'une de vos publications, vous avez d'ailleurs dit que ce projet de loi couvrait l'essentiel, bien qu'il soit possible d'y apporter certaines modifications.
    Dans cet article, qui est rédigé en anglais, vous dites: « this bill gets the big things right ».
    Êtes-vous toujours d'accord sur cela?

[Traduction]

    Oui, tout à fait. Le principal sujet de débat était de savoir comment structurer un organisme pour qu'il s'attaque à ces problèmes tout en trouvant un équilibre entre les préjudices et la liberté d'expression, et c'est ce que fait ce projet de loi. C'est le résultat d'années de consultations et cela correspond aux autres organismes de réglementation mondiaux.

[Français]

    Depuis le début de l'étude, plusieurs parents, particulièrement des mamans, nous ont raconté des histoires horribles sur ce que leurs enfants avaient vécu. Certains jeunes se sont même suicidés.
    Croyez-vous que le projet de loi C‑63 permettra, concrètement, d'atteindre les objectifs fixés?

[Traduction]

    Oui. Le bémol, c'est que nous n'allons jamais débarrasser Internet des préjudices, et ce ne sera jamais une mesure législative parfaite. Il s'agit d'améliorer les choses.
    Cela ne peut pas se faire avec les lois existantes ou en améliorant les lois existantes, et cela ne peut pas se faire uniquement par l'entremise des tribunaux, même si les tribunaux sont un processus important. Il faut avoir un organisme de réglementation qui peut travailler avec l'industrie, qui est plus souple, qui peut travailler avec les communautés et les groupes de la société civile touchés, et qui a le pouvoir de retirer rapidement les pires contenus.
    C'est un projet continu et, à long terme, je pense que cela va améliorer les choses, mais ce n'est certainement pas parfait.
(1740)

[Français]

    Il vous reste 10 secondes, madame Brière.
    D'accord.
    Madame Laidlaw, les plateformes ont déjà leurs propres règles, et on sait que, parfois, elles ne les respectent pas.
    Par conséquent, croyez-vous que le projet de loi C‑63 parviendra à leur imposer des contraintes?
    Je vous invite à répondre par « oui » ou « non », madame Laidlaw.

[Traduction]

    Oui, il s'agit d'avoir des normes minimales.

[Français]

    Je prends maintenant la parole pour six minutes.
    Je remercie tous les témoins d'être avec nous, aujourd'hui.
    Messieurs Boucher, Côté et Hatfield, ainsi que madame Laidlaw, votre participation est précieuse.
    Madame Laidlaw, à propos de la haine, le projet de loi C‑63 prévoit ce qui suit: « Quiconque a des motifs raisonnables de craindre qu'une personne commette l'une des infractions ci-après peut, avec le consentement du procureur général, déposer une dénonciation devant un juge d'une cour provinciale [...] »
    Ne craignez-vous pas que cette formulation soit un peu trop vague et que cela mène à des abus?

[Traduction]

    Je tiens tout d'abord à souligner que j'appuie l'idée d'une étude en accéléré de la partie 1. Je suis tout à fait d'accord pour séparer le projet de loi. Je pense que les parties 2 et 3 sont fondamentalement différentes.
    Cela dit, en ce qui concerne les dispositions relatives à l'engagement de ne pas troubler l'ordre public, je m'en remets beaucoup aux avocats criminalistes qui pratiquent, car je crois comprendre qu'il y a tellement d'obstacles à surmonter pour obtenir un engagement de ne pas troubler l'ordre public qu'il ne s'agit pas de la victoire facile à laquelle on pourrait penser en se présentant devant les tribunaux.
    Cela dit, cette perspective peut avoir un effet dissuasif. C'est pourquoi je pense qu'il faut une consultation beaucoup plus large sur ce type de disposition. Je ne sais pas non plus si c'est déjà nécessaire. Si on craint un crime contre les biens, on peut obtenir un engagement de ne pas troubler l'ordre public dans l'état actuel des choses. Je ne suis pas encore convaincue que c'est un outil qui va en valoir la peine.

[Français]

    Merci, madame Laidlaw.
    Monsieur Hatfield, je vous pose la même question. Quelle est votre opinion sur cette possibilité de dénonciation quand on a des motifs raisonnables de craindre une infraction?

[Traduction]

    Nous sommes très préoccupés par les parties 2 et 3. Si ces parties faisaient toujours partie du projet de loi, notre exposé et nos recommandations seraient très différents.
    Cependant, nous croyons comprendre que la possibilité existe maintenant de voir seulement la partie 1 et la partie 4 être adoptées ensemble. C'est ce que nous pourrions appuyer.

[Français]

    Merci, monsieur Hatfield.
    Monsieur Boucher, l'organisme Droits collectifs Québec a-t-il évalué cette question?
    Voulez-vous faire des commentaires là-dessus?
    Pourriez-vous répéter la question?
    Il s'agit de la partie 2 du projet de loi, qui porte sur la haine. Le ministre nous a annoncé qu'il allait scinder le projet de loi. Je suis évidemment d'accord là-dessus, puisque c'est le Bloc québécois qui l'avait demandé dès le départ. Nous pensons, nous aussi, qu'il doit être scindé. Cependant, tant que ce n'est pas concrètement fait, nous effectuons une préétude du projet de loi C‑63 dans son entièreté.
    Je me permets donc de vous poser la question, même si, moi aussi, je pense que la question devrait être traitée dans le cadre d'une autre étude.
    Ce projet de loi prévoit ce qui suit: « Quiconque a des motifs raisonnables de craindre qu'une personne commette l'une des infractions ci-après peut, avec le consentement du procureur général, déposer une dénonciation devant un juge d'une cour provinciale [...] »
    Cela vous paraît-il raisonnable? Ne craignez-vous pas que cela ouvre la porte à des abus, en matière de dénonciation?
     Je demanderais à Me Côté de vous répondre.
    Je pense que Me Côté n'a pas le casque d'écoute de la Chambre des communes, ce qui pourrait nuire à nos interprètes. C'est la raison pour laquelle nous ne pourrons malheureusement pas avoir son opinion, bien qu'elle aurait été très précieuse.
(1745)
     J'aimerais d'abord dire que notre intervention ne portait pas sur cette question très précise. Toutefois, je me rallie à l'avis des experts qui ont témoigné ici, à ce comité. Il semble évident que ce serait une bonne idée.
    Monsieur Boucher, êtes-vous en mesure de nous parler de la définition du mot « haine » telle qu'elle est proposée dans le projet de loi C‑63?
    Vous avez peut-être entendu les propos des témoins ayant comparu lors de la première partie de la séance. Le Barreau du Québec a exprimé son opinion sur cette définition. On nous a parlé d'un arrêt de la Cour suprême, dont le nom m'échappe. Dans le cadre de cette affaire, un juge s'était penché sur cette définition.
    J'aimerais avoir votre avis à ce sujet.
    Comment ce mot devrait-il être défini et quelles sont les balises qui permettraient d'encadrer cette question?
    Mes collègues du Barreau du Québec semblaient dire que, au fond, la Cour suprême avait quand même relativement bien balisé ce que pouvait être un discours haineux.
    En quelque sorte, je pense que c'est...

[Traduction]

    J'invoque le Règlement. Nous n'entendons pas l'interprétation.

[Français]

    Un instant, monsieur Boucher. Il n'y a pas d'interprétation.

[Traduction]

    Entend‑il l'interprète?

[Français]

    Monsieur Boucher, excusez-moi, mais je viens d'apprendre que vous n'avez pas non plus le bon casque d'écoute. Ce que j'ai compris, c'est que Me Côté et vous avez reçu des casques d'écoute en mai dernier, mais les casques ont…
    C'est un casque que j'ai acheté.
    Malheureusement, vous ne pouvez pas témoigner ni l'un ni l'autre pour cette raison.
    À mon sens, il s'agit d'une erreur de la Chambre des communes. Selon ce que j'ai compris, ces casques d'écoute vous ont été acheminés au printemps dernier, mais vous n'avez pas eu les nouveaux casques.
    Je me permets de vous dire que si vous souhaitez revenir devant ce comité, nous pourrons vous convoquer à nouveau à une date ultérieure.
    Cela dit, si vous le souhaitez, vous pouvez tout simplement nous transmettre par écrit vos observations ou les réponses aux questions qui vous ont été adressées. Ces réponses doivent être transmises sans délai à tous les membres du Comité, et elles pourront être prises en considération.
    Encore une fois, si vous souhaitez être invité à nouveau, je me ferai moi-même votre porte-parole pour demander que nous vous convoquions lors d'une prochaine réunion. À cette occasion, nous vous enverrons les bons casques d'écoute.
    Je vous présente des excuses, au nom de notre comité. Si vous êtes en mesure de nous transmettre vos observations et vos commentaires par écrit, je vous en serais reconnaissant.
    Sachez que nous prenons ce problème très au sérieux. Il faut savoir que des interprètes ont subi des blessures auditives. Je ne savais pas que cela pouvait survenir. Je l'ai appris pendant la pandémie. Depuis cette période, nous utilisons beaucoup la vidéoconférence, et nous devons protéger nos interprètes, dont nous avons bien besoin pour faire notre travail.
    N'hésitez pas à me prévenir si vous voulez témoigner à nouveau. Je veillerai à ce que l'on vous convoque ultérieurement.
    Je vous remercie.
    Il me restait donc une minute à mon tour de parole, et je vais m'autoriser à poser ma question tout de suite.
    Madame Laidlaw, s'agissant des peines maximales, il est question d'infliger des peines à perpétuité pour certaines infractions aggravées en matière de discours haineux. Par exemple, quelqu'un qui a commis une infraction sous l'emprise de la haine pourrait être passible d'une peine d'emprisonnement à perpétuité.
    Selon vous, une telle peine est-elle adéquate? Devrions-nous revoir cette disposition?
(1750)

[Traduction]

    Cela devrait être revu. Je pense que le risque d'emprisonnement à perpétuité pour un délit verbal est tout à fait disproportionné.

[Français]

    Je vois M. Hatfield qui opine du bonnet. Je suis bien content.
    Je vous remercie, madame Laidlaw.
    Mon tour de parole étant écoulé, nous revenons à M. Julian.
    Monsieur Julian, vous avez la parole pour six minutes.
     Merci beaucoup, monsieur le président.
    Je suis tout à fait d'accord sur ce que vous avez dit à propos des interprètes. Vous avez pris une décision importante, mais juste. Il faut bien les protéger en tout temps. Ils représentent vraiment l'un des fondements de notre Parlement. C'est triste de devoir interrompre le témoignage d'un témoin, mais vous avez fait ce qu'il fallait faire et avez agi de façon responsable.

[Traduction]

    J'aimerais m'adresser à Mme Laidlaw.
    Merci beaucoup de votre exposé d'aujourd'hui. Vous avez également parlé des algorithmes. Je veux revenir à vous sur cette question.
    Comme vous le savez, le Parlement est saisi du projet de loi C‑292, Loi concernant la transparence en matière d'algorithmes en ligne. Dans quelle mesure pensez-vous — en plus de la partie 1 du projet de loi — que nous devons examiner la loi ou devons peut-être en intégrer des parties de ce projet de loi pour nous assurer de pouvoir faire en sorte que les algorithmes puissent être transparents pour les Canadiens, et de cette façon également accroître la sécurité?
     Merci pour cette question.
    Je suis d'accord. La responsabilité algorithmique devrait être intégrée au projet de loi C‑63. Lorsque je me suis exprimée tout à l'heure, j'ai dit que cet aspect était vaguement couvert dans le projet de loi actuel, mais il y a des risques. Le projet de loi doit aller plus loin, car l'obligation d'agir de manière responsable confie à la Commission canadienne de la sécurité numérique la tâche d'établir les codes de pratique et les règlements. La transparence et l'amplification algorithmique pourraient être couvertes, mais ce type de sécurité numérique dès la conception et la responsabilité algorithmique doivent être intégrés au projet de loi.
    Il en va de même pour les dispositions relatives aux enfants. Le projet de loi couvre les algorithmes relatifs à la sécurité dès la conception, mais il s'agit d'une disposition très succincte. Si nous examinons votre projet de loi et certaines de ces dispositions et que nous nous en inspirons pour étoffer la partie 1 du projet de loi C‑63, je pense que nous serons sur la bonne voie.
    Merci beaucoup pour cette réponse.
    J'aimerais poser la même question à M. Hatfield.
    Monsieur Hatfield, vous avez mentionné que la partie 1 du projet de loi C‑63 accomplirait plus de choses qu'un autre projet de loi qui a été étudié autour de cette table — le projet de loi C‑412 — et vous nous avez donc donné la réponse à cette question. Il est très clair que nous devrions nous concentrer sur la partie 1 du projet de loi C‑63.
    Dans quelle mesure pensez-vous qu'il est également important d'assurer la transparence algorithmique et pensez-vous que nous devrions intégrer certaines dispositions du projet de loi C‑292 à la partie 1 du projet de loi C‑63?
    Oui, il serait bon que le projet de loi C‑63 aille un peu plus loin dans l'examen de ce que font les algorithmes, en vue de fournir plus de transparence, de donner aux chercheurs un bon accès à l'étude des algorithmes et de cerner leurs répercussions sur le public. Je pense qu'il serait bon que les députés se mettent d'accord sur un libellé, l'adoptent et passent au reste du projet de loi. Je ne pense pas que l'avenir du projet de loi en dépende, mais j'estime que c'est l'approche à adopter.
     Je vais vous poser à tous les deux la question suivante: sur quels exemples étrangers devons-nous nous appuyer pour examiner la partie 1 du projet de loi et obtenir non seulement le meilleur projet de loi possible à l'issue des travaux du Comité, mais un projet de loi qui accomplisse ce que nous devons accomplir à ce stade critique?
    Je vais commencer par vous, madame Laidlaw.
    Je recommande au Comité de commencer par étudier la Loi sur les services numériques. Gardez à l'esprit que ce type de texte de loi européen est généralement beaucoup plus court et laisse beaucoup de choses pour plus tard. Je pense que le projet de loi C‑63 est un peu plus complet, mais en particulier pour ce qui est de la responsabilité algorithmique, en raison de la façon dont ils l'abordent là‑bas pourrait être utile ici.
    L'autre élément que nous devrions étudier relativement à certains aspects est la loi britannique sur la sécurité en ligne, la Online Safety Act. Nous nous sommes également inspirés de certains aspects de la structure du commissaire à la sécurité électronique de l’Australie. Je ne me souviens plus du nom de ce texte de loi.
    Je vous recommande d'examiner ces trois éléments.
(1755)
    Nous pouvons tirer des enseignements de tous ces textes de loi. Essentiellement, lorsque nous examinons les exemples étrangers, nous espérons qu'ils abordent les éléments que nous avons proposés. Nous voulons atteindre une norme plus élevée, sans porter atteinte à la liberté d'expression, mais en créant les protections qui sont si importantes.
    Monsieur Hatfield, je vais vous poser la même question et vous demander quels sont les exemples étrangers dont nous devons nous inspirer pour créer ce projet de loi afin d'obtenir le meilleur résultat possible.
    En ce qui concerne les exemples étrangers, je vais faire écho à ce qu'a dit Mme Laidlaw. Je pense que nous devons commencer par examiner la Loi sur la sécurité numérique. Nous devons ensuite regarder ce qu'ont fait certains de nos homologues du Commonwealth, notamment l'Australie et le Royaume‑Uni.
    Du point de vue de la partisanerie, au Royaume‑Uni, c'est un gouvernement conservateur qui a fait passer un projet de loi contenant certains paramètres semblables à ceux du projet de loi canadien. Je vous encourage tous à garder ce fait à l'esprit.
    Si le but est simplement d'ajouter le contenu du projet de loi C‑412 au projet de loi C‑63 sans les modifier — si nous combinons toutes les parties, les parties 2 et 3 placées l'une après l'autre — dans ce contexte, OpenMedia privilégierait le projet de loi C‑412. Étant donné que nous n'examinons que les parties 1 et 4, nous avons une excellente occasion de renforcer et d'adopter une version du projet de loi C‑63 qui, à mon avis, offrira la meilleure protection globale de tous les textes de loi canadiens.
    Vous avez dit très clairement, en ce qui concerne la limitation de l'organisme de réglementation, que nous devons veiller à ce que chaque décision soit assortie de répercussions obligatoires sur la liberté d'expression et la vie privée. Sur une échelle de 1 à 10, quelle importance accordez-vous à cette question, 10 étant...?
    Cet aspect est essentiel au fonctionnement du projet de loi. Nous serions préoccupés si l'on ne traitait pas ce point.

[Français]

    Monsieur le président, puis-je continuer?
     J'aurais bien aimé vous laisser continuer, monsieur Julian, mais votre temps de parole est écoulé depuis dix secondes. Je vous remercie.
    Il est présentement 17 h 57, et nous devons terminer la séance au plus tard à 18 h.
    Je remercie donc tous les témoins d'avoir été avec nous.
    Je remercie également les collègues de la Chambre qui ont assuré la bonne tenue de cette séance.
    Nous nous reverrons bientôt.
    La séance est levée.
Explorateur de la publication
Explorateur de la publication
ParlVU