:
Monsieur le Président, je prends la parole pour répondre à une question de privilège soulevée par le député de le 26 février dernier concernant la présumée divulgation prématurée du contenu du projet de loi , Loi sur les préjudices en ligne.
J'aimerais commencer par dire que le député a tort d'affirmer qu'il y a eu une fuite au sujet du projet de loi. Je vais décrire de façon succincte le vaste processus de consultation qui s'est tenu et l'information qui était du domaine public sur cette question bien avant que le projet de loi soit inscrit au Feuilleton.
Le gouvernement parle d'une loi sur les préjudices en ligne depuis des années. En 2015, le gouvernement a promis de rendre publiques les lettres de mandat des ministres, ce qui représente un changement majeur vu le secret qui, sous les gouvernements précédents, entourait ces documents qui énoncent des engagements politiques déterminants. Grâce à la publication des lettres de mandat, les journalistes peuvent se fonder sur leur libellé pour subodorer le contenu éventuel d'un projet de loi que le gouvernement a fait inscrire au Feuilleton.
Dans la plateforme électorale libérale de 2021, intitulée « Avançons ensemble », le parti s'est engagé à ce qui suit:
Adopter, au cours des 100 premiers jours, une loi afin de lutter contre les manifestations graves de contenu toxique en ligne, en particulier les discours haineux, le contenu terroriste, le contenu qui incite à la violence, le matériel pédopornographique et la diffusion non consensuelle d’images intimes. Cela assurera que les plateformes des médias sociaux soient tenues responsables du contenu qu’elles hébergent. Notre loi reconnaîtra l’importance de la liberté d’expression de tous les Canadiens et adoptera une approche équilibrée et ciblée afin de contrer les discours extrêmes et toxiques;
Renforcer la Loi canadienne sur les droits de la personne et le Code criminel afin de lutter plus efficacement contre la haine en ligne.
Dans la lettre de mandat qu'il lui a adressée le 16 décembre 2021, le demandait au ministre de la Justice et procureur général du Canada d’obtenir des résultats pour les Canadiens en s'acquittant de l'engagement suivant:
Poursuivre, avec le ministre du Patrimoine canadien, les efforts en vue d’élaborer et de déposer dès que possible un projet de loi visant à lutter contre les formes graves de contenu préjudiciable en ligne afin de protéger les Canadiens et de tenir les plateformes de médias sociaux et autres services en ligne responsables du contenu qu’ils hébergent, notamment en renforçant la Loi canadienne sur les droits de la personne et le Code criminel afin de lutter plus efficacement contre la haine en ligne, et réinstaurer des mesures visant à renforcer les dispositions relatives aux discours haineux, y compris la remise en vigueur de l’ancienne disposition de l’article 13. Cette législation devrait refléter les commentaires reçus lors des récentes consultations.
De plus, dans la lettre de mandat qu'il lui a adressée le 16 décembre 2021, le demandait au ministre du Patrimoine canadien d’obtenir des résultats pour les Canadiens en s'acquittant de l'engagement suivant:
Poursuivre, avec le ministre de la Justice et procureur général du Canada, les efforts en vue d’élaborer et de déposer dès que possible un projet de loi visant à lutter contre les formes graves de contenu préjudiciable en ligne afin de protéger les Canadiens et de tenir les plateformes de médias sociaux et autres services en ligne responsables du contenu qu’ils hébergent. Ce projet de loi devrait refléter les commentaires recueillis lors des récentes consultations.
Comme nous pouvons le constater, le gouvernement avait déclaré publiquement son intention de présenter une mesure législative contre les préjudices en ligne, il avait fourni de l’information sur son plan et il avait mené de vastes consultations sur la proposition bien avant de faire inscrire quelque projet de loi que ce soit au Feuilleton des avis.
J'attire maintenant l’attention de la Chambre sur l’ampleur des consultations menées par le gouvernement au sujet du projet de loi sur les préjudices en ligne.
Premièrement, en ce qui concerne les consultations en ligne, du 29 juillet au 25 septembre 2021, dans une démarche de consultation et de rétroaction, le gouvernement a publié une proposition d’approche pour s’attaquer au contenu préjudiciable en ligne. Il y avait deux documents: un guide de discussion qui présentait les grandes lignes d'une approche globale et un document technique qui résumait les instructions de rédaction pour étayer le projet de loi.
Je pense qu'il est pertinent de répéter ici que le gouvernement a publié en juillet 2021 un document technique qui présentait le cadre proposé pour cette mesure législative. Ce document technique énumérait les catégories de contenu préjudiciable que l'on se proposait de réglementer et il traitait de la création d'un poste de commissaire à la sécurité numérique, d'une commission à la sécurité numérique, de pouvoirs réglementaires et de pouvoirs d’exécution, et cetera.
Deuxièmement, il y a les tables rondes sur la sécurité en ligne. De juillet à novembre 2022, le a organisé partout au pays 19 tables rondes virtuelles et en personne sur les éléments essentiels à un cadre législatif et réglementaire sur la sécurité en ligne. Des séances virtuelles ont également eu lieu sur les sujets suivants: l'antisémitisme, l'islamophobie, le racisme anti-Noirs, le racisme anti-asiatique, la violence contre les femmes ou fondée sur le sexe, ainsi que l'industrie des hautes technologies.
Avant chaque séance, les participants avaient reçu un document d’information afin de se préparer à la discussion. Dans ce document, on sollicitait des commentaires sur les conseils du groupe consultatif d'experts sur la sécurité en ligne, qui avait terminé ses réunions le 10 juin. Les commentaires recueillis auprès des participants portaient sur plusieurs aspects déterminants de la sécurité en ligne.
Troisièmement, il y a l'assemblée citoyenne sur l'expression démocratique. Le ministère du Patrimoine canadien, par le biais de l'initiative de citoyenneté numérique, apporte un soutien financier au projet Démocratie numérique du Forum des politiques publiques, qui réunit des universitaires, des membres de la société civile et des professionnels des politiques pour soutenir la recherche et l'élaboration de politiques sur la désinformation et les préjudices en ligne. L'une des composantes de ce projet pluriannuel est une assemblée annuelle citoyenne sur l'expression démocratique qui examine les impacts des technologies numériques sur la société canadienne.
L'assemblée a eu lieu du 15 au 19 juin 2023 à Ottawa, et son thème était la sécurité en ligne. Les participants ont entendu les points de vue d'un groupe représentatif de citoyens sur les éléments essentiels d'un cadre législatif et réglementaire efficace pour la sécurité en ligne.
De plus, en mars 2022, le gouvernement du Canada a créé un groupe consultatif d'experts sur la sécurité en ligne chargé de fournir au ministre du Patrimoine canadien des conseils sur la conception d’un cadre législatif et réglementaire pour lutter contre les contenus préjudiciables en ligne et sur la meilleure façon d'intégrer les commentaires reçus lors de la consultation nationale tenue de juillet à septembre 2021.
Le groupe consultatif d'experts, composé de 12 personnes, a participé à 10 ateliers semestriels sur les composantes d'un cadre législatif et réglementaire pour la sécurité en ligne, dont un atelier d'introduction et un atelier de conclusion sommaire.
Le gouvernement a entrepris ses travaux avec le groupe consultatif d’experts de manière ouverte et transparente. La page Web du gouvernement du Canada intitulée « L’engagement du gouvernement en faveur de la sécurité en ligne », qui est en ligne depuis plus d'un an, décrit tout cela en détail.
J'aimerais maintenant revenir sur des éléments précis que le a soulevés dans son intervention. Le député a cité un article de CBC qui parlait de l'intention de créer un organisme de réglementation pour faire assumer aux plateformes en ligne la responsabilité de leur contenu préjudiciable. La page Web que je viens de mentionner dit ceci: « Le gouvernement du Canada s'est engagé à mettre en place un cadre réglementaire transparent et responsable pour la sécurité en ligne au Canada. Aujourd'hui, plus que jamais, les services en ligne doivent être tenus responsables du traitement des contenus préjudiciables sur leurs plateformes et de la création d'un espace en ligne sûr qui protège tous les Canadiens. »
Encore une fois, ce site Web est en ligne depuis plus d'un an, bien avant que le projet de loi ne soit inscrit au Feuilleton. Le gouvernement parle depuis longtemps de créer un organisme de réglementation chargé de demander des comptes aux services en ligne; il mène des consultations à ce sujet et il s'engage à le faire depuis longtemps.
Le député cite également un article de CBC qui parle d'un nouvel organisme de réglementation chargé de superviser un bureau de la sécurité numérique. Je porte à l'attention de la Chambre le « Résumé de la quatrième séance: pouvoirs de réglementation » du groupe consultatif d’experts sur la sécurité en ligne, qui dit ceci:
Il y a eu consensus sur la nécessité d’avoir un organisme de réglementation qui pourrait prendre la forme d’un commissaire à la sécurité numérique. Les experts ont convenu que le commissaire devrait avoir des pouvoirs d’audit, d’inspection, d’application de pénalités financières et d’ouverture d’enquêtes en vue d’assurer la conformité si une approche fondée sur les systèmes est adoptée, mais les avis divergeaient quant à l’étendue de ces pouvoirs. Quelques participants ont mentionné qu’il serait important de réfléchir à ce qui serait pratique et réalisable pour le rôle du commissaire. Certains ont indiqué qu’ils hésitaient à donner trop de pouvoirs au commissaire, mais d’autres ont mentionné que l’organisme de réglementation aurait besoin d’avoir du « mordant » pour imposer la conformité.
Cette page Web est en ligne depuis des mois.
En ce qui concerne l'affirmation selon laquelle le projet de loi sera calqué sur la législation sur les services numériques de l'Union européenne, je rejette également la prémisse de l'intervention du député de , lorsqu'il a cité l'article de CBC en question. Ce projet de loi est une approche proprement canadienne. Le modèle de l'Union européenne ne se limite pas aux médias sociaux et cible le marché et les vendeurs. Il couvre également la désinformation électorale et certaines publicités ciblées, ce que notre mesure législative contre les préjudices en ligne ne fait pas.
Le député a également mentionné un article de CTV sur les types de préjudices en ligne qui seraient ciblés par le projet de loi. J'aimerais revenir sur le programme électoral libéral de 2021, qui renfermait les éléments suivants comme cibles pour la mesure législative proposée: « [...] les discours haineux, le contenu terroriste, le contenu qui incite à la violence, le matériel pédopornographique et la diffusion non consensuelle d’images intimes. » Ces cinq points étaient l'objet des vastes consultations dont j'ai parlé plus tôt dans mon intervention.
À la lumière de ces consultations, deux autres points ont été ajoutés à la liste. J’aimerais d’ailleurs attirer l’attention de la Chambre sur un extrait tiré du processus de consultation intitulé: « Ce que nous avons entendu: Approche proposée du gouvernement pour s’attaquer au contenu préjudiciable en ligne ». Voici l’extrait en question: « Les participants ont également suggéré d’inclure les technologies d’hypertrucage dans les lois sur la sécurité en ligne. » On peut également y lire ceci: « De nombreux participants ont souligné que la pornographie juvénile et le cyberchantage peuvent provenir de l’extérieur du Canada. Les participants ont exprimé leur frustration quant au manque de recours et d’outils dont disposent les victimes pour traiter de tels cas et ont mentionné la nécessité d’une collaboration internationale pour assurer la sécurité en ligne. »
Je poursuis:
Certains répondants ont apprécié la proposition qui va au-delà des définitions du Code criminel pour certains types de contenu. Ils ont appuyé la décision d’inclure, dans la définition, du matériel relatif à l’exploitation sexuelle des enfants qui pourrait ne pas constituer une infraction criminelle, mais qui causerait néanmoins un préjudice important aux enfants. Quelques intervenants ont dit que la proposition ne va pas assez loin et que la loi pourrait être plus large et inclure du contenu comme des images d’exploitation de la main-d’œuvre et de servitude domestique des enfants. Il y a également eu un appui pour un concept de partage non consensuel d’images intimes [...]
On peut également y lire ceci:
Quelques répondants ont déclaré que d’autres types de contenu, comme le doxing (c.-à-d. la divulgation non consensuelle de renseignements personnels propres à une personne), la désinformation, l’intimidation, le harcèlement, la diffamation, les théories du complot et les ventes illicites d’opioïdes en ligne devraient également être saisies dans le cadre législatif et réglementaire.
Ce document est en ligne depuis plus d'un an.
J'attire également l'attention sur la page Web intitulée « Résumé de l’atelier de clôture » du groupe consultatif d'experts, où on peut lire ceci:
Ils ont souligné l’importance d’empêcher que les mêmes copies de certaines vidéos, comme les atrocités diffusées en direct, et les abus sexuels d’enfants, soient à nouveau partagées. Les experts ont souligné que de nombreux services de partage de fichiers permettent aux contenus de se propager très rapidement.
Je poursuis:
Les experts ont souligné que les contenus particulièrement choquants comme les contenus liés à l’exploitation sexuelle des enfants nécessitent une solution spécifique. Ils ont expliqué que l’équité associée au retrait de la pornographie juvénile est différente de celle des autres types de contenu, car le contexte n’a tout simplement pas d’importance pour ce type de matériel. En comparaison, d’autres types de contenus, comme les discours haineux, peuvent bénéficier de la protection de la Charte dans certains contextes. Certains experts ont expliqué qu’une obligation de retrait assortie d’un délai précis serait la plus logique pour les contenus relatifs à l'exploitation sexuelle des enfants.
On peut également lire ceci:
Les experts n’étaient pas en accord sur l’utilité des cinq catégories de contenus préjudiciables précédemment recensées dans la proposition du gouvernement pour 2021. Ces cinq catégories comprennent les discours haineux, les contenus terroristes, l’incitation à la violence, l’exploitation sexuelle des enfants et le partage non consensuel d’images intimes.
Voici un autre point:
Quelques participants ont souligné que la nature anonyme des médias sociaux donne aux utilisateurs plus de liberté pour répandre du contenu préjudiciable tel que du contenu intimidant, des menaces de mort et des comportements haineux en ligne. Quelques participants ont fait remarquer que cela peut créer un poids pour la santé mentale des jeunes et contribuer à un sentiment de solitude qui, s’il n’est pas maîtrisé, pourrait mener à des comportements autodestructeurs.
Je le répète, cette page Web est en ligne depuis plus d'un an.
Le député cite aussi un reportage de CTV concernant un nouveau poste d'ombudsman de la sécurité numérique. J'aimerais citer la page Web du groupe consultatif d'experts intitulée « Résumé de la quatrième séance : pouvoirs de réglementation ». On peut y lire ceci:
Le groupe d’experts a examiné l’idée d’un ombudsman et la façon dont il pourrait être lié à un commissaire à la sécurité numérique. Les experts ont proposé un ombudsman qui porterait davantage son attention sur les plaintes individuelles ex post, si les utilisateurs n’étaient pas satisfaits de la façon dont un service donné répondait à leurs préoccupations, signalements ou plaintes. Dans ce système, le commissaire assumerait le rôle de l’organisme de réglementation ex ante, avec un mandat consacré aux pouvoirs de surveillance et d’application de la loi. Beaucoup ont fait valoir qu’un rôle d’ombudsman devrait être intégré au bureau du commissaire et que l’échange de renseignements entre ces fonctions serait utile. Quelques experts ont fait remarquer que le terme « ombudsman » serait reconnaissable partout au pays, car il s’agit d’un terme et d’une signification communs à d’autres régimes au Canada.
Il a été mentionné que l’ombudsman pourrait jouer un rôle plutôt adjudicatif qui se distinguerait du rôle de surveillance du commissaire, et aurait le pouvoir de faire retirer certains contenus des plateformes. Certains experts ont noté que cela procurerait un degré de confort aux victimes. Quelques experts se demandaient où se situerait la ligne de démarcation entre une plainte et un règlement en privé et la nécessité d’impliquer des autorités publiques.
La page Web est en ligne depuis des mois.
En outre, des tables rondes se sont tenues sur la sécurité en ligne et le racisme envers les personnes noires, comme le précise le résumé suivant:
Les participants étaient en faveur de la création d’un poste d’ombudsman de la sécurité numérique pour tenir les plateformes de médias sociaux responsables et pour permettre aux victimes de signaler les préjudices en ligne. Il a été suggéré que l’ombudsman pourrait agir comme un organisme qui reçoit les plaintes des victimes et travailler avec la plateforme ou l’organisme gouvernemental correspondant pour résoudre la plainte. Certains participants ont exprimé des préoccupations au sujet de la capacité de l’ombudsman de traiter les plaintes des utilisateurs et d’y réagir rapidement. Pour assurer l’efficacité de l’ombudsman, les participants estiment que l’organisme doit disposer de ressources suffisantes pour suivre le rythme des plaintes qu’il reçoit. Quelques participants ont également souligné l’importance pour l’ombudsman d’être formé aux nuances culturelles afin de comprendre les contextes culturels qui sous-tendent le contenu qui lui est présenté.
La page Web est en ligne depuis plus d'un an.
Enfin, j'aimerais attirer l'attention de la Chambre sur un article de La Presse canadienne du 21 février 2024, qui indique que « La législation devrait également ouvrir la voie à un nouveau protecteur du citoyen chargé de répondre aux préoccupations du public concernant le contenu en ligne, ainsi qu’à un nouveau rôle de réglementation qui superviserait la conduite des plateformes sur l’internet ». L'article a été publié en ligne avant que le projet de loi ne soit inscrit au Feuilleton.
Monsieur le Président, comme votre prédécesseur l'a rappelé dans la décision qu'il a rendue le 9 mars 2021, « il existe un principe reconnu selon lequel la Chambre doit être la première mise au courant des détails de nouvelles mesures législatives ». Il a ensuite ajouté: « [...] lorsque la présidence est appelée à déterminer si une question de privilège semble fondée de prime abord, elle doit prendre en considération dans quelle mesure un député a été gêné dans l'exercice de ses fonctions parlementaires, ou si les faits allégués ont fait outrage à la dignité du Parlement. » Il a aussi dit ceci:
Lorsqu'une question de privilège est jugée fondée de prime abord, les travaux usuels de la Chambre sont immédiatement mis de côté afin d'en débattre et de déterminer les suites à y donner. Compte tenu des conséquences importantes sur les travaux, il ne suffit pas de dire qu'une atteinte au privilège ou outrage a possiblement eu lieu, ni de rappeler des précédents en la matière en inférant que le gouvernement a présumément l'habitude de faire les choses ainsi. Il faut que les allégations soient claires et convaincantes pour la présidence.
Le gouvernement comprend et respecte la pratique bien établie selon laquelle les députés ont le droit de prendre connaissance en premier des mesures législatives. Il est clair que le gouvernement parle depuis deux ans de son projet de loi sur les préjudices en ligne et mène de vastes consultations à ce sujet. Comme je l'ai expliqué, les consultations publiques ont été vastes et approfondies, parallèlement au dépôt de documents et d'articles techniques. Tout cela s'est produit avant que le projet de loi ne soit inscrit au Feuilleton.
Certains des renseignements fournis par le député de ne figurent même pas dans le projet de loi, notamment le fait que celui‑ci soit calqué sur la législation sur les services numériques de l'Union européenne, ce qui est tout simplement faux, comme je l'ai clairement démontré. Le député fonde également ses arguments sur le fait que les sources « n'étaient pas autorisées à en parler publiquement », selon les reportages qu'il a cités. Ce n'est certainement pas la preuve d'une fuite, d'autant plus que le gouvernement a mené de vastes consultations et qu'il a rendu publics des détails sur le contenu de la proposition législative pendant des années avant qu'un projet de loi ne soit inscrit au Feuilleton.
L’élaboration du projet de loi s'est accompagnée de vastes consultations ouvertes et publiques sur des propositions précises. C'est ainsi que le a pu déclarer, le 21 février, avant même que le projet de loi ne soit inscrit au Feuilleton, que son parti et lui s'y opposaient avec véhémence. Il a pu faire cette déclaration en raison des consultations publiques et des renseignements que le gouvernement a communiqués au sujet de son plan au cours des deux dernières années. Je tiens à préciser que le gouvernement n'a pas communiqué le projet de loi avant son dépôt à la Chambre, et les faits montrent qu'il n'y a pas eu de divulgation prématurée du projet de loi.
J'avancerais qu'une consultation aussi large des Canadiens est une façon saine d'élaborer des projets de loi et que les preuves que j'ai présentées montrent clairement qu'il n'y a pas, de prime abord, matière à question de privilège. Nous sommes d'avis que cela ne permet pas à la présidence de conclure qu'il y a eu atteinte aux privilèges de la Chambre, ni de donner à cette question préséance par rapport aux autres travaux de la Chambre.