Passer au contenu

CHPC Rapport du Comité

Si vous avez des questions ou commentaires concernant l'accessibilité à cette publication, veuillez communiquer avec nous à accessible@parl.gc.ca.

PDF

Utilisation de tactiques d’intimidation et de subversion par les géants du Web pour échapper à la réglementation au Canada et à travers le monde

 

Introduction

Motion adoptée par le Comité permanent du patrimoine canadien

Le 20 mars 2023, le Comité permanent du patrimoine canadien de la Chambre des communes (le Comité) a adopté la motion suivante :

Que, compte tenu de la position dominante de Meta et Google, des actions récentes des deux compagnies au Canada, qui peuvent être considérées comme des tentatives d’intimidation envers le Parlement canadien, lesquelles suivent un cycle de tactiques subversives et systématiques utilisées par les géants du Web à travers le monde pour éviter de rendre des comptes, le Comité entreprenne une étude sur l’utilisation actuelle et continue de tactiques d’intimidation et de subversion par les géants du Web pour échapper à la réglementation au Canada et à travers le monde, et qu’à ce titre, le Comité tienne au moins cinq réunions; et que, dans le cadre de cette étude;
  • I) Le Comité convoque les dirigeants de Meta pour qu’ils témoignent suite à leur nouvelle menace de quitter le marché de nouvelles canadien;
    • a) Que Mark Zuckerberg, président de Meta Platforms Inc, Nick Clegg, président des affaires mondiales et Chris Saniga, responsable du Canada pour Meta, soient convoqués pour témoigner pendant au moins deux heures lors d’une réunion publique télévisée;
    • b) Que le Comité ordonne à Meta Platforms Inc. et à toutes ses filiales de fournir :
  • i) Toutes les communications internes et externes (y compris, mais sans s’y limiter, les courriels, les messages textes ou d’autres formes de messages), à l’exception des communications directes avec les Canadiens, dans un sens ou dans l’autre, liées aux mesures qu’il prévoyait prendre ou aux options envisagées ou qu’il envisage en rapport avec toute réglementation canadienne depuis le 5 avril 2022, notamment celle envisagée sous le projet de loi C-18, y compris, mais sans s’y limiter, le blocage du partage de contenu d’actualités sur ses plateformes au Canada.
  • ii) Tous les documents, mémos ou communications internes relatifs à l’impact de l’entreprise sur le secteur du journalisme canadien, depuis le 5 avril 2022.
Que ces documents soient remis au Comité au plus tard à 17h (HE) le 31 mars 2023.
  • II) Le Comité note que conformément à sa motion adoptée le 28 février 2023, sur son étude des activités de Google en réaction au projet de loi C-18, le Comité a reçu une lettre le 17 mars 2023 par laquelle Kent Walker, président des Affaires mondiales et chef de la direction des affaires juridiques d’Alphabet Inc., et Richard Gingras, vice-président des nouvelles de Google, ont accepté de comparaître devant le Comité pendant au moins deux heures dans le cadre d’une réunion publique télévisée. Le Comité intégrera cette réunion à la présente étude.
  • III) Qu’un minimum de deux réunions soient consacrées aux témoignages de représentants de gouvernements, de la société civile et d’experts d’autres juridictions, y compris, mais sans s’y limiter, de l’Union européenne et de l’Australie, qui ont vécus des tactiques similaires que celles employées au Canada.
  • IV) Qu’une réunion soit consacrée à l’étude des abus de pouvoir des géants du Web autour du monde; que des experts nationaux et internationaux en matière d’antitrust et de concurrence soient invités à témoigner sur les comportements anticoncurrentiels et les abus de positions dominantes des géants du Web dans de multiples juridictions, en mettant l’accent sur les préjudices causés aux consommateurs, ainsi que l’industrie culturelle et des médias[1].

Le Comité a tenu des réunions pour étudier cette question le 8 mai, le 28 novembre, le 5 décembre, le 7 décembre et le 14 décembre 2023. Conformément au paragraphe II de la motion, le Comité a inclus la réunion avec les dirigeants de Google du 20 avril 2023 dans son étude.

Contexte de l’étude

Transformation de l’industrie des médias d’information

Au cours des dernières années, les médias du Canada et du monde entier ont connu une baisse importante de leurs revenus. En 2017, un rapport historique, intitulé Le miroir éclaté : Nouvelles, démocratie et confiance dans l’ère numérique, publié par le Forum des politiques publiques, a étudié les bouleversements dans les médias d’information précipités par l’essor des médias numériques et a confirmé que les recettes publicitaires s’éloignaient de plus en plus des organes de presse pour se retrouver entre les mains d’entreprises numériques, comme Google et Facebook[2]. Le Comité est arrivé à la même conclusion. Dans son rapport intitulé Bouleversements dans le paysage médiatique canadien : un monde en transformation, publié en juin 2017, le Comité a noté que le paysage médiatique canadien s’était « transformé radicalement dans les dernières années[3] ». Les Canadiens privilégiaient les plateformes numériques pour s’informer, tandis que les plateformes médiatiques traditionnelles (presse écrite, télévision et radio) subissaient des pressions financières.

Projet de loi C-18, Loi concernant les plateformes de communication en ligne rendant disponible du contenu de nouvelles aux personnes se trouvant au Canada

Le 5 avril 2022, le projet de loi C-18, Loi concernant les plateformes de communication en ligne rendant disponible du contenu de nouvelles aux personnes se trouvant au Canada (titre abrégé : Loi sur les nouvelles en ligne[4]) a été déposé à la Chambre des communes par l’ancien ministre du Patrimoine canadien, l’honorable Pablo Rodriguez. Son objectif était de rééquilibrer les rapports de force du marché de l’information numérique afin de garantir une rémunération équitable aux médias et aux journalistes canadiens. Le projet de loi C-18 a été étudié par le Comité permanent du patrimoine canadien de septembre à décembre 2022[5], puis par le Comité sénatorial permanent des transports et des communications du mois d’avril au mois de juin 2023[6]. Il a reçu la sanction royale le 22 juin 2023[7].

La Loi sur les nouvelles en ligne crée un cadre législatif et réglementaire permettant aux intermédiaires de presse numérique de négocier des accords avec les médias d’information canadiens pour les autoriser à diffuser des contenus d’information canadiens sur leurs plateformes. Elle met en place un processus permettant aux plus petits médias de négocier collectivement. Elle élargit également le mandat du Conseil de la radiodiffusion et des télécommunications canadiennes (CRTC) en lui confiant la responsabilité d’élaborer le code de conduite régissant le processus de négociation et en lui donnant le mandat de déterminer si les accords conclus en dehors du processus de négociation respectent les conditions d’exemption[8].

Le projet de règlement relatif à l’application de la Loi sur les nouvelles en ligne, à l’obligation de notification et à la demande d’exemption a été publié dans la Gazette du Canada le 2 septembre 2023 pour une période de consultation se terminant le 1er octobre 2023[9].

Le règlement définitif, Règlement sur l’application et l’exemption (Loi sur les nouvelles en ligne), a été publié dans la Gazette du Canada le 15 décembre 2023[10].

Conformément au règlement définitif, les plateformes assujetties au cadre doivent avoir un revenu global d’au moins un milliard de dollars canadiens au cours d’une année civile et exploiter un moteur de recherche ou un service de réseautage social qui partage des nouvelles au Canada et qui compte en moyenne au moins 20 millions d’utilisateurs uniques ou actifs mensuellement au Canada. Les plateformes qui respectent ces critères doivent aviser le CRTC dans un délai de 180 jours, pendant lequel elles peuvent conclure des ententes avec des entreprises de nouvelles et demander une exemption. Le règlement définitif donne également des indications au CRTC sur l’interprétation des critères de la Loi afin de déterminer si une plateforme peut bénéficier d’une exemption[11].

Entre le 13 mars et le 12 avril 2024, le CRTC a notamment tenu des consultations sur sa propre réglementation concernant la procédure d’exemption, le code de conduite et l’admissibilité des entreprises de presse,[12]. Le CRTC prévoit « commencer à publier les décisions qui énoncent cet important cadre réglementaire au cours de l’année[13] ».

Mesures prises par Google et Meta en réponse au projet de loi C-18

Les mesures prises par Google et Meta, les deux intermédiaires de nouvelles numériques qui seraient assujettis à la Loi sur les nouvelles en ligne, sont à l’origine de la présente étude.

Google et Meta ont notamment bloqué l’accès, ou menacé de le faire, aux nouvelles au Canada pour éviter de devoir payer les éditeurs pour leurs contenus d’actualités en vertu de la Loi sur les nouvelles en ligne.

Mesures prises par Google en réponse au projet de loi C-18

Des représentants de Google ont comparu devant le Comité le 18 octobre 2022 dans le cadre de son étude sur le projet de loi C-18 et ont fait part de leurs préoccupations concernant le projet de loi. L’entreprise a également proposé de nombreux amendements au projet de loi[14].

Colin McKay, chef des Politiques publiques et relations gouvernementales de Google Canada, a affirmé que Google envoie « chaque année, sans frais, des milliards de visiteurs aux diffuseurs de nouvelles canadiens, ce qui les aide à accroître leur lectorat et leur base d’abonnés[15] ».

M. McKay a dit que le projet de loi « définit les services de nouvelles admissibles de façon extrêmement vague sans exiger que les diffuseurs respectent les normes journalistiques de base », ce qui pourrait entraîner « la prolifération de la désinformation et des pièges à clics[16] ».

Il a également exprimé ses préoccupations concernant la disposition de « préférence indue » du projet de loi car celle-ci « empêcherait Google et d’autres plateformes d’appliquer des politiques et de fournir des fonctions qui rehaussent les sources d’information de confiance par rapport aux contenus de moindre qualité[17] ».

M. McKay s’est aussi opposé à l’idée de payer pour des liens, affirmant qu’une telle disposition « viole les normes mondiales en matière de droit d’auteur et les précédents juridiques locaux » et « favorise également les contenus peu coûteux et de faible qualité par rapport au journalisme d’intérêt public » et aussi « les grands diffuseurs par rapport aux petits, car ils ont plus de contenu à afficher[18] ».

Il a affirmé qu’un « fonds comme le Fonds des médias du Canada réglerait les problèmes […] soulevés et garantirait que les divers diffuseurs de nouvelles canadiens reçoivent de l’argent en temps opportun et de façon équitable et transparente[19] ».

Le 22 février 2023, Google a confirmé à La Presse Canadienne qu’elle procédait à des tests de produits bloquant l’accès à des contenus d’actualité pour certains utilisateurs au Canada. L’entreprise a déclaré qu’elle « testait brièvement les réponses potentielles de ses produits au projet de loi C-18 » et que les tests auraient un impact sur un échantillon aléatoire de moins de 4 % des utilisateurs au Canada en « limitant la visibilité des nouvelles canadiennes et internationales à des degrés divers[20] ».

En réponse, le 28 février 2023, le Comité a adopté une motion visant à entreprendre « une étude sur les activités de Google en réaction au projet de loi C-18 » et à convoquer de nombreux hauts dirigeants à comparaître. Le Comité a également demandé de la documentation relativement aux tests de produits[21].

Sabrina Geremia, vice-présidente et directrice nationale, Google Canada, et Jason Kee, gestionnaire des politiques publiques, Google Canada, ont témoigné devant le Comité le 10 mars 2023. Ils ont affirmé que Google « effectue plus de 11 500 tests chaque année », que l’entreprise n’avait pris « aucune décision concernant des changements de produits » et qu’elle restait déterminée « à travailler de manière constructive avec le gouvernement canadien en vue de trouver des solutions raisonnables et équilibrées qui permettraient de corriger le projet de loi C‑18 et de contribuer à un écosystème de nouvelles sain, innovateur et diversifié pour l’ère numérique[22] ».

Le 29 juin 2023, après l’entrée en vigueur de la Loi sur les nouvelles en ligne, Kent Walker, président des affaires internationales, Google et Alphabet, a affirmé dans un billet du blogue de Google Canada que l’entreprise avait informé le gouvernement qu’elle supprimerait les liens vers les nouvelles canadiennes de ses produits Search, News et Discover au Canada et cesserait de proposer son produit Vitrine Google Actualités lorsque la Loi serait en vigueur. L’entreprise a affirmé que le gouvernement n’avait « pas fourni de certitude suffisante que le processus réglementaire sera en mesure de résoudre les problèmes structurels de la législation (tels que le paiement forcé pour les liens et la responsabilité financière non plafonnée)[23] ». M. Walker a affirmé que l’entreprise participerait au processus réglementaire.

Le 29 novembre 2023, la ministre du Patrimoine canadien a annoncé que le gouvernement avait conclu un accord avec Google en vertu duquel l’entreprise verserait 100 millions de dollars par an, indexés à l’inflation, aux entreprises de presse du Canada[24].

Le 15 décembre 2023, des représentants du gouvernement ont annoncé que CBC/Radio-Canada recevrait un maximum de 7 % du fonds, que 30 % du fonds serait réparti entre les autres radiodiffuseurs et que les 63 % restants seraient distribués à la presse écrite et numérique[25].

Mesures prises par Meta en réponse au projet de loi C-18

Des représentants de Meta ont exprimé les préoccupations de l’entreprise concernant le projet de loi C-18. Ils ont annoncé leur intention de reconsidérer « l’autorisation du partage de contenu de nouvelles au Canada[26] » dans un billet de blogue publié le 21 octobre 2022.

Meta affirmait dans ce billet ne pas « [bénéficier] injustement de sa relation avec les éditeurs » et disait avoir « collaboré […] avec les fournisseurs de nouvelles canadiens afin d’investir dans des partenariats et des programmes qui soutiennent le développement de modèles économiques durables pour les organismes de presse ». L’entreprise a aussi soutenu avoir « envoyé aux éditeurs inscrits plus de 1,9 milliard de clics en une seule année » et que le projet de loi C-18 leur demandait « d’accepter un système qui permet aux éditeurs de nous facturer autant de contenu qu’ils le souhaitent, à un prix indéterminé[27] ».

Meta a avancé qu’il s’agissait d’un projet de loi « qui subventionne injustement les entreprises de médias traditionnels qui ont eu du mal à s’adapter à l’environnement en ligne » et que cette approche « nuira à la concurrence » et « rendra la transition vers des modèles numériques encore plus difficile[28] ».

PLe 28 octobre 2022, les représentants de Meta ont répété ces mêmes préoccupations devant le Comité[29].

Meta a réitéré son intention de bloquer les nouvelles au Canada en réponse au projet de loi C-18 le 11 mars 2023, à la suite de la comparution de Google devant le Comité le 10 mars 2023, ce qui a contribué à l’adoption de la motion du Comité visant à entreprendre la présente étude[30].

Des représentants de Meta ont comparu de nouveau devant le Comité le 8 mai 2023 dans le cadre de la présente étude et ont confirmé l’intention de l’entreprise de « mettre fin à la disponibilité des contenus d’information sur Facebook et Instagram au Canada[31] ».

Le 1er juin 2023, Meta a annoncé « le lancement sur les deux plateformes de tests qui empêcheront certains utilisateurs et éditeurs de consulter et de partager du contenu de nouvelles au Canada ». Ces tests dureraient « plusieurs semaines » et affecteraient « une petite proportion d’utilisateurs canadiens », selon la déclaration de l’entreprise. Meta a affirmé que son plan visant à cesser de diffuser des nouvelles était une décision commerciale et a dit avoir l’intention de « mettre fin à l’accès au contenu de nouvelles de façon permanente suivant l’adoption du projet de loi C-18[32] ».

Dans une mise à jour publiée le 1er août 2023, Meta a annoncé avoir « commencé à mettre fin à l’accès aux nouvelles au Canada ». L’entreprise a dit s’appuyer « sur les définitions législatives et les orientations de la Loi sur les nouvelles en ligne pour déterminer quelles organisations constituent des médias d’information[33] ».

L’entreprise a réitéré qu’il s’agissait d’une « décision commerciale[34] » et que le processus réglementaire en cours « ne permet malheureusement pas d’apporter des modifications aux éléments fondamentaux de la loi qui ont toujours été irréalistes[35] » pour Meta.

Le ministère du Patrimoine canadien aurait approché Meta en décembre 2023 pour reprendre les négociations[36], mais d’après les informations dont dispose le Comité, au moment de la rédaction du présent rapport, aucun accord n’a été conclu avec l’entreprise, et Meta continue de bloquer l’accès au contenu des nouvelles au Canada.

Ce que le Comité a entendu

Témoignage de Google

Le 28 février 2023, en réponse au fait que Google menait des tests qui affectaient la disponibilité des nouvelles sur ses plateformes pour certains utilisateurs canadiens, le Comité a adopté la motion suivante :

Que, conformément au paragraphe 108(2) du Règlement, le Comité entreprenne une étude sur les activités de Google en réaction au projet de loi C-18, y compris, mais sans s’y limiter, la décision de Google de tester le blocage de sites de nouvelles au Canada;
Que, conformément à l’alinéa 108(1)a) du Règlement, le Comité convoque Sundar Pichai, directeur général d’Alphabet Inc., Kent Walker, président des Affaires mondiales et conseiller juridique principal d’Alphabet Inc., Richard Gingras, vice-président des Nouvelles de Google, et Sabrina Geremia, vice-présidente et directrice nationale de Google au Canada, pour témoigner pour une réunion de deux heures le lundi 6 mars 2023;
Que le Comité ordonne à Alphabet Inc. et à toutes ses filiales, y compris Google, de fournir :
  • a) toutes les communications internes ou externes (y compris, mais sans s’y limiter, les courriels, les messages textes ou d’autres formes de messages) liées aux mesures qu’il a l’intention de prendre ou aux options qu’il a envisagées relativement au projet de loi C‑18, y compris, mais sans s’y limiter, celles liées à la mise à l’essai du blocage de sites de nouvelles au Canada;
  • b) la liste de tous les organismes de nouvelles bloqués par Google, au Canada;
Que ces documents soient remis au Comité au plus tard à 17 h(HE) le jeudi 2 mars[37].

Conformément à la motion adoptée par le Comité le 20 mars 2023 :

II) Le Comité note que conformément à sa motion adoptée le 28 février 2023, sur son étude des activités de Google en réaction au projet de loi C-18, le Comité a reçu une lettre le 17 mars 2023 par laquelle Kent Walker, président des Affaires mondiales et chef de la direction des affaires juridiques d’Alphabet Inc., et Richard Gingras, vice-président des nouvelles de Google, ont accepté de comparaître devant le Comité pendant au moins deux heures dans le cadre d’une réunion publique télévisée. Le Comité intégrera cette réunion à la présente étude[38].

Kent Walker, président des Affaires mondiales et chef de la direction des affaires juridiques d’Alphabet Inc., et Richard Gingras, vice-président des nouvelles de Google LLC, ont comparu devant le Comité le 20 avril 2023.

Les représentants de Google ont réitéré les préoccupations de l’entreprise concernant le projet de loi C-18 et ont dit au Comité que celle-ci avait l’intention de continuer de s’opposer au projet de loi[39]. M. Walker a dit qu’il existait un « meilleur modèle[40] » pour soutenir le journalisme que la Loi sur les nouvelles en ligne.

M. Walker a dit des nouvelles qu’elles « n’ont pas une grande valeur économique » pour Google et des recherches portant sur les nouvelles qu’il « s’agit généralement des requêtes les moins monétisables[41] ». M. Gingras a décrit Google News comme « un kiosque à journaux pour lequel les éditeurs ne paient pas » et qui « ne génère aucun revenu » pour l’entreprise. Il a affirmé qu’il serait « raisonnable […] pour toute entreprise, de reconsidérer » la pratique de proposer des liens vers du contenu de nouvelles si elle devait payer pour ces liens[42].

M. Gingras a dit au Comité que Google effectuait « des milliers de tests[43] » dans le cadre de ses activités. Il a affirmé que les tests bloquant l’accès à du contenu de nouvelles visaient à comprendre les répercussions du projet de loi C-18 et les options qui s’offraient à l’entreprise dans ce contexte[44].

L’entreprise a affirmé que les tests avaient été « aléatoires[45] » et n’avaient ciblé aucun individu ou organisation au Canada.

Kent Walker a qualifié les tests de décision commerciale potentielle advenant que l’entreprise soit obligée de payer pour les liens, en précisant ceci : « Lorsqu’il y a un tarif ou une redevance pour un bien ou un service, les entreprises cherchent naturellement à savoir si elles doivent fournir autant de ce bien ou de ce service[46] ».

M. Gingras a dit que les tests ont confirmé que « les requêtes d’actualités représentent un très faible pourcentage pour Google — moins de 2 % » et que les tests n’ont « pas eu d’impact » sur les utilisateurs « en ce qui concerne les requêtes autres que d’actualités[47] ».

M. Walker a aussi affirmé que Google était « l’un des plus grands partenaires du journalisme au monde[48] » et que l’entreprise « ne résist[ait] pas[49] » à participer à un changement qui permettrait d’assurer la pérennité de l’industrie de l’information.

En réponse à des questions visant à déterminer si l’entreprise pratiquait de la désinformation populaire planifiée – une pratique par laquelle des entreprises, au lieu de faire pression directement sur les législateurs et les décideurs politiques, engagent des tierces parties ostensiblement indépendantes pour promouvoir leurs intérêts sous l’apparence d’un soutien populaire[50] – M. Walker a affirmé que l’entreprise avait déployé des « efforts visant à permettre à différentes parties prenantes, qui entretenaient leurs propres préoccupations au sujet du projet de loi, de s’asseoir à la table[51] ». Il a ajouté que Google « ne vers[e] pas d’argent pour des activités de désinformation populaire planifiée » ni « à des créateurs pour qu’ils fassent du lobbying en [son] nom sur YouTube[52] ».

En ce qui concerne la position dominante de Google dans le domaine des technologies publicitaires, M. Walker a dit que l’entreprise offrait « quelque chose qui a vraiment permis aux éditeurs du monde entier de monétiser plus efficacement leur contenu numérique » et que les services de son entreprise « leur permettent de conserver la majeure partie des revenus de publicité ». Il a ajouté que les services publicitaires de Google « génère[nt] plus de revenus et de revenus de publicité pour les éditeurs qui font le saut vers le numérique[53] ».

Témoignage de Meta

Kevin Chan, directeur des politiques mondiales de Meta Platforms Inc., et Rachel Curran, cheffe des politiques publiques de Facebook Canada, ont comparu devant le Comité le 8 mai 2023.

Nicholas Clegg, président des affaires internationales de Meta, avait précédemment accepté une invitation à témoigner devant le Comité. Cependant, M. Chan a informé le Comité qu’en raison du changement du titre de l’étude pour refléter davantage le contenu de la motion, M. Clegg avait décidé de ne pas comparaître. M. Chan a dit au Comité que le nouveau titre était « beaucoup plus inquiétant » et que les dirigeants de l’entreprise étaient « impatients de participer à une discussion de fond sur le projet de loi C‑18[54] ».

M. Chan a lu l’allocution d’ouverture de M. Clegg, qui réitérait les préoccupations de Meta au sujet du projet de loi C-18 et qui qualifiait la décision de l’entreprise de mettre fin au partage des nouvelles de « décision d’affaires[55] ».

Au sujet des graves problèmes[56] survenus lorsque l’entreprise a arrêté de partager du contenu de nouvelles en Australie, Mme Curran a affirmé que Meta se préparait « très soigneusement » pour éviter que les mêmes erreurs ne se produisent pas au Canada. Elle a ajouté que l’entreprise est « entièrement transparent[e][57] » avec les Canadiens et les parlementaires en ce qui concerne le processus.

Mme Curran a expliqué au Comité que les nouvelles demeuraient accessibles sur les plateformes de Meta en Australie, car leur entreprise « n’est pas désignée au titre de la loi australienne ». Elle a ajouté que la loi australienne « a laissé le temps à un processus de se dérouler, dans le cadre duquel nous avons pu parvenir à ce que nous appelons un compromis débraillé et à court terme pour que les nouvelles restent sur nos plateformes[58] », mais que la loi canadienne « ne permet pas ce genre de discussions ni le déroulement d’un processus avant que nous soyons désignés et assujettis au cadre prévu dans le projet de loi C‑ 18[59] ».

Mme Curran a également réitéré au Comité les préoccupations de Meta concernant le projet de loi C-18, affirmant que si « les nouvelles ont une valeur sociale réelle », elles n’ont « pas beaucoup de valeur économique » et qu’on demande à l’entreprise « d’indemniser les éditeurs de presse relativement à du matériel qui n’a aucune valeur économique pour [elle][60] ».

M. Chan a dit que Meta avait proposé de nombreux amendements au Comité et au Comité sénatorial permanent des transports et des communications pendant leur étude du projet de loi et avait participé à certaines réunions avec des représentants du gouvernement, mais que celles-ci se sont avérées infructueuses[61].

Au sujet de la désinformation populaire planifiée, M. Chan a affirmé que Meta ne finançait pas d’organismes tiers pour faire du lobbying en sa faveur au Canada[62]. Il a souligné que les rapports annuels publiés au Canada chaque année contiennent des détails sur les « entreprises que nous avons appuyées[63] ».

M. Chan a également souligné le soutien de Meta envers les entreprises de nouvelles en général. En effet, l’entreprise a conclu des ententes avec 18 entreprises de presse, dont de petits éditeurs[64]. M. Chan soutient également que l’entreprise a dépensé huit millions de dollars au Canada « relativement à des programmes menés en collaboration avec des éditeurs de presse et à des partenariats[65] » dans le cadre d’un projet de journalisme mondial. Mme Curran a affirmé qu’un « modèle de fonds central » pour les agences de presse serait un « modèle […] plus facile à appuyer » par l’entreprise que le cadre établi par le projet de loi C‑18[66].

Mme Curran a mentionné que l’entreprise comptait des « équipes interfonctionnelles qui s’efforcent de comprendre le projet de loi et de se préparer à retirer des nouvelles de nos plateformes[67] » et que les membres de ces équipes n’avaient pas eu à signer un accord de non-divulgation[68].

En ce qui concerne la sécurité en ligne, M. Chan a affirmé que l’entreprise est dotée de « politiques très strictes en matière de contenu qui vont bien au‑delà de la primauté du droit » et qui couvrent « le contenu préjudiciable », « le contenu terroriste et le contenu extrémiste violent[69] ». Mme Curran a affirmé que les « systèmes d’application [de l’entreprise] ne sont pas parfaits, mais [qu’]ils s’améliorent chaque année, et [que ces résultats sont présentés] de façon transparente et publique […] afin que les Canadiens et les parlementaires sachent que nous nous imposons une certaine norme ». Elle a ajouté ceci : « Nous avons de grandes équipes qui travaillent partout dans le monde à supprimer le contenu qui est interdit par nos standards de la communauté[70] ».

Tactiques des géants du Web

De nombreux témoins, dont des universitaires et des représentants de la société civile, ont informé le Comité des tactiques utilisées par les entreprises comme Google et Meta en réponse à la réglementation imposée dans d’autres pays et au Canada.

Ils ont décrit diverses stratégies, dont le lobbying (à la fois direct et par le biais de la désinformation populaire planifiée), le financement de recherches favorables, l’élimination des chercheurs indépendants, l’intimidation des législateurs et l’application d’autres types de pression.

Georg Riekeles, directeur associé au European Policy Centre, a avancé que l’industrie des technologies utilisait les mêmes stratégies que celles autrefois utilisées par l’industrie du tabac :

Elles font du lobbying. Elles encadrent le débat. Elles créent des alliances et mettent en place des groupes de façade et des campagnes de désinformation populaire planifiée. Elles influencent ou achètent des groupes de réflexion et des chercheurs. Elles font de la représentation. Elles offrent du soutien politique et financier. Elles utilisent la philanthropie. Elles utilisent les poursuites, l’intimidation et la pression internationale[71].

Bram Vranken, chercheur au Corporate Europe Observatory, a ajouté que l’objectif des entreprises est « de faire en sorte qu’il y ait le moins de réglementations strictes possible afin de préserver leurs marges bénéficiaires et leur modèle d’affaires » et « d’édulcorer » toutes les nouvelles règles qui ne peuvent pas être évitées[72].

Imran Ahmed, directeur général du Center for Countering Digital Hate, a décrit les actions de Meta comme une « décision intempestive prise dans un accès de colère par une entreprise qui n’a jamais raté une occasion de s’opposer à toute volonté d’un gouvernement démocratiquement élu dans le monde d’exercer une gouvernance[73] ».

Courtney Radsch, directrice du Center for Journalism and Liberty de l’Open Markets Institute, a dit au Comité que les entreprises comme Facebook « minent les institutions démocratiques, cherchent à entraver l’action des organismes de réglementation et se soustraient aux lois qui ne leur plaisent pas[74] ».

Erik Peinert, directeur de recherche de l’American Economic Liberties Project, a expliqué au Comité que certaines entreprises considèrent « la surveillance et la gouvernance du marché comme une menace existentielle pour [leurs] modèles d’affaires prédateurs, et [réagissent] avec hostilité » aux propositions de réglementation « par l’intimidation, les menaces et la coercition[75] ».

Lobbying et désinformation populaire planifiée

De nombreux témoins ont fait part au Comité de leurs préoccupations concernant la capacité de lobbying des géants du Web.

Les préoccupations concernant la capacité de lobbying des géants du Web ne datent pas d’hier. En 2021, Reuters rapportait une augmentation de 27 % des activités de lobbying effectuées par Google aux États-Unis en réponse à une longue liste de projets de loi visant à encadrer les géants du Web[76].

Au cours du premier semestre de 2020, Google, Facebook, Amazon, Apple et Microsoft ont dépensé collectivement 19 millions d’euros pour des activités de lobbying en Europe, alors que l’Union européenne (UE) a intensifié ses efforts pour réglementer le secteur, ce qui fait craindre aux observateurs une « Washingtonisation de Bruxelles » qui « donnerait à l’argent et aux relations un ascendant sur l’intérêt public[77] ».

Toujours en 2020, un document de Google ayant fait l’objet d’une fuite, intitulé « DSA 60-day plan update », a révélé une stratégie agressive visant à saper les progrès réalisés dans le cadre de la législation sur les services numériques (Digital Services Act)[78].

Selon Georg Riekeles, les entreprises ont mené « des campagnes de lobbying directes et cachées d’une effronterie et d’une ampleur […] totalement contraires aux codes de conduite applicables à la représentation d’intérêts, ainsi qu’aux principes comportementaux les plus élémentaires dans la société[79] ».

Jason Kint, directeur général de Digital Context Next, a affirmé que Google et Facebook « figurent parmi les 10 premières entreprises pour ce qui concerne l’enregistrement de lobbyistes dans l’Union européenne et aux États-Unis », et qu’outre « les employés qui travaillent directement pour elles et les contributions électorales, une longue liste de groupes relaye les arguments des deux sociétés en échange de montants de financement considérables[80] ».

Bram Vranken a avancé que dans l’UE, les « dix premières entreprises numériques dépensent à elles seules un total de 40 millions d’euros par an en lobbying », et que Facebook à lui seul dépense huit millions d’euros, ce qui représente « un facteur d’augmentation de 17 » par rapport à ses dépenses il y a dix ans, alors que l’entreprise dépensait 450 000 euros[81], selon lui.

M. Vranken a informé le Comité que les géants du Web utilisent leur « financement massif pour mettre en place un réseau très étendu de groupes de pression et de cabinets de conseil en lobbying, et pour financer des groupes de réflexion et des universités », ce qui crée une « gigantesque chambre d’écho, qui joue constamment une variation de la même mélodie : la réglementation va nuire à l’économie, à l’innovation et aux petites et moyennes entreprises ». Il a affirmé que le document sur la stratégie de lobbying de Google qui a fait l’objet d’une fuite en 2020 mettait déjà en évidence « l’approche de Google, qui consistait tout d’abord à mobiliser des tiers comme des groupes de réflexion et des chercheurs pour qu’ils se fassent l’écho des messages de Google, et ensuite à recadrer le discours politique autour des coûts pour l’économie et les consommateurs[82] ».

M. Vranken a décrit une stratégie de lobbying « insidieuse » qui consiste à financer « des organismes prétendant représenter des petites et moyennes entreprises (PME), des entreprises en démarrage et des concepteurs d’applications ». Il a ajouté que « [d]ans un cas, Apple a fourni plus de la moitié du financement d’un organisme prétendant représenter des concepteurs d’applications ». Il a ajouté « que de nombreuses entreprises membres d’une association commerciale de PME financée par les grandes entreprises technologiques ne savaient pas qu’elles en étaient membres » et n’étaient « pas d’accord avec la position de cette association commerciale[83] ».

M. Riekeles a décrit plus en détail l’utilisation « de groupes de façade et d’alliances » par des entreprises dans l’UE:

Un exemple dans le cadre des débats sur le droit d’auteur concerne l’une des coalitions d’intervenants les plus bruyantes à Bruxelles appelée C4C, la coalition pour la créativité, qui représentait tous les intervenants du milieu, des bibliothèques publiques aux organismes spécialisés dans le droit numérique. Il s’est avéré a posteriori que cette coalition était financée par la Computer & Communications Industry Association, c’est-à-dire financée indirectement par Google et d’autres plateformes. Le coordonnateur était, par hasard, également consultant pour Google[84].

M. Riekeles a affirmé au Comité que la réglementation technologique que « l’on considère souvent […] comme l’application d’un régime de concurrence strict ou de règles visant à contrôler les plateformes qui portent atteinte à la vie privée » est insuffisante. Il a ajouté que la réglementation devait s’opposer « à la capacité du secteur technologique à influencer les institutions privées, la société civile et le discours politique[85] ».

Courtney Radsch a dit au Comité que « les grandes entreprises de technologie dépensent plus d’argent à Washington, à Bruxelles et dans d’autres capitales mondiales que pratiquement tout autre secteur, grâce au lobbying direct et au financement de groupes industriels et de bourses qui aident à modeler la façon dont les décideurs pensent les questions qu’ils réglementent ». Elle a ajouté que le secteur des technologies fournit « des fonds à la plupart des groupes de la société civile, de recherche et de défense des intérêts qui travaillent dans divers domaines : politique technologique, droits numériques, gouvernance de l’intelligence artificielle, l’IA, code de négociation des médias et journalisme[86] ».

En revanche, Michael Geist, titulaire de la Chaire de recherche du Canada en droit d’Internet et du commerce électronique à l’Université d’Ottawa, a déclaré qu’en ce qui concerne les projets de loi C-11 et C‑18, ce sont les médias d’information canadiens qui ont eu des « rencontres avec des lobbyistes enregistrés » avec le gouvernement, plutôt que Google ou Meta[87].

Obstruction de la recherche indépendante

Des témoins ont décrit les difficultés rencontrées par des chercheurs qui ont tenté de mettre en lumière les activités des plateformes.

Joan Donovan, experte en désinformation et en mésinformation en ligne, Boston University College of Communication, a expliqué au Comité qu’un don d’un « demi-milliard de dollars » de Facebook à la Harvard Kennedy School avait « tué » le projet de recherche sur la technologie et les changements sociaux qu’elle dirigeait. Elle a affirmé que pour témoigner sa « déférence à l’égard des intérêts des donateurs », le doyen de la Harvard Kennedy School avait mis fin à son projet après qu’un « collaborateur bien connu de Facebook [soit] devenu enragé lors d’une réunion de donateurs » quand il avait appris l’intention de Mme Donovan de créer « des archives publiques à des fins de collaboration » à partir des documents internes de la dénonciatrice Frances Haugen[88].

Mme Donovan a posé la question suivante : « Lorsqu’un établissement d’enseignement comme Harvard est complice de l’orientation corporative de la recherche, qu’est‑ce qui peut protéger ceux d’entre nous qui travaillent à documenter, à analyser et à partager la vérité[89] »?

Jason Kint a rapporté au Comité qu’un groupe de chercheurs de l’Université de New York s’est fait « interdire par Facebook » d’essayer « d’exposer certains des préjudices subis sur la plateforme[90] ».

Selon certains témoins, une autre difficulté à laquelle sont confrontés les chercheurs est le manque d’accès aux données des plateformes nécessaires pour mener à bien leurs recherches.

Mme Radsch a expliqué qu’il est « difficile d’avoir accès aux données nécessaires pour effectuer une grande partie de la recherche », et que, par conséquent, « [l]es plateformes ont une emprise très dangereuse sur notre capacité de comprendre notre écosystème d’information, la façon dont l’information et les communications circulent en ligne et bien sûr, la façon dont le harcèlement se manifeste ». Elle a affirmé que le problème serait encore pire avec l’intelligence artificielle, « où l’accès aux modèles de données de masse et la puissance de calcul nécessaire pour effectuer cette recherche signifient que souvent seuls les chercheurs qui ont un lien quelconque avec une grande entreprise de technologie sont capables d’effectuer la recherche ou d’y avoir accès[91] ».

Matthew Hatfield, directeur exécutif d’OpenMedia, a dit au Comité que « [l]a recherche limitée qui existe sur la façon dont les modèles de plateformes peuvent parfois amplifier les préjudices est réalisée avec des données très incomplètes ou avec un accès très parcellaire aux données des chercheurs, que les plateformes sont promptes à retirer si leurs intérêts sont menacés ». Il a recommandé d’adopter des dispositions sur les « chercheurs universitaires » dans le futur projet de loi sur les préjudices en ligne du Canada[92].

Nora Benavidez, conseillère principale et directrice de la justice numérique et des droits civils de Free Press, a informé le Comité que l’une des tactiques des plateformes « consiste à bloquer l’accès des chercheurs et des [interfaces de programmations d’applications (API)] aux données de la plateforme ». Elle a donné l’exemple de l’observatoire publicitaire de l’Université de New York, dont Facebook a bloqué, en 2021, l’accès « aux services de sa plateforme après des mois d’enquête sur l’analyse des outils de son répertoire publicitaire ». Elle a ajouté que Twitter a rendu son API presque impossible à utiliser par les chercheurs « en raison du coût élevé » et que « [t]outes les grandes plateformes exigent un préavis de la part des chercheurs, qui doivent être affiliés à des universités pour avoir accès à son API. Cela établit un processus de facto par lequel les plateformes peuvent approuver ou rejeter l’accès à la recherche si elles n’aiment pas la façon dont le produit final pourrait être utilisé[93] ».

Financement de recherches favorables

Les grandes entreprises technologiques sont reconnues pour financer des recherches qui leur sont favorables. En effet, le 6 décembre 2023, le Tech Transparency Project, un organisme à but non lucratif, qui se décrit comme un centre d’information et de recherche pour les journalistes, les universitaires, les décideurs politiques et les membres du public intéressés par l’étude de l’influence des principales plateformes technologiques sur la politique, les politiques et notre vie[94], a révélé que la philanthropie personnelle de Mark Zuckerberg et de son entreprise, Meta, ont versé collectivement des centaines de millions de dollars à plus de 100 universités et collèges américains à travers le pays, ce qui donne au PDG un puissant levier potentiel pour influencer les institutions[95].

Un article publié en 2021 par des chercheurs de l’Université Harvard et de l’Université de Toronto a révélé que 52 % des professeurs d’informatique occupant des postes menant à la permanence dans des écoles de premier plan et dont les sources de financement sont connues, ont reçu de l’argent de grandes entreprises technologiques, dont 58 % travaillaient respectivement dans le domaine de l’IA et de l’éthique[96].

Joan Donovan a dit au Comité que Facebook proposait « des contrats aux chercheurs, non seulement dans les universités, mais aussi dans la société civile » et « tent[ait] de transformer le monde universitaire et de la recherche en une division de ses propres relations publiques[97] ». Elle a ajouté que les contrats contiennent « des clauses d’annulation ou de veto qui stipulent que Facebook a le droit de lire votre recherche avant sa publication et de décider si elle répond à ses normes de confidentialité », et que la « confidentialité » ne concerne pas seulement les utilisateurs de la plateforme, mais aussi les « produits de l’entreprise ». Mme Donovan a donné la précision suivante : « Si vous êtes un chercheur et que vous souhaitez étudier l’incidence algorithmique des produits de Facebook, vous devez faire très attention à ne pas partager ce que Facebook considérerait comme des secrets commerciaux, sinon l’entreprise pourrait mettre fin aux recherches que vous meniez grâce à son financement[98] ».

Mme Donovan a également informé le Comité que « des cadres de Facebook ont accepté des postes dans des conseils consultatifs d’universités aux États-Unis et au Canada, et que l’entreprise se sert de ce pouvoir et de cette influence pour orienter les programmes de recherche[99] ».

De son côté, M. Geist a affirmé que si le Tech Transparency Project avait précédemment identifié « de nombreux articles et travaux d’universitaires qui ont des liens avec la société ou qui ont reçu une aide financière de » Google, il n’y avait « pratiquement aucun exemple canadien[100] ».

Utilisation des plateformes pour contrôler la couverture médiatique

Certains témoins ont souligné que les géants du Web avaient un avantage supplémentaire dans la lutte contre la réglementation, car les plateformes qu’ils possèdent servent également à promouvoir leurs propres positions.

Courtney Radsch a affirmé que la « manipulation » des géants du Web était « intensifiée par l’utilisation de leurs propres plateformes pour manipuler l’opinion publique et censurer leurs critiques » :

[L]es géants de la technologie se servent de leurs plateformes pour faire de la propagande contre la réglementation à laquelle ils s’opposent, ce qui fausse la perception et le débat publics. Nous l’avons vu en Australie, au Canada, au Brésil et aux États-Unis avec la loi sur la négociation dans les médias d’information. Google a utilisé sa page de recherche pour plaider contre les lois proposées et aurait dit aux prédicateurs évangéliques du Brésil qu’ils ne pourraient plus citer la Bible en ligne. Le système judiciaire brésilien a accusé Google d’exercer une influence indue sur le processus législatif[101].

M. Riekeles a affirmé que les entreprises technologiques utilisaient « directement » leur pouvoir pour gagner de l’influence et a cité un exemple dans le contexte de la réforme des droits d’auteur de l’UE :

Lorsque l’Union européenne a tenté de réglementer les contenus générés par les utilisateurs et de conférer des droits d’auteur auxiliaires aux éditeurs de presse en 2018 et 2019, les grandes entreprises technologiques ont rassemblé des manifestants directement aux barricades […] La directrice générale de YouTube, Susan Wojcicki, a bassement dit aux créateurs de YouTube dans une lettre que les lois représentaient une menace à la fois pour leurs moyens de subsistance et pour leur capacité à faire entendre leurs voix, et une menace pour des centaines de milliers d’emplois, pour la liberté d’expression et pour le Web tel que nous le connaissons[102].

M. Riekeles a souligné que « [l]a directive sur le droit d’auteur est entrée en vigueur dans toute l’Europe il y a deux ans ». Il est d'avis que « l’avertissement dramatique de Google selon lequel il changerait le Web tel que nous le connaissons » ne s’était pas concrétisé[103].

Selon M. Kint, une autre tactique utilisée « est l’intimidation des consommateurs par les sociétés. L’objectif est d’attiser leur indignation, y compris en utilisant les grandes portes d’accès que sont YouTube et les applications de recherche et de messagerie » pour « [prétendre que] la réglementation va brimer l’innovation ou mettre fin à un Internet libre et ouvert ». De plus, « Facebook va souvent plus loin en laissant planer la menace des frais de service ou de la disparition de milliers de petites entreprises et de millions d’emplois[104] ».

Tactiques d’intimidation visant les législateurs

M. Kint a qualifié le blocage des nouvelles par Facebook en Australie de « menaces [directes] concernant la législation », dont le but était « de bloquer les nouvelles durant la semaine décisive des délibérations au Parlement » sur son code de négociation des médias d’information[105].

M. Kint a également informé le Comité que les géants du Web font « des menaces liées aux investissements » afin d’intimider les législateurs. Il a ajouté qu’une demande soumise au titre de la transparence des dossiers au Royaume-Uni avait révélé « que Mark Zuckerberg avait menacé d’annuler un investissement au Royaume-Uni après avoir reçu une demande du Parlement de témoigner sur des questions » concernant le scandale Cambridge Analytica[106].

En revanche, Philip Palmer, président de l’Internet Society Canada Chapter, a dit au Comité que le retrait de Meta du marché canadien des nouvelles ne constituait pas de l’« intimidation », mais plutôt une « décision commerciale légale et rationnelle[107] ».

Projet de loi C-18, Loi sur les nouvelles en ligne

Un certain nombre de témoins ont fait part de leur point de vue sur la loi qui a incité Google et Meta à envisager de mettre fin à la disponibilité des nouvelles au Canada, ainsi que sur le fonds de 100 millions de dollars négocié avec Google à la suite de l’adoption de cette loi.

Sean Speer, rédacteur en chef de The Hub, a affirmé « qu’un modèle qui ne suit pas les signaux des consommateurs et du marché, mais qui place le gouvernement ou […] une association ou un interlocuteur de l’industrie — dans ce cas particulier, Google » en position de décider de la distribution des ressources, signifie que « ces ressources soient dirigées de façon disproportionnée vers les entreprises médiatiques existantes et non vers les secteurs qui sont en pleine croissance et qui innovent ». Il a mentionné que cette conséquence était « inhérente » au « cadre stratégique établi » par le projet de loi C-18[108].

M. Geist a également soutenu que la Loi sur les nouvelles en ligne « [déborde] du cadre actuel des organisations journalistiques canadiennes admissibles qui régit le crédit d’impôt pour la main-d’œuvre journalistique, et fait en sorte que les diffuseurs, et surtout une poignée de gros joueurs, seront les grands gagnants au Canada[109] ».

Certains témoins étaient d’accord avec l’affirmation de Meta et Google, qui prétendent que les nouvelles n’ont aucune valeur économique pour les plateformes. Matthew Hatfield a déclaré au Comité que le projet de loi C-18 avait supposé à tort que « les nouvelles ont une valeur inhérente pour les plateformes, ce qui n’est pas le cas, du moins pour Meta[110] ». De même, M. Geist a avancé que « l’idée selon laquelle le contenu de nouvelles est absolument indispensable aux géants technologiques n’a jamais eu beaucoup de sens[111] ».

Plusieurs témoins ont rapporté au Comité que les médias bénéficiaient de leur exposition sur les plateformes de recherche et de médias sociaux. Jeff Elgie, directeur général de Village Media Inc., a affirmé que Village Media jouait « volontiers le jeu en permettant que des extraits de [son] contenu apparaissent sur les plateformes » et « bénéfici[ait] énormément du trafic qu’elles génèrent ». Il a ajouté que ce trafic avait permis à Village Media de « développer et [de] lancer 25 publications, et [de] mettre au point un modèle rentable et durable pour les nouvelles locales[112] ».

Certains témoins ont contesté le fait que Google et Meta ne tirent aucun profit des nouvelles. Erik Peinert a informé le Comité que Google et Meta « utilisent plutôt leur double contrôle sur le trafic Internet et la publicité pour monétiser le contenu que les journalistes produisent à grands frais ». Il a d’ailleurs cité une étude de l’Université de Zurich qui mentionne que « 40 % des revenus totaux de Google tirés de la publicité liée aux recherches iraient à des éditeurs et à d’autres sources journalistiques s’il y avait plus de concurrence[113] ». Mme Radsch a quant à elle cité une étude américaine qui estimait que les plateformes devaient verser plus de 12 milliards de dollars par année aux éditeurs américains[114].

Un certain nombre de témoins ont directement attribué au projet de loi C-18 le retrait de Meta du marché de l’information, qui, selon eux, a causé des dommages importants aux organismes de presse, y compris aux innovateurs numériques. M. Elgie et M. Palmer ont tous les deux affirmé que la priorité devrait être de « ramene[r] Meta[115] ».

M. Palmer a qualifié la fin de la publication des nouvelles par Meta au Canada de « décision commerciale légale et rationnelle » qui « s’est avéré être une dure épreuve pour les producteurs de nouvelles canadiens[116] ».

M. Elgie a affirmé que Village Media avait été rentable « [a]u cours de ses 10 ans d’existence », mais que « depuis avril [2023], en prévision du résultat de la Loi sur les nouvelles en ligne, et pour la première fois, [la] société a suspendu pratiquement toutes les nouvelles embauches et les nouveaux projets de lancement de communautés[117] ».

Sean Speer a déclaré au Comité que le retrait de Meta du marché des nouvelles en raison de l’adoption du projet de loi C-18 avait coûté à de nombreux organismes de presse, dont le sien, « la capacité de communiquer, de joindre [leur] auditoire actuel et de l’élargir[118] ».

M. Geist a affirmé que la Loi sur les nouvelles en ligne et la Loi sur la diffusion continue en ligne, ainsi que l’approche du Comité relativement à ces lois, avaient eu « d’importantes répercussions négatives sur l’accès au contenu étranger pour les communautés des diasporas ». Il a ajouté que « le coût accru de la réglementation et de l’enregistrement […] pourrait fort bien amener de nombreux services étrangers de diffusion en continu à tout simplement bloquer le marché canadien » et que les communautés des diasporas « seraient les plus directement touchées[119] ».

Pour sa part, Jason Kint de Digital Content Next a dit que son entreprise « a soutenu avec enthousiasme » le projet de loi C-18[120]. Il a souligné « que les nouvelles étaient en difficulté avant l’adoption du projet de loi C-18 [et] avant que Facebook décide de cesser d’en diffuser » et que « [l]e trafic de Facebook et de Meta est en baisse dans le monde entier ». Il a ajouté que le Canada avait « courageusement adopté un projet de loi en [s’]inspirant de lois intelligentes qui portent fruit ailleurs » et que les mesures prises par Meta pouvaient être qualifiées de « crise de colère[121] ».

Des témoins ont également fait part de leurs opinions et de leurs préoccupations concernant le fond de 100 millions de dollars négocié entre Google et le gouvernement du Canada.

M. Elgie a affirmé que « la valeur finale de l’accord avec Google [était] en fait inférieure » à la valeur des ententes conclues précédemment entre les éditeurs et les deux plateformes. Il a ajouté que de nombreux petits éditeurs préféreraient probablement « récupérer leur trafic sur Meta » que de recevoir un montant qui reste à déterminer provenant du fonds de Google, et que « [m]ême dans le meilleur des cas, l’accord avec Google ne compensera probablement pas la valeur du trafic perdu sur Meta » pour Village Media[122].

Peter Menzies a informé le Comité qu’en raison du projet de loi C-18, « nous avons malheureusement maintenant un écosystème d’information dans lequel la plupart des journalistes pourraient bientôt recevoir au moins la moitié de leur salaire de l’État, de Google et d’autres fonds étrangers que le CRTC pourrait recevoir par suite des audiences [sur la Loi sur la diffusion continue en ligne] ». Il a ajouté que cela créerait la perception que « les médias sont irrémédiablement compromis » par leurs sources de financement. Selon lui, « [p]ar conséquent, la confiance du public envers les journalistes continuera de s’effriter, et toute confiance envers le journalisme finira par disparaître[123] ».

M. Hatfield est préoccupé que le projet de loi C‑18 verse le financement « principalement aux organes de presse qui, dans une certaine mesure, réussissent déjà et existent encore[124] » au lieu des secteurs qui en ont besoin de façon plus urgente.

M. Peinert a déclaré que l’entente de 100 millions de dollars négociée avec Google « ne fait que confirmer » et « reconnaît[re] la valeur que les plateformes tirent du journalisme[125] ».

Courtney Radsch a affirmé que le fond de 100 millions de dollars de Google était « loin de correspondre à ce qui est dû » et que « [l]e problème tient en partie au fait que, à courte vue, on met l’accent sur la valeur du trafic généré par les sites référents ». Elle a ajouté que les « entreprises de technologie ont très bien réussi à nous convaincre que c’est ainsi qu’il faut établir la valeur[126] ».

Mme Radsch a soutenu que le projet de loi C-18 « ne tient pas compte non plus de l’IA générative et du rôle que les nouvelles jouent dans les grands modèles de langage et les systèmes d’IA ». Elle a recommandé « d’examiner un plus large éventail des sociétés de technologie qui pourraient être visées et qui devraient contribuer au fonds[127] ».

Plusieurs témoins ont dit qu’ils ne croyaient pas que CBC/Radio-Canada devait recevoir une partie du fonds de Google ou ne devrait pas recevoir une part proportionnelle à sa taille. M. Menzies a dit que la société ne devrait pas être en mesure « de toucher une part des fonds de Google[128] », M. Palmer a affirmé que l’Internet Society Canada Chapter estimait qu’il « n’est pas souhaitable que les fonds de Google aillent à la CBC[129] » et M. Elgie, de Village Media, a déclaré « qu’il serait préférable de verser ces fonds au secteur privé[130] ».

Certains témoins ont dit avoir l’impression que l’étude du projet de loi avait été inadéquate. M. Geist a déclaré au Comité que l'étude du projet de loi C-18 avait omis d’entendre « un large éventail de personnes — favorables au projet de loi comme critiques à son égard[131] ». Il a ajouté avoir « trop souvent l’impression que les comités sont davantage conçus comme un théâtre de consultation que comme un cadre de consultations réelles et engagées, et que l’idée d’apporter des changements […] est en quelque sorte considérée comme un aveu d’échec[132] ».

Article 19 de la Loi de l’impôt sur le revenu

À la demande de certains membres du Comité, des témoins se sont prononcés sur les différentes mesures de soutien aux médias canadiens.

Il a notamment été question de l’article 19 de la Loi de l’impôt sur le revenu qui impose des restrictions sur la déductibilité fiscale de certaines dépenses liées à la publicité dans le marché canadien. En vertu de cet article, les frais de publicité dans les journaux ou périodiques étrangers ou dans les médias électroniques étrangers ne sont généralement pas déductibles aux fins de l’impôt lorsque les publicités visent principalement un marché situé au Canada. Toutefois, il n’existe « aucune restriction sur la publicité qu’achètent les entreprises canadiennes sur des sites web étrangers[133] ». Ces dépenses publicitaires sont entièrement déductibles d’impôt. Précisons qu’aucune donnée financière n’est disponible sur le coût de cette mesure fiscale dans le plus récent rapport sur les dépenses fiscales de Finances Canada (2023)[134].

Des témoins ont suggéré d’annuler la déductibilité fiscale des coûts de publicité accordée à des entreprises étrangères comme Facebook et Google. Erik Peinert, de l’American Economic Liberties Projet[135], Pierre Trudel, professeur de droit au Centre de recherche en droit public de l’Université de Montréal[136], et Jean-Hugues Roy, de l’Université du Québec à Montréal[137], se sont prononcés pour éliminer les subventions aux intermédiaires de nouvelles numériques. Marc Hollin, d’Unifor, s’oppose également à l’offre « d’incitatifs financiers[138] » à ces entreprises. De son côté, Courtney Radsch, de l’Open Markets Institute, s’est dite troublée « d’entendre que le gouvernement canadien subventionne les entreprises les plus riches du monde[139] ».

Cependant, selon M. Geist, l’article 19 de la Loi de l’impôt sur le revenu ne constitue pas une subvention. Il a déclaré ceci : « C’est une déduction pour les entreprises qui font de la publicité. À mes yeux, cette idée d’empêcher ces entreprises de diffuser des publicités en certains endroits les rend moins concurrentielles[140] ».

Le radiodiffuseur public national et les intermédiaires de nouvelles numériques

Il a été question au cours de l’étude du rôle de CBC/Radio-Canada dans un paysage médiatique en métamorphose.

Plusieurs témoins ont affirmé qu’il était pertinent que le Canada possède un radiodiffuseur public national. Pour Pierre Trudel, de l’Université de Montréal, la radiodiffusion publique est nécessaire pour offrir aux minorités, et notamment aux Autochtones, un accès aux nouvelles. Toutefois, M. Trudel est d’avis qu’il est nécessaire « de réinventer le service public[141] ». Philip Palmer estime également qu’il est nécessaire de revoir « le rôle de la CBC dans le domaine des nouvelles[142] ».

Peter Menzies est également d’avis que la présence d’un radiodiffuseur public national est particulièrement pertinente pour desservir les régions éloignées afin d’éviter qu’elles deviennent « des déserts de nouvelles[143] ». Toutefois, à l’heure actuelle, M. Menzies soutient que CBC/Radio-Canada est « plutôt un radiodiffuseur commercial et un exploitant de plateforme en ligne financés par les fonds publics[144] ». Selon lui, la Société « doit renoncer à la publicité[145] », car elle fausse le marché de l’information au Canada :

Il n’y aura pas de prospérité pour les médias d’information tant que la distorsion dualiste du marché de la CBC/Radio-Canada ne sera pas remplacée par des règles du jeu équitables. Nous n’en arriverons jamais là si la société d’État continue de chercher des revenus publicitaires tout en recevant 1,3 milliard de dollars par année du Parlement pour être un radiodiffuseur public[146].

Jeff Elgie, de Village Media, est également d’avis que CBC/Radio-Canada est « en concurrence avec le secteur privé, notamment pour ce qui est de la publicité numérique[147] ».

Sécurité en ligne

Les plateformes de médias sociaux ont facilité la communication et la connectivité à l’échelle mondiale. Parallèlement, elles ont permis la diffusion d’une série de contenus préjudiciables qui peuvent constituer des menaces importantes pour le bien-être des individus, la sécurité publique et même l’intégrité des institutions démocratiques. Au cours des dernières années, les tentatives de lutte contre les préjudices en ligne par le biais de mesures législatives se sont multipliées. Le Royaume-Uni, l’UE et l’Australie, entre autres, ont adopté ou proposé des cadres législatifs visant à imposer certaines responsabilités juridiques aux plateformes de services en ligne.

La loi sur la sécurité en ligne (Online Safety Act) du Royaume-Uni a reçu la sanction royale le 26 octobre 2023[148]. Elle crée un nouveau cadre et une série de règlements pour lutter contre les contenus en ligne illégaux, préjudiciables et dangereux et établit que l’Office des communications (OFCOM) en est l’autorité réglementaire. Elle couvre un large éventail de contenus susceptibles de causer des préjudices, notamment le terrorisme, le racisme, l’exploitation sexuelle des enfants, le suicide, les troubles alimentaires, la misogynie et la pornographie de vengeance. La loi exige que les contenus illégaux soient supprimés, confère aux plateformes de médias sociaux la responsabilité juridique de faire respecter leurs conditions d’utilisation et offre aux utilisateurs des options pour filtrer les contenus qu’ils ne souhaitent pas voir.

La législation sur les services numériques (Digital Services Act) de l’UE est entrée en vigueur le 16 novembre 2022 et est devenue entièrement applicable dans l’ensemble des pays de l’UE le 17 février 2024[149]. Elle impose une série d’obligations aux fournisseurs, notamment des mesures pour lutter contre les biens, services ou contenus illégaux en ligne, des garanties efficaces pour les utilisateurs, dont la possibilité de contester les décisions de modération des contenus, l’interdiction de certains types de publicité ciblée et des mesures de transparence concernant notamment les algorithmes.

Au Canada, le projet de loi C-63, Loi édictant la Loi sur les préjudices en ligne, modifiant le Code criminel, la Loi canadienne sur les droits de la personne et la Loi concernant la déclaration obligatoire de la pornographie juvénile sur Internet par les personnes qui fournissent des services Internet et apportant des modifications corrélatives et connexes à d’autres lois (Loi sur les préjudices en ligne), a été déposé à la Chambre des communes le 26 février 2024[150].

Selon le gouvernement, le projet de loi C-63 « vise à renforcer la protection des enfants en ligne et à mieux protéger tout le monde au Canada contre la propagande haineuse et d’autres types de contenu préjudiciable en ligne ». Il « obligerait les plateformes en ligne […] à rendre compte des choix de conception qui mènent à la diffusion et à l’amplification de contenu préjudiciable. En outre, le projet de loi les obligerait à mettre en œuvre des stratégies pour réduire l’exposition des utilisatrices et utilisateurs à du contenu préjudiciable[151] ».

Le projet de loi créerait un nouveau cadre législatif et réglementaire qui obligerait les plateformes à réduire le risque de préjudice découlant de sept types de contenu :

  • a)      le contenu « représentant de la victimisation sexuelle d’enfants ou perpétuant la victimisation de survivants et survivantes »;
  • b)      le contenu intime communiqué de façon non consensuelle;
  • c)       le contenu extrémiste violent et terroriste;
  • d)      le contenu qui incite à la violence;
  • e)      le contenu qui fomente la haine;
  • f)        le contenu pouvant intimider un enfant;
  • g)      le contenu pouvant pousser un enfant à se porter préjudice[152].

Il créerait également des exigences quant à la suppression « (1) [du] contenu représentant de la victimisation sexuelle d’enfants ou perpétuant la victimisation de survivants et survivantes, et (2) [du] contenu intime communiqué de façon non consensuelle »; à l’obligation de fournir des moyens clairs pour signaler et rendre inaccessibles le contenu préjudiciable; à la mise en œuvre de mesures visant à protéger les enfants et à « [la réduction de] l’exposition » au contenu préjudiciable pour toute la population[153].

Le projet de loi modifie également le Code criminel et la Loi canadienne sur les droits de la personne, en plus d’améliorer la Loi concernant la déclaration obligatoire de la pornographie juvénile sur Internet par les personnes qui fournissent des services Internet[154].

Finalement, il établit la Commission canadienne de la sécurité numérique chargée de superviser et d’appliquer le cadre réglementaire et le nouveau bureau de l’ombudsman canadien de la sécurité numérique chargé « d’appuyer et de défendre l’intérêt du public en ce qui a trait aux enjeux [systémiques] touchant la sécurité en ligne[155] ».

Bien que le contexte de la présente étude ait été influencé par la Loi sur les nouvelles en ligne et la décision de Meta d’arrêter de partager des liens d’actualités au Canada, certains témoins ont parlé au Comité des préjudices en ligne et ont décrit des tactiques similaires dans le contexte des efforts visant à élaborer une législation sur la sécurité, comme la législation sur les services numériques (Digital Services Act) de l’UE et la loi sur la sécurité en ligne (Online Safety Act) du Royaume-Uni.

Algorithmes

De nombreux observateurs ont déclaré que le modèle économique même des plateformes en ligne a créé un environnement propice à la multiplication de certains types de préjudices en ligne, comme la désinformation et les théories du complot, ainsi que les contenus relatifs à l’automutilation, au suicide et aux troubles alimentaires. Les algorithmes conçus pour retenir l’attention des utilisateurs font appel à des modèles d’apprentissage automatique pour prédire l’engagement et recommander des contenus, et des recherches ont montré qu’ils ont tendance à amplifier les contenus préjudiciables à des taux plus élevés que les contenus neutres[156]. Ainsi, plusieurs témoins ont fait part au Comité de leurs préoccupations concernant l’utilisation d’algorithmes par les plateformes.

Selon Matthew Hatfield, d’OpenMedia, « les algorithmes d’engagement qui régissent l[e] modèle d’affaires [des plateformes] » est l’un des trois principaux problèmes concernant l’influence des plateformes technologiques sur la société. Il a ajouté que « [s]ans même nous en rendre compte, nous sommes devenus une société dans laquelle la plupart des informations que nous recevons nous arrivent parce qu’elles nous incitent à les faire défiler et à cliquer, et non parce qu’elles sont nuancées, bien documentées ou véridiques », et que quand ce processus est appliqué aux nouvelles, il « fait de nous une société moins informée, plus en colère et plus polarisée ». Il a ajouté qu’il était « essentiel d’accroître la transparence pour comprendre comment fonctionnent les algorithmes[157] ».

Mme Donovan a décrit le fonctionnement de l’algorithme en ce qui concerne les préjudices aux enfants : « Une fois que l’on commence à s’intéresser aux contenus liés à l’automutilation et que l’on apprend les mots-clés et les astuces du métier, on peut entrer dans ce monde et l’algorithme continuera à nous envoyer davantage de contenus de ce type[158] ». Elle a fait référence à une étude du Massachusetts Institute of Technology selon laquelle « les choses nouvelles et scandaleuses sont celles qui vont le plus loin et qui voyagent le plus vite en ligne […] à cause de la façon dont les algorithmes influent sur notre expérience en fonction de nos recherches d’information[159] ».

Julie Kotsis d’Unifor a affirmé que les plateformes cachaient leurs « algorithmes opaques et en constante évolution […] aux utilisateurs et aux organismes de réglementation » et les « protègent à tout prix[160] ».

Imran Ahmed, du Centre for Countering Digital Hate, a affirmé que son organisation avait démontré « qu’il existe un lien étroit entre les algorithmes et la promotion de la désinformation et du contenu conspirationnistes et haineux[161] ». Il a convenu que les algorithmes « sont au centre des modèles d’affaires des plateformes technologiques » et que les renseignements à leur sujet sont « difficiles à obtenir » en raison de leur « sensibilité commerciale[162] ».

De son côté, Jean-Hugues Roy a déclaré que le Canada « devrait se donner le droit d’accéder aux bases de données de ces entreprises et d’en examiner les algorithmes » et que « le bien-être des Canadiens est supérieur » aux intérêts commerciaux des entreprises[163].

M. Ahmed a affirmé que la transparence des algorithmes constituait un élément central de tout cadre réglementaire « complet » régissant les plateformes en ligne, allant même jusqu’à la qualifier de « fondement absolu d’un mécanisme de responsabilisation efficace[164] ». Il a ajouté que l’UE mettait en œuvre le Centre européen pour la transparence algorithmique à Séville pour contribuer à superviser et à appliquer la législation sur les services numériques (Digital Services Act)[165].

Désinformation et théories du complot

Des témoins ont décrit certains des principaux préjudices sociétaux découlant des plateformes de médias sociaux non réglementées qui s’appuient sur des algorithmes pour amplifier le contenu, notamment la désinformation et les théories du complot.

Selon l’UNESCO, la mésinformation fait référence à des informations qui sont fausses, mais qui n’ont pas été créées dans l’intention de nuire (la personne qui publie l’information croit que la fausseté est vraie, par exemple); la désinformation, en revanche, est une information qui est délibérément fausse et créée dans le but précis de nuire à une personne, à un groupe social, à une organisation ou à un pays[166].

Le gouvernement du Canada note que certains individus et groupes créent de la désinformation pour promouvoir des idéologies politiques, notamment des opinions extrémistes et des théories du complot, ou simplement pour gagner de l’argent (par exemple, grâce à des revenus publicitaires[167]). La désinformation sème « le doute et la confusion » et peut être particulièrement préjudiciable lorsqu’elle porte sur des informations relatives à la santé; elle peut également causer des préjudices financiers ainsi qu’une polarisation politique et une méfiance à l’égard d’institutions clés[168].

La prévalence de la désinformation peut être difficile à déterminer, mais selon Statistique Canada, en 2022, 27 % des utilisateurs canadiens disaient voir « des renseignements qu’ils soupçonnaient d’être faux ou inexacts » quotidiennement[169]; de plus, la Série d’enquêtes sur les gens et leurs communautés a mis en lumière que 59 % des Canadiens se disent « très préoccupés ou extrêmement préoccupés » par la désinformation, alors que 43 % ont dit « avoir le sentiment qu’il devenait plus difficile de distinguer la réalité de la fiction en ligne, comparativement à trois ans plus tôt[170] ».

Imran Ahmed a déclaré au Comité que la décision d’Instagram d’ajouter aux fils d’actualité des utilisateurs, en 2020, des contenus non sollicités générés par des algorithmes avait entraîné une augmentation des contenus préjudiciables, y compris la désinformation concernant le Service de recherche du Congrès : « Une fois que les utilisateurs avaient lu le contenu récent sur tous leurs comptes, du contenu complémentaire leur était proposé qui tenait compte de leur intérêt potentiel au vu de leurs données et de leurs habitudes. Par exemple, si un utilisateur avait consulté du contenu contenant de la désinformation au sujet de la COVID‑19, il se voyait offrir un accès à la désinformation publiée par QAnon et antisémite. Les utilisateurs qui avaient consulté le contenu antisémite se voyaient également offrir de la désinformation antivaccins et sur la COVID‑19 en général[171] ».

Lorsqu’on lui a demandé si des groupes particuliers bénéficiaient de la promotion par les algorithmes de contenu extrémiste ou conspirationniste, Nora Benavidez, de Free Press, a déclaré ceci au Comité : « Nous avons au mieux des preuves anecdotiques », mais « de loin […] le contenu d’extrême droite est affiché avec six fois plus de contenu que les contenus politiquement neutres ». Elle a ajouté qu’il était important de « faire très attention à la façon dont on présente les preuves. Nous ne pouvons pas faire d’allégations sans bien les appuyer. Lorsque les législateurs disent que le type de contenu X ou Y est affiché plus fréquemment, nous devons nous assurer d’avoir des preuves à l’appui[172] ». M. Peinert a affirmé que « [s]ur le plan simplement anecdotique […] il semble que le contenu d’extrême droite soit plus répandu » et que « les entreprises ne semblent pas se soucier de l’orientation politique de ce contenu du moment qu’elles peuvent garder les utilisateurs engagés[173] ».

Haine et harcèlement

Les journalistes et les professionnels des médias sont de plus en plus susceptibles d’être la cible de harcèlement et d’abus en ligne. Selon un sondage mené par Ipsos en 2021, 65 % des professionnels des médias ont été victimes d’une forme ou d’une autre de harcèlement en ligne au cours de l’année précédente, les femmes, les personnes racialisées et les personnes LGBTQ2+ étant nettement plus exposées à ce risque[174]. Les attaques sont souvent très « personnelles » et se traduisent notamment par « des images vulgaires et sexualisés, des menaces physiques, des commentaires ciblant l’identité de genre, l’utilisation du nom ou de l’image sans autorisation et des commentaires ciblant l’ethnicité ou la nationalité[175] ». Un répondant sur dix qui a été victime de harcèlement en ligne a affirmé avoir reçu des menaces de mort. Presque autant ont dit avoir reçu des menaces proférées à l’encontre de leur famille et avoir été menacées de chantage ou de viol[176].

Joan Donovan a confirmé que « [l]e harcèlement des femmes en général, des femmes de couleur et des femmes journalistes est presque une épidémie ». Elle a expliqué que l’utilisation de mots-clics qui favorisent un comportement préjudiciable « cré[e] ces communautés en ligne[177] » qui perpétuent ce type de harcèlement.

Julie Kotsis d’Unifor a noté qu’il y « a donc beaucoup » de harcèlement et d’abus sur les plateformes de médias sociaux qui « visent les journalistes et les travailleurs des médias » et qu’un sondage réalisé par Unifor avait révélé que Twitter et Facebook étaient les principaux sites où l’on retrouvait ce type de contenu. Elle a établi un lien entre le harcèlement et l’abus en ligne et le contexte plus large de la présente étude en expliquant qu’« il s’agit au fond de la capacité des gouvernements d’adopter des règles sérieuses et de la volonté des géants de la technologie de les respecter[178] ».

Préjudices causés aux enfants

Mme Donovan a parlé au Comité d’Arturo Béjar, un dénonciateur d’Instagram, qui a affirmé devant le Congrès américain que l’entreprise était bien au courant que du contenu préjudiciable était à la disposition des enfants, mais n’était pas prête à apporter des changements qui pourraient « avoir une incidence sur [ses] profits ». Elle a affirmé, au sujet des contenus liés à l’automutilation, que les plateformes « essaient de les enrayer », mais que ces contenus demeurent un « problème énorme » et que les plateformes ont « des responsabilités morales et éthiques » d’améliorer leur conception. Elle a ajouté qu’alors que « nous avons l’impression que la modération sur les plateformes est synonyme de censure », la fonction de modération « empêche les pourriels d’arriver dans votre boîte de réception et ces mauvais acteurs de proliférer en ligne[179] ».

Réglementation des préjudices en ligne

Nora Benavidez a déclaré que les « plus grandes entreprises du Web ont réagi avec désintéressement » à « des années de travail de la part de la société civile, des universitaires et des législateurs documentant les préjudices causés par les médias sociaux et exhortant à une plus grande responsabilisation ». Elle a ajouté que le fait que les plateformes « n’aient pas vérifié et supprimé le contenu qui viole leurs propres conditions d’utilisation cause des préjudices aux utilisateurs et les aliène » et « entraîne inévitablement la migration des mensonges et de la toxicité, des plateformes en ligne vers les médias grand public ». Mme Benavidez a également souligné « le recul » des entreprises quant à l’amélioration de la sécurité :

Au cours de la dernière année seulement, Meta, Twitter et YouTube ont affaibli leurs politiques en matière de publicité politique, créant ainsi dans le monde entier un espace pour les mensonges dans les publicités en prévision des élections de l’an prochain. Elles ont affaibli leurs politiques en matière de protection de la vie privée pour donner aux outils d’intelligence artificielle accès aux données des utilisateurs, et elles ont mis à pied collectivement près de 40 000 employés. Les équipes chargées du lien de confiance et de la sécurité, de l’ingénierie éthique, de l’innovation responsable et de la modération du contenu ont subi des réductions massives de leurs effectifs. Il s’agit des équipes chargées de maintenir la santé générale d’une plateforme et de protéger les utilisateurs contre tout préjudice[180].

Mme Benavidez a avancé qu’on « ne peut pas faire confiance [aux entreprises du Web] pour se gouverner elles-mêmes » et qu’elles ont adopté « plusieurs nouvelles tactiques pour bloquer toute forme d’enquête et toute reddition de comptes », notamment « bloquer l’accès des chercheurs et des API aux données de la plateforme » et intenter des poursuites contre des chercheurs[181].

Marc Hollin, d’Unifor, a fait écho aux observations de M. Ahmed selon lesquelles les plateformes « veulent donner l’impression d’être des entités passives, comme un babillard communautaire […] alors qu’en fait […] nous savons que les géants de la technologie exercent un contrôle, jouent un rôle de modérateur, atténuent des éléments et, franchement, profitent du transit de l’information et du contenu de multiples façons ». Il a ajouté que « la meilleure façon de s’y prendre est de veiller à ce que les géants de la technologie ne puissent pas se défausser » si l’on veut obliger les plateformes à gérer de façon responsable le contenu en ligne[182].

M. Hollin a dit que pour mettre fin au harcèlement des journalistes et des professionnels des médias en ligne, le gouvernement devrait appliquer « des exigences plus strictes obligeant à retirer » le contenu abusif. Il a cité l’exemple d’autres pays, qui ont choisi « d’obliger les plateformes, lorsqu’il y a une plainte, à agir rapidement — parfois dans les 24 heures, voire moins — de supprimer le contenu en ligne qui est haineux, relève du harcèlement ou est empreint de violence[183] ».

Pierre Trudel a affirmé que la législation sur les services numériques (Digital Services Act) offrait « des pistes de solution » pour contrer certains préjudices en ligne et que les entreprises comme Meta « devraient être obligées d’analyser » et de gérer le risque systémique « de façon à éliminer ou à réduire le plus possible les pratiques de harcèlement[184] ».

M. Hatfield est d’avis qu’un « meilleur accès des chercheurs » aux plateformes aiderait les législateurs et les décideurs à déterminer « dans quelle mesure elles reflètent la société et dans quelle mesure elles amplifient ou encouragent » certains types de contenu[185].

M. Hatfield a repris les recommandations formulées par d’autres témoins visant à mettre l’accent sur la responsabilité des plateformes : « [I]l serait bon d’obliger les plateformes à expliquer comment elles gèrent le contenu et, en fait, à dire aux utilisateurs et à un organisme de réglementation ce qu’elles font et à expliquer quels risques elles pensent atténuer. » Selon lui, cela créerait « une certaine pression concurrentielle entre les différentes plateformes pour qu’elles apprennent à mieux gérer certains de ces aspects[186] ».

M. Ahmed a fait valoir que les entreprises trouveraient « un moyen d’échapper à leurs responsabilités et de riposter aux mesures que vous proposez » et a recommandé d’élaborer « un cadre plus complet » afin d’assurer « la sécurité, la transparence des algorithmes, la reddition de comptes et la responsabilité[187] ». Il a décrit « l’élégance » de la loi sur la sécurité en ligne (Online Safety Act) du Royaume-Uni, qui travaille « dans le cadre des normes communautaires propres à la plateforme » pour responsabiliser les entreprises :

[L]a solution britannique […] dit : « Vous fixez vos propres règles, mais nous voulons voir si vous les appliquez ou pas de la bonne façon. » Il n’est pas nécessaire de compliquer les choses en disant : « Si vous faites preuve de négligence dans l’application des règles que vous demandez aux autres de respecter, et si cela porte préjudice à notre société, nous vous imposerons des conséquences économiques importantes[188] ».

Plusieurs témoins ont exprimé leurs inquiétudes quant aux conséquences de la réglementation des contenus préjudiciables sur la liberté d’expression.

M. Geist a souligné que « la réglementation de la mésinformation et de la désinformation présente de réels défis[189] ».

Philip Palmer a dit au Comité qu’il « est très difficile de définir quand on ne devrait pas avoir accès à certaines informations ou à certains services » et que la question de la « sécurité » pose « un dilemme auquel les législateurs et les personnes » feraient « face de manière constante et chronique dans cet espace[190] ».

M. Palmer a affirmé au Comité qu’une « limite entre [le contenu] épouvantable et le [contenu] légal » serait toujours problématique dans toute loi sur le contenu préjudiciable, car selon lui, « il y a toujours un danger lorsqu’on abolit la parole — et en particulier lorsqu’un gouvernement, qui a un intérêt dans la façon dont les gens parlent et, en particulier, parlent de lui, a le pouvoir d’abolir des éléments du discours ». Il a décrit cette limite comme « une ligne extrêmement dangereuse où le gouvernement doit respecter les droits[191] ».

M. Hatfield a repris les préoccupations de M. Palmer concernant la censure, en affirmant qu’il « est primordial de ne pas donner lieu à une situation de grande censure où le gouvernement force indirectement les plateformes à éliminer un grand nombre de discours légaux ». Selon lui, « [s]i on met en œuvre une réglementation mal conçue, on risque de nuire à une mobilisation sociale et à des échanges absolument essentiels[192] ». Il a dit au Comité qu’il serait « très dangereux » que « le gouvernement [soit] en mesure de décider que les gens ne devraient pas s’exprimer d’une telle manière[193] ».

Recommandations concernant la réglementation du secteur des technologies

Au cours de leur comparution, certains témoins ont formulé des recommandations à l’intention du Comité concernant la réglementation à appliquer à des entreprises comme Google et Meta.

Jean-Hugues Roy a affirmé que le Canada devrait détenir « les moyens d’avoir [de l’]information » sur les entreprises, comme leurs « états financiers détaillés », et faire en sorte que nous nous « donnions, collectivement, plus de moyens » :

Dans le but de protéger les citoyens, les gouvernements se sont donné le droit d’aller voir comment certaines entreprises manipulent les aliments, par exemple. On se donne le droit d’aller inspecter les aéronefs et de fouiller les bagages des voyageurs […] [L]e temps est venu pour le Canada de se donner le droit d’aller voir l’information que ces entreprises possèdent au sujet des citoyens canadiens[194].

Marc Hollin a repris les propos de M. Roy, affirmant que « [c’]est vraiment une question de souveraineté nationale et de droit des législateurs et des citoyens d’adopter des règles en toute autonomie et de s’attendre à ce que toute entité qui y exerce une activité les respecte[195] ».

Plusieurs témoins ont souligné le retard pris par les législateurs face à la montée en puissance des géants du Web. Pierre Trudel a dit ceci au Comité : « On a perdu deux précieuses décennies à ne rien faire à l’égard des géants du Web, en se racontant des histoires un peu romantiques relativement aux merveilles que permet Internet[196] ». Selon Georg Riekeles, « l’action publique s’est toujours avérée trop insuffisante et trop tardive[197] », notamment parce que « [l’]Internet est arrivé dans nos vies avec le principe selon lequel Internet était synonyme de démocratie » et parce qu’« une grande partie de l’idéologie qui l’entoure fut très efficace pour convaincre les législateurs et les décideurs que l’on pouvait vivre avec un modèle d’autoréglementation[198] ».

Mme Donovan a fait valoir au Comité que « la technologie est la politique. Le problème n’est pas l’absence de réglementation. Le fait est que la technologie arrive dans le monde et que si nous ne parvenons pas à la réglementer, elle existe et élabore sa propre politique […] [I]l est très difficile pour les organismes de réglementation d’intervenir un an, deux ans ou dix ans après la mise en marché d’un produit et de dire : “Attendez. Nous comprenons maintenant les effets néfastes de cela et nous voulons y remédier”[199] ». De même, M. Trudel a affirmé que « les pratiques des entreprises multinationales, de même que les configurations techniques, mettent en place des réglementations par défaut[200] ».

Bram Vranken a recommandé de « protéger le processus décisionnel, par exemple en limitant l’accès des grandes entreprises technologiques aux décideurs. En parallèle, les décideurs politiques devraient tendre la main à ceux qui n’ont pas les ressources nécessaires pour se faire entendre, comme les PME, la société civile, les chercheurs indépendants et les groupes locaux[201] ». M. Riekeles a souligné la nécessité de présenter des rapports « projet par projet, euro par euro […] Les stratégies d’interférence doivent faire l’objet d’un suivi et d’un comptage systématiques[202] ».

Philip Palmer a dit au Comité que « [l]a population et la richesse du Canada sont trop limitées pour qu’il puisse établir les normes qui régiront Internet ou la manière dont les fournisseurs d’accès Internet géreront leurs activités. Si le Canada va trop loin et impose des coûts économiques et sociaux excessifs aux fournisseurs d’accès Internet, ses entreprises et ses citoyens risquent d’être coupés des services et des connaissances accessibles à leurs pairs[203] ».

Plusieurs témoins ont recommandé d’étudier la réglementation mise en place dans d’autres pays. Selon M. Palmer, « [d]ans les sociétés démocratiques, un certain nombre d’expériences sont en cours en matière de réglementation d’Internet et des technologies dont le Canada peut s’inspirer, qu’il peut imiter ou avec lesquelles il peut coopérer[204] ». M. Trudel a aussi recommandé de « prêter attention aux façons de faire utilisées et aux réglementations mises en place par d’autres États démocratiques », car « on a affaire à des multinationales qui travaillent partout sur la planète[205] ». Il a recommandé « une intensification urgente des concertations avec les autres États[206] ».

Recommandations

Le comité recommande :

Recommandation 1

Que les plateformes de contenu numérique mettent en place des mécanismes de détection de contenu indésirable ou douteux pouvant être le produit de matériel de désinformation ou d’ingérence étrangère, et que ces plateformes aient l’obligation d’identifier rapidement ledit contenu et de le signaler aux utilisateurs; en cas d’omission des sanctions devraient s’appliquer.

Recommandation 2

Que le gouvernement du Canada mette en place une vaste campagne d’information et de sensibilisation sur les dangers que représentent les contenus de désinformation, ainsi que sur les façons de détecter la désinformation et de s’en protéger.

Recommandation 3

Que le gouvernement du Canada exige des plateformes numériques qu’elles collaborent aux recherches indépendantes universitaires, en fournissant, sur demande et par tout moyen jugé approprié, les données nécessaires à la compréhension de notre écosystème numérique, en particulier en ce qui a trait aux impacts de l’exposition à des contenus préjudiciables sur les personnes vulnérables, comme les enfants.

Recommandation 4

Un fournisseur de services de communication en ligne doit prendre des mesures pour s’assurer que les procédures, pratiques, règles et systèmes, y compris les algorithmes, mis en place pour modérer le contenu communiqué sur son service de communication en ligne et accessible aux particuliers au Canada, n’entraînent pas un traitement différencié défavorable d’un individu ou d’un groupe d’individus sur la base d’un ou de plusieurs motifs de discrimination interdits.

Recommandation 5

Que le gouvernement du Canada apporte des modifications à la Loi de l’impôt sur le revenu, en particulier aux règles qui permettent de déclarer la publicité achetée par des entreprises sur des sites Web étrangers comme une dépense entièrement déductible, alors que des restrictions subsistent en ce qui concerne la déduction du coût de la publicité dans les médias canadiens.


[1]                Comité permanent du patrimoine canadien de la Chambre des communes (CHPC), Procès-verbal, 20 mars 2023.

[2]                Forum des politiques publiques, Le miroir éclaté : Nouvelles, démocratie et confiance dans l’ère numérique, 2017.

[3]                Comité permanent du patrimoine canadien de la Chambre des communes, Bouleversements dans le paysage médiatique canadien : un monde en transformation, juin 2017, p. 79.

[4]                Loi sur les nouvelles en ligne (L.C. 2023, ch. 23).

[6]                Comité sénatorial permanent des transports et des communications (TRCM), Sixième rapport, 14 juin 2023.

[7]                Voir Laurence Brosseau, Gabrielle de Billy Brown, et Marion Ménard, Résumé législatif du projet de loi C-18 : Loi concernant les plateformes de communication en ligne rendant disponible du contenu de nouvelles aux personnes se trouvant au Canada, Bibliothèque du Parlement, 44-1-C18-F, 13 octobre 2022.

[8]                Ibid.

[11]              Ibid.

[12]              Conseil de la radiodiffusion et des télécommunications canadiennes (CRTC), Le CRTC lance une consultation publique pour mettre en œuvre la Loi sur les nouvelles en ligne, 13 mars 2024.

[14]              CHPC, Témoignages, 18 octobre 2022, 1125.

[15]              CHPC, Témoignages, 18 octobre 2022, 1125 (Colin McKay, chef, Politiques publiques et relations gouvernementales, Google Canada).

[16]              Ibid.

[17]              Ibid.

[18]              Ibid.

[19]              Ibid.

[20]              Reuters, « Google tests blocking news content for some Canadians », 22 février 2023 [traduction].

[21]              CHPC, Procès-verbal, 28 février 2023.

[22]              CHPC, Témoignages, 10 mars 2023, 1305 (Jason Kee, gestionnaire des politiques publiques, Google Canada).

[23]              Kent Walker, « Une mise à jour sur le projet de loi C-18 du Canada et sur nos produits Search et News », Blogue Google Canada, 29 juin 2023.

[24]              Ministère du Patrimoine canadien, Déclaration de la ministre St-Onge sur les prochaines étapes concernant la Loi sur les nouvelles en ligne, 29 novembre 2023.

[25]              Peter Zimonjic et Louis Blouin, « Almost two-thirds of Google’s $100 million media fund will go to print, digital media », CBC News, 15 décembre 2023 [disponible en anglais seulement].

[26]              Meta, « Nos préoccupations concernant la Loi sur les nouvelles en ligne au Canada », 21 octobre 2022.

[27]              Ibid.

[28]              Ibid.

[29]              CHPC, Témoignages, 28 octobre 2022, 1300.

[30]              « Meta menace de bloquer l’accès aux nouvelles sur Facebook et Instagram », La Presse Canadienne, 12 mars 2023.

[31]              CHPC, Témoignages, 8 mai 2023, 1130 (Kevin Chan, directeur des politiques mondiales, Meta Platforms Inc.).

[32]              Meta, « Changes to News Availability on Our Platforms in Canada », 1er juin 2023 [disponible en anglais seulement].

[33]              Ibid.

[34]              Ibid.

[35]              Ibid.

[36]              Marie Woolf, « Ottawa makes overture to Meta to restart talks in hope of ending news block », The Globe and Mail, 1er décembre 2023 [abonnement requis] [disponible en anglais seulement].

[37]              CHPC, Procès-verbal, 28 février 2023.

[38]              CHPC, Procès-verbal, 20 mars 2023.

[39]              CHPC, Témoignages, 20 avril 2023, 1600 (Kent Walker, président, Affaires globales, Google LLC).

[40]              Ibid.

[41]              CHPC, Témoignages, 20 avril 2023, 1555 (Kent Walker).

[42]              CHPC, Témoignages, 20 avril 2023, 1535 (Richard Gingras).

[43]              CHPC, Témoignages, 20 avril 2023, 1540 (Richard Gingras).

[44]              CHPC, Témoignages, 20 avril 2023, 1535 (Richard Gingras).

[45]              CHPC, Témoignages, 20 avril 2023, 1610 (Richard Gingras).

[46]              CHPC, Témoignages, 20 avril 2023, 1550 (Kent Walker).

[47]              CHPC, Témoignages, 20 avril 2023, 1545 (Richard Gingras).

[48]              CHPC, Témoignages, 20 avril 2023, 1530 (Kent Walker).

[49]              CHPC, Témoignages, 20 avril 2023, 1700 (Kent Walker).

[50]              Edward T. Walker et coll., « Poisoning the Well: How Astroturfing Harms Trust in Advocacy Organizations », Social Currents 10(2), 22 octobre 2022 [disponible en anglais seulement].

[51]              CHPC, Témoignages, 20 avril 2023, 1645 (Kent Walker).

[52]              CHPC, Témoignages, 20 avril 2023, 1705 (Kent Walker).

[53]              CHPC, Témoignages, 20 avril 2023, 1700 (Kent Walker).

[54]              CHPC, Témoignages, 8 mai 2023, 1125 (Kevin Chan).

[55]              Ibid.

[56]              Meta a bloqué les nouvelles en Australie pendant les délibérations sur le code de négociation des médias d’information de ce pays. Des sites non liés à l’actualité, tels que des sites gouvernementaux, de services d’urgence et d’organismes de bienfaisance, ont également été touchés par ce blocage. Des dénonciateurs travaillant au sein de l’entreprise ont déclaré que le blocage des sites non liés à l’actualité était délibéré. Voir Josh Taylor, « Deliberate ploy: whistleblowers reveal why Facebook’s Australia news ban included non-news sites », The Guardian, 28 mai 2022 [disponible en anglais seulement].

[57]              CHPC, Témoignages, 8 mai 2023, 1150 (Rachel Curran, cheffe des politiques publiques, Canada, Meta Platforms Inc.).

[58]              CHPC, Témoignages, 8 mai 2023, 1225 (Rachel Curran). Il convient de noter qu’à compter du 1er mars 2024, Meta a annoncé qu’elle ne paierait plus les éditeurs d’informations australiens pour le contenu d’actualité partagé sur Facebook. Voir Byron Kaye et Lewis Jackson, « Facebook Owner Meta angers Australia with plan to stop paying for news content », Reuters, 1er mars 2024.

[59]              CHPC, Témoignages, 8 mai 2023, 1225 (Rachel Curran).

[60]              CHPC, Témoignages, 8 mai 2023, 1235 (Rachel Curran).

[61]              CHPC, Témoignages, 8 mai 2023, 1155 (Kevin Chan).

[62]              CHPC, Témoignages, 8 mai 2023, 1230 (Kevin Chan).

[63]              CHPC, Témoignages, 8 mai 2023, 1235 (Kevin Chan).

[64]              CHPC, Témoignages, 8 mai 2023, 1210 (Kevin Chan).

[65]              CHPC, Témoignages, 8 mai 2023, 1215 (Kevin Chan).

[66]              CHPC, Témoignages, 8 mai 2023, 1230 (Rachel Curran).

[67]              CHPC, Témoignages, 8 mai 2023, 1150 (Rachel Curran).

[68]              Ibid.

[69]              CHPC, Témoignages, 8 mai 2023, 1205 (Kevin Chan).

[70]              CHPC, Témoignages, 8 mai 2023, 1220 (Rachel Curran).

[71]              CHPC, Témoignages, 14 décembre 2023, 0830 (Georg Riekeles, directeur associé, European Policy Centre, à titre personnel).

[72]              CHPC, Témoignages, 14 décembre 2023, 0825 (Bram Vranken, chercheur, Corporate Europe Observatory).

[73]              CHPC, Témoignages, 28 novembre 2023, 1100 (Imran Ahmed, directeur général, Center for Countering Digital Hate).

[74]              CHPC, Témoignages, 5 décembre 2023, 1120 (Courtney Radsch, directrice, Center for Journalism and Liberty, Open Markets Institute).

[75]              CHPC, Témoignages, 5 décembre 2023, 5655 (Erik Peinert, directeur de recherche, American Economic Liberties Project).

[76]              Reuters, « Google U.S. lobbying jumps 27% as lawmakers aim to rein in Big Tech », 20 janvier 2022 [disponible en anglais seulement].

[77]              Adam Satariano et coll., « Big Tech Turns Its Lobbyists Loose on Europe, Alarming Regulators », The New York Times, 14 décembre 2020 [traduction].

[78]              Voir Parlement européen, « Digital Services Act et stratégie agressive de lobbying de Google » Question parlementaire – E‑000162/2021, 13 janvier 2021.

[79]              CHPC, Témoignages, 14 décembre 2023, 0830 (Georg Riekeles).

[80]              CHPC, Témoignages, 28 novembre 2023, 1120 (Jason Kint, directeur général, Digital Content Next).

[81]              CHPC, Témoignages, 14 décembre 2023, 0825 (Bram Vranken).

[82]              Ibid.

[83]              Ibid.

[84]              CHPC, Témoignages, 14 décembre 2023, 0830 (Georg Riekeles).

[85]              CHPC, Témoignages, 14 décembre 2023, 0945 (Georg Riekeles).

[86]              CHPC, Témoignages, 5 décembre 2023, 1120 (Courtney Radsch).

[87]              CHPC, Témoignages, 28 novembre 2023, 1125 (Michael Geist, titulaire de la Chaire de recherche du Canada en droit d’Internet et du commerce électronique, Faculté de droit, Université d’Ottawa, à titre personnel).

[88]              CHPC, Témoignages, 14 décembre 2023, 0815 (Joan Donovan, experte en désinformation et en mésinformation en ligne, Boston University College of Communication, à titre personnel). Frances Haugen est une ancienne employée de Facebook qui, en 2021, a partagé avec des journalistes, des législateurs et des décideurs des documents confidentiels sur l’incapacité de l’entreprise à mettre en œuvre des mesures de protection pour ses utilisateurs.

[89]              Ibid.

[90]              CHPC, Témoignages, 28 novembre 2023, 1230 (Jason Kint). Pour obtenir des détails, voir Shannon Bond, « NYU Researchers Were Studying Disinformation on Facebook. The Company Cut Them Off », NPR, 4 août 2021 [disponible en anglais seulement].

[91]              CHPC, Témoignages, 5 décembre 2023, 1250 (Courtney Radsch).

[92]              CHPC, Témoignages, 14 décembre 2023, 0835 (Matthew Hatfield, directeur exécutif, OpenMedia).

[93]              CHPC, Témoignages, 5 décembre 2023, 5700 (Nora Benavidez, conseillère principale et directrice de la justice numérique et des droits civils, Free Press).

[94]              « About Us », Tech Transparency Project [disponible en anglais seulement].

[95]              « Zuckerberg and Meta Reach Deep into Academia », Tech Transparency Project, 6 décembre 2023 [disponible en anglais seulement].

[96]              Mohammad Abdalla et coll., « The Grey Hoodie Project: Big Tobacco, Big Tech, and the Threat on Academic Integrity », Proceedings of the 2021 AAAi/ACM Conference on AI, Ethics, and Society, juillet 2021 [disponible en anglais seulement].

[97]              CHPC, Témoignages, 14 décembre 2023, 0900 (Joan Donovan).

[98]              Ibid.

[99]              Ibid.

[100]           CHPC, Témoignages, 28 novembre 2023, 1125 (Michael Geist).

[101]           CHPC, Témoignages, 5 décembre 2023, 1120 (Courtney Radsch).

[102]           CHPC, Témoignages, 14 décembre 2023, 0830 (Georg Riekeles).

[103]           Ibid.

[104]           CHPC, Témoignages, 28 novembre 2023, 1120 (Jason Kint).

[105]           Ibid.

[106]           Ibid.

[107]           CHPC, Témoignages, 14 décembre 2023, 0845 (Philip Palmer, président, Internet Society Canada Chapter).

[108]           CHPC, Témoignages, 5 décembre 2023, 5715 (Sean Speer, rédacteur en chef, The Hub).

[109]           CHPC, Témoignages, 28 novembre 2023, 1135 (Michael Geist).

[110]           CHPC, Témoignages, 14 décembre 2023, 0835 (Matthew Hatfield).

[111]           CHPC, Témoignages, 28 novembre 2023, 1155 (Michael Geist).

[112]           CHPC, Témoignages, 14 décembre 2023, 0840 (Jeff Elgie, directeur général, Village Media Inc.).

[113]           CHPC, Témoignages, 5 décembre 2023, 5655 (Erik Peinert). À titre de référence, voir « Google should pay millions for Swiss news, says study », Swissinfo.ch, 17 mars 2023 [disponible en anglais seulement].

[114]           CHPC, Témoignages, 5 décembre 2023, 1150 (Courtney Radsch).À titre de référence, voir Matthew Ingram, « How much do Google and Meta owe publishers? Twelve billion dollars, a new study says », Columbia Journalism Review, 16 novembre 2023 [disponible en anglais seulement].

[115]           CHPC, Témoignages, 14 décembre 2023, 0940 (Jeff Elgie).

[116]           CHPC, Témoignages, 14 décembre 2023, 0845 (Philip Palmer).

[117]           CHPC, Témoignages, 14 décembre 2023, 0840 (Jeff Elgie).

[118]           CHPC, Témoignages, 5 décembre 2023, 5710 (Sean Speer).

[119]           CHPC, Témoignages, 28 novembre 2023, 1200 (Michael Geist).

[120]           CHPC, Témoignages, 28 novembre 2023, 1120 (Jason Kint).

[121]           CHPC, Témoignages, 28 novembre 2023, 1230 (Jason Kint).

[122]           CHPC, Témoignages, 14 décembre 2023, 0840 (Jeff Elgie).

[123]           CHPC, Témoignages, 5 décembre 2023, 1105 (Peter Menzies, à titre personnel).

[124]           CHPC, Témoignages, 14 décembre 2023, 0855 (Matthew Hatfield).

[125]           CHPC, Témoignages, 5 décembre 2023, 5655 (Erik Peinert).

[126]           CHPC, Témoignages, 5 décembre 2023, 1140 (Courtney Radsch).

[127]           Ibid.

[128]           CHPC, Témoignages, 5 décembre 2023, 1105 (Peter Menzies).

[129]           CHPC, Témoignages, 14 décembre 2023, 0850 (Philip Palmer).

[130]           CHPC, Témoignages, 14 décembre 2023, 0850 (Jeff Elgie).

[131]           CHPC, Témoignages, 28 novembre 2023, 1225 (Michael Geist).

[132]           Ibid.

[133]           Comité sénatorial permanent des transports et des communications, La déductibilité fiscale de la publicité étrangère sur Internet au Canada, août 2018, p. 12.

[135]           CHPC, Témoignages, 5 décembre 2023, 5820 (Erik Peinert).

[136]           CHPC, Témoignages, 5 décembre 2023, 1225 (Pierre Trudel, professeur, Centre de recherche en droit public, Faculté de droit, Université de Montréal, à titre personnel).

[137]           CHPC, Témoignages, 28 novembre 2023, 1210 (Jean-Hugues Roy, professeur, École des médias, Université du Québec à Montréal, à titre personnel).

[138]           CHPC, Témoignages, 5 décembre 2023, 1200 (Marc Hollin, représentant national, Unifor).

[139]           CHPC, Témoignages, 5 décembre 2023, 1250 (Courtney Radsch).

[140]           CHPC, Témoignages, 28 novembre 2023, 1210 (Michael Geist).

[141]           CHPC, Témoignages, 5 décembre 2023, 1245 (Pierre Trudel).

[142]           CHPC, Témoignages, 14 décembre 2023, 0850 (Philip Palmer).

[143]           CHPC, Témoignages, 5 décembre 2023, 1205 (Peter Menzies).

[144]           CHPC, Témoignages, 5 décembre 2023, 1105 (Peter Menzies).

[145]           Ibid.

[146]           Ibid.

[147]           CHPC, Témoignages, 14 décembre 2023, 0855 (Jeff Elgie).

[148]           Royaume-Uni, Loi sur la sécurité en ligne de 2023 (Online Safety Act 2023) [disponible en anglais seulement].

[149]           Commission européenne, Législation sur les services numériques (Digital Services Act).

[152]           Ibid.

[153]           Ibid.

[154]           Ibid.

[155]           ibid.

[156]           Service de recherche du Congrès, « Social Media Algorithms : Content Recommendation, Moderation, and Congressional Considerations », 27 juillet 2023 [disponible en anglais seulement].

[157]           CHPC, Témoignages, 14 décembre 2023, 0835 (Matthew Hatfield).

[158]           CHPC, Témoignages, 14 décembre 2023, 0910 (Joan Donovan).

[159]           CHPC, Témoignages, 14 décembre 2023, 0935 (Joan Donovan).

[160]           CHPC, Témoignages, 5 décembre 2023, 1125 (Julie Kotsis, représentante du secteur des médias, Conseil exécutif national, Unifor).

[161]           CHPC, Témoignages, 28 novembre 2023, 1110 (Imran Ahmed).

[162]           Ibid.

[163]           CHPC, Témoignages, 28 novembre 2023, 1115 (Jean-Hugues Roy).

[164]           CHPC, Témoignages, 28 novembre 2023, 1250 (Imran Ahmed).

[165]           Ibid.

[166]           Organisation des Nations Unies pour l’éducation, la science et la culture (UNESCO), Le journalisme, « les fausses nouvelles » (fake news) et désinformation : un manuel pour l’enseignement et la formation du journalisme [disponible en anglais seulement].

[167]           Gouvernement du Canada, La désinformation en ligne – En savoir plus, 11 janvier 2024.

[168]           Gouvernement du Canada, La désinformation en ligne, 29 janvier 2024.

[169]           Statistique Canada, La sécurité en ligne au Canada, 2022, 20 juillet 2023.

[170]           Statistique Canada, Le Quotidien — Préoccupations concernant la mésinformation en ligne, 2023, 20 décembre 2023.

[171]           CHPC, Témoignages, 28 novembre 2023, 1110 (Imran Ahmed).

[172]           CHPC, Témoignages, 5 décembre 2023, 5745 (Nora Benavidez).

[173]           CHPC, Témoignages, 5 décembre 2023, 5750 (Erik Peinert).

[174]           Ipsos, Le journalisme face à la haine en ligne, 8 novembre 2021, p. 4.

[175]           Ibid., p. 5.

[176]           Ibid., p. 18.

[177]           CHPC, Témoignages, 14 décembre 2023, 0940 (Joan Donovan).

[178]           CHPC, Témoignages, 5 décembre 2023, 1125 (Julie Kotsis).

[179]           CHPC, Témoignages, 14 décembre 2023, 0910 (Joan Donovan).

[180]           CHPC, Témoignages, 5 décembre 2023, 5700 (Nora Benavidez).

[181]           Ibid.

[182]           CHPC, Témoignages, 5 décembre 2023, 1200 (Marc Hollin).

[183]           Ibid.

[184]           CHPC, Témoignages, 5 décembre 2023, 1225 (Pierre Trudel).

[185]           CHPC, Témoignages, 14 décembre 2023, 1010 (Matthew Hatfield).

[186]           CHPC, Témoignages, 14 décembre 2023, 1015 (Matthew Hatfield).

[187]           CHPC, Témoignages, 28 novembre 2023, 1135 (Imran Ahmed).

[188]           CHPC, Témoignages, 28 novembre 2023, 1220 (Imran Ahmed).

[189]           CHPC, Témoignages, 28 novembre 2023, 1215 (Michael Geist).

[190]           CHPC, Témoignages, 14 décembre 2023, 0955 (Philip Palmer).

[191]           CHPC, Témoignages, 14 décembre 2023, 1010 (Philip Palmer).

[192]           CHPC, Témoignages, 14 décembre 2023, 1010 (Matthew Hatfield).

[193]           CHPC, Témoignages, 14 décembre 2023, 1015 (Matthew Hatfield).

[194]           CHPC, Témoignages, 28 novembre 2023, 1110 (Jean-Hugues Roy).

[195]           CHPC, Témoignages, 5 décembre 2023, 1200 (Marc Hollin).

[196]           CHPC, Témoignages, 5 décembre 2023, 1150 (Pierre Trudel).

[197]           CHPC, Témoignages, 14 décembre 2023, 0930 (Georg Riekeles).

[198]           CHPC, Témoignages, 14 décembre 2023, 1000 (Georg Riekeles).

[199]           CHPC, Témoignages, 14 décembre 2023, 0905 (Joan Donovan).

[200]           CHPC, Témoignages, 5 décembre 2023, 1110 (Pierre Trudel).

[201]           CHPC, Témoignages, 14 décembre 2023, 0825 (Bram Vranken).

[202]           CHPC, Témoignages, 14 décembre 2023, 0945 (Georg Riekeles).

[203]           CHPC, Témoignages, 14 décembre 2023, 0845 (Philip Palmer).

[204]           CHPC, Témoignages, 14 décembre 2023, 0850 (Philip Palmer).

[205]           CHPC, Témoignages, 5 décembre 2023, 1245 (Pierre Trudel).

[206]           CHPC, Témoignages, 5 décembre 2023, 1150 (Pierre Trudel).