Bonjour tout le monde. Bon retour. J'espère que vous avez tous profité au maximum des deux semaines passées dans vos circonscriptions pour garder le contact avec les électeurs, et que vous avez aussi pris quelques jours pour faire quelque chose d'autre. Et maintenant nous revoici, de retour au travail.
Bienvenue à la réunion no 19 du Comité permanent de la sécurité publique et nationale de la Chambre des communes. Pour commencer, j'aimerais souligner que nous nous réunissons sur le territoire ancestral non cédé du peuple algonquin.
La réunion d'aujourd'hui se déroule sous forme hybride, conformément à l'ordre de la Chambre adopté le 25 novembre 2021. Les membres peuvent participer en personne ou à distance avec l'application Zoom. Les députés et les témoins qui participent virtuellement peuvent s'exprimer dans la langue officielle de leur choix. Vous avez le choix, au bas de votre écran, entre le parquet, l'anglais et le français.
Conformément au paragraphe 108(2) du Règlement et aux motions adoptées par le Comité le jeudi 17 février 2022, le Comité reprend son étude sur la montée de l'extrémisme violent à caractère idéologique au Canada
Nous accueillons aujourd'hui, par vidéoconférence, M. Evan Balgord, directeur exécutif du Canadian Anti-Hate Network, ou réseau canadien antihaine; Mme Barbara Perry, directrice, Ontario Tech University, Centre on Hate, Bias and Extremism — ou centre d'étude sur la haine, les préjugés et l'extrémisme de l'Université Ontario Tech —; et Mmes Heidi Beirich et Wendy Via, du Global Project Against Hate and Extremism, ou projet mondial contre la haine et l'extrémisme.
Bienvenue, tout le monde. Vous aurez chacun un maximum de cinq minutes pour présenter votre déclaration préliminaire, et nous passerons ensuite à la période de questions.
Je vais demander à M. Balgord de nous présenter son exposé, sans dépasser les cinq minutes.
Monsieur Balgord, vous avez la parole.
Je m'appelle Evan Balgord. Je suis le directeur exécutif du Canadian Anti-Hate Network.
Nous sommes un organisme à but non lucratif voué à la lutte contre le fascisme et le racisme. Notre mandat est de combattre, de surveiller et de dénoncer les mouvements, les groupes et les individus qui font la promotion de la haine au Canada. Nous nous intéressons surtout à l'extrême droite, puisque c'est la source de la plupart des cas d'extrémisme violent à caractère idéologique.
Aujourd'hui, je vais décrire l'histoire récente du mouvement d'extrême droite et expliquer en partie comment la situation a débouché sur le convoi et l'occupation, et je vais ensuite décrire la menace qui pèse sur nous aujourd'hui.
J'ai commencé à travailler sur ce sujet, au départ, en tant que journaliste, il y a environ cinq ou six ans. De nos jours, le mouvement d'extrême droite a réellement été engendré par un mouvement raciste antimusulman. Nous avons vu apparaître des groupes haineux enhardis par l'élection de Trump et sa rhétorique sur les musulmans, qui sont ensuite descendus dans les rues pour manifester contre la motion M‑103, qui condamnait globalement l'islamophobie.
Il y avait à ce moment‑là des groupes que vous connaissez peut-être, comme les Proud Boys et les Soldiers of Odin, et deux menaces grandissantes se dessinaient dans ce contexte. Premièrement, ces groupes agressaient des gens lors des manifestations, lesquelles pouvaient devenir très violentes. Deuxièmement, ils harcelaient les musulmans sur leurs lieux de culte, et cela devenait très préoccupant pour les musulmans.
Bien sûr, la motion M‑103 a été adoptée, et le ciel ne nous est pas tombé sur la tête, alors une nouvelle cause leur était nécessaire. Ils ont changé d'image et ont commencé à s'appeler les Gilets jaunes du Canada. En même temps, ils ont ajouté de nouveaux griefs à leur liste. Pour eux, le problème n'était plus seulement les musulmans, c'était aussi le pétrole et le gaz et la séparation de l'Ouest, mais il ne faut pas vous leurrer: il suffisait de consulter les pages Facebook de ces groupes à cette époque pour trouver régulièrement des publications racistes, surtout antimusulmanes — même s'il y avait toutes les formes de racisme et d'antisémitisme —, ainsi que des appels à la violence, parfois dirigés contre les politiciens.
Ils avaient aussi un convoi, curieusement baptisé United We Roll, soit « unis nous roulons ». Une bonne partie des gens qui ont organisé ce convoi ont plus tard organisé l'occupation d'Ottawa, qui a eu beaucoup plus d'ampleur. Vous voyez comment on peut tracer une ligne directe de l'un à l'autre.
C'est aussi durant cette période que nous avons vu se multiplier les instavidéastes et les créateurs de contenu, qui étaient plus importants que les groupes « haineux ». Ces personnes, comme Pat King, ont fini par avoir une influence démesurée sur l'occupation.
Leur convoi, United We Roll, a été un échec, plus ou moins. Il n'a pas été à la hauteur de leurs attentes, et le mouvement des Gilets jaunes du Canada s'est essoufflé, même s'ils tenaient encore des manifestations quotidiennes dans la plupart de nos villes. Puis la pandémie est arrivée, et pour ces groupes, c'était comme un cadeau du ciel.
Les groupes d'extrême droite et les groupes racistes sont aussi, fondamentalement, des groupes complotistes, n'est‑ce pas? Ils croient qu'il y a un groupe de musulmans ou de juifs ou de gens d'ailleurs dans le monde qui veulent prendre le contrôle du Canada ou du monde. Fondamentalement, ce sont des complotistes. Donc, quand la COVID est arrivée, ils l'ont légitimement intégrée à leurs théories du complot. Cela a eu des conséquences indirectes très dangereuses et très graves, parce que les gens ordinaires se retrouvaient à consommer de l'information erronée ou de la désinformation à propos de la COVID et qu'ils cherchaient et trouvaient des groupes de gens qui pensaient comme eux. Et qui étaient ces gens qui partageaient leurs idées? Eh bien, c'était des groupes fondés par nos extrémistes d'extrême droite. De plus en plus de gens ordinaires entraient en contact avec le mouvement d'extrême droite canadien. C'était une mauvaise chose, parce que bon nombre de ces personnes ont été radicalisées, et il y a eu de plus en plus de manifestations, dans nos villes, réunissant des centaines et des milliers de personnes qui protestaient contre les mesures sanitaires, par exemple. Tout cela a atteint son apogée, disons, avec le convoi, nous avons constaté que ces gens avaient désormais la capacité d'occuper Ottawa.
J'aimerais souligner, avant toute chose, que ces gens ne sont pas disparus. Ils ont repris leur programmation normale. Ils continuent de tenir de grandes manifestations dans diverses villes, et il y en a même qui reviennent cette fin de semaine à Ottawa avec le convoi « Rolling Thunder ». Il ne sera pas aussi important que le précédent, mais le fait est que cela continue et grandit.
Je vais décrire les deux menaces auxquelles nous sommes confrontés aujourd'hui. Il est question ici de la montée de l'extrémisme violent à caractère idéologique. Je parle de l'extrémisme qui devient violent ou criminel. C'est une très grande partie de la question à l'étude. Nous avons des menaces, comme des menaces d'attentat terroriste ou des menaces de violence de masse. Nous avons la menace de ce mouvement de conspirationnistes qui appuient le convoi et croient à un complot sur la COVID. Tous ces gens ne sont pas des racistes et ils ne sont pas tous violents, pas plus que ne l'étaient tous les gens le 6 janvier non plus. Il y avait des groupes parmi cette foule qui ont décidé qu'ils allaient tenter un coup d'État, et beaucoup de gens là‑bas se sont retrouvés mêlés à cela.
On peut dire, en quelque sorte, que la même chose est en train de se produire ici. Nous avons plus d'éléments extrémistes dans nos mouvements d'extrême droite que d'autres, et dans l'ensemble, ils constituent une menace émergente pour notre démocratie. Leur but global antidémocratique est de renverser le gouvernement afin de prendre le pouvoir et de persécuter ceux qu'ils perçoivent comme étant leurs ennemis politiques. Ils voudraient faire le procès des docteurs, des journalistes et des politiciens, et peut-être même les exécuter. C'est le but de beaucoup de gens dans ces groupes.
C'est une menace plutôt importante. Mais cette menace existe dans un écosystème, parce que nous ne pouvons pas parler hors contexte de l'extrémisme violent à caractère idéologique...
:
Merci beaucoup, et merci de l'invitation.
Monsieur Balgord, je vous remercie, car je vais pouvoir facilement enchaîner. Je veux mettre clairement en relief ce que nous pouvons apprendre de façon générale sur le mouvement d'extrême droite de sa participation aux convois ou de l'occupation.
Il y a surtout quatre points sur lesquels je veux mettre l'accent. Premièrement, nous pouvons examiner sa capacité organisationnelle. Nous avons constaté réellement que ces gens avaient une capacité d'organisation, au Canada, comme nous n'en avions jamais vu avant, à grande échelle, surtout facilitée par l'utilisation de plateformes de médias sociaux cryptés et non cryptés. Ce thème servira en quelque sorte de fil conducteur pour mes commentaires d'aujourd'hui, parce que c'est aussi grâce à ces plateformes que ces groupes ont montré à quel point ils savaient s'adapter, en exploitant les préoccupations, les griefs et les anxiétés du grand public et en les insérant dans leurs messages. Aussi, les plateformes des médias sociaux ont joué un rôle dans le déploiement et, chose troublante, dans l'acceptation immédiate des différents types de désinformation, de théories du complot, etc. qui constituent souvent la base de l'activisme d'extrême droite et surtout, plus généralement, dans le contexte du convoi et de la COVID, comme l'a dit M. Balgord.
Le convoi et l'occupation nous ont aussi fourni énormément d'information sur les risques et les menaces associés au mouvement d'extrême droite au Canada. Il y a évidemment les menaces pour la sécurité publique, comme nous l'avons vu à Ottawa en particulier; je ne parle pas seulement des perturbations subies par toute la communauté du centre-ville, je parle aussi du harcèlement, des crimes haineux, des menaces et de l'intimidation des personnes de couleur ou des personnes LGBTQ+ et même des gens au centre-ville qui portaient un couvre-visage.
Nous avons été témoins de menaces à la sécurité nationale. Le fait qu'on a occupé un endroit si près de la Colline du Parlement est bien sûr d'une importance primordiale, mais c'est aussi très important de garder à l'esprit la menace pour la sécurité aux frontières, comme nous l'avons constaté lorsque les frontières ont été fermées. Je pense tout particulièrement à l'artillerie et aux armes associées à des groupes d'extrême droite qui ont été découvertes à Coutts.
En ce qui concerne les dangers pour la démocratie, il y a bien évidemment la menace dont a parlé M. Balgord, c'est‑à‑dire les tentatives pour renverser un gouvernement démocratique, mais de façon vraiment plus large, les mouvements d'extrême droite, dans ce contexte, visent aussi surtout à aggraver l'érosion d'un éventail d'institutions clés: l'État, évidemment, mais aussi la science, les médias, l'éducation et l'université aussi.
Le prochain point — et c'est le dernier point clé sur cette tendance —, c'est l'échec des organismes d'application de la loi qui, dans ce contexte, n'ont pas évalué correctement ni compris les risques associés à l'extrême droite et ne se sont pas préparés en conséquence; plus largement, encore une fois, ils ont failli à leur devoir d'intervenir et n'ont pas combattu l'extrémisme d'extrême droite en général. J'irais même jusqu'à dire que, par rapport au convoi et dans d'autres contextes, il y a eu de la sympathie pour l'extrême droite, ici, avec des collectes de fonds provenant de responsables d'application de la loi pour l'extrême droite. Nous avons vu des plateformes et des pages de médias sociaux consacrées à l'application de la loi affichant des théories du complot et de la désinformation à ce sujet.
La dernière chose que je veux dire concerne les points d'intervention à cibler, compte tenu des leçons clés que j'ai soulignées. Premièrement, nous devons améliorer non seulement nos connaissances critiques du numérique, mais aussi nos connaissances civiques. Il y avait énormément d'informations erronées ou de désinformation sur la nature de la Charte, sur le rôle du gouverneur général et sur le fonctionnement général des gouvernements. Ce sont deux éléments importants.
Un autre point d'intervention concerne la communauté de l'application de la loi et du renseignement, qui doit élargir ses connaissances sur l'extrémisme d'extrême droite, accroître ses capacités d'intervention et renforcer sa volonté d'intervenir.
Enfin, il faut créer des occasions et des mesures incitatives pour démarrer une discussion civile et mobiliser les deux parties, qu'on se penche sur des questions concernant le public en général ou les politiques.
Je vais m'arrêter ici. Merci.
:
Je souhaite bonjour aux membres du Comité. Merci de nous avoir fait l'honneur de nous inviter à nous adresser à vous aujourd'hui dans le cadre de votre importante étude sur la montée de l'extrémisme violent à caractère idéologique.
Je m'appelle Wendy Via, et je suis accompagnée de ma collègue, Mme Heidi Beirich. Nous sommes les cofondatrices de Global Project Against Hate and Extremism, un organisme américain qui lutte contre l'extrémisme à caractère idéologique et dont le but est de promouvoir les droits de la personne pour soutenir une démocratie florissante et inclusive. Nous nous intéressons surtout au caractère transnational des mouvements extrémistes et à l'exportation de la haine et de l'extrémisme provenant des États-Unis.
Les États-Unis, le Canada et beaucoup d'autres pays sont présentement inondés de discours haineux et de théories du complot, comme QAnon, les antivax, la désinformation sur les élections et la théorie du « grand remplacement », qui se répandent sur des médias sociaux qui ne sont pas modérés efficacement. Il est incontestable que les sociétés de médias sociaux sont les principaux moteurs de la croissance de la haine et des mouvements extrémistes dans le monde, des théories du complot, de la radicalisation des gens et de l'organisation d'événements potentiellement violents.
La conséquence de cette propagation est la polarisation de nos sociétés et la violence sous forme de crimes haineux et d'attentats terroristes. Des tragédies comme la fusillade de la mosquée de Québec, l'attaque à la voiture-bélier à Toronto, ou encore la fusillade à la synagogue Tree of Life de Pittsburgh et aux mosquées de Christchurch, nous rappellent, de façon horrible, les conséquences que peuvent avoir la haine et la radicalisation sur Internet. Ces mouvements constituent aussi une menace directe pour nos démocraties, comme nous avons pu le constater très clairement lors de l'insurrection du 6 janvier et lors de l'occupation des camionneurs, qui ont tenu Ottawa en otage pendant des semaines.
Le Canada et les États-Unis connaissent depuis longtemps des mouvements de haine similaires et interreliés, par exemple les groupes prônant la suprématie blanche ou les groupes antigouvernements. Ces dernières années, nous avons vu des organisations haineuses et paramilitaires américaines, comme le groupe néonazi The Base, le groupe antigouvernement Three Percenters, les Proud Boys, un groupe misogyne et raciste, et d'autres, s'établir des deux côtés de la frontière. Puisque ces organisations cherchent à infiltrer les institutions clés, nos deux pays sont aux prises avec la présence d'extrémistes dans les forces armées et la police, quoique à divers degrés.
Aux États-Unis et dans d'autres pays, des personnalités politiques et des influenceurs sur les médias sociaux qui ont énormément de portée sur Internet — je pense en particulier à l'ancien président Donald Trump — ont légitimé les idées haineuses et les autres idées extrémistes en les insérant dans le discours politique général et en légitimant les pensées intolérantes et marginales des deux côtés de la frontière. Les études montrent que la campagne et les politiques de Trump ont galvanisé les idéologies et les mouvements de la suprématie blanche au Canada, et son soutien au convoi des camionneurs, avec d'autres personnalités des médias comme Tucker Carlson, a sans aucun doute contribué à l'arrivée massive de dons américains pour l'occupation des camionneurs.
En plus du rôle clé que jouent les médias sociaux, un facteur plus systémique contribuant à l'extrémisme est l'accroissement de la diversité démographique dans les deux pays; compte tenu des récits sur la suprématie blanche, quoique différents dans les deux pays, ce phénomène alimente une rhétorique nostalgique voulant que le prospère passé blanc est en train d'être effacé et reconstruit intentionnellement avec des communautés qui n'y ont pas leur place. Les mouvements qui préconisent ces notions vont probablement se solidifier au cours des années à venir, puisqu'ils s'appuient sur un fondement historique et jouissent d'une sympathie que les autres mouvements extrémistes n'auront jamais. C'est pour cette raison qu'il est de la plus grande importance de s'y opposer.
Si je puis, j'aimerais formuler quelques recommandations; une liste plus longue figure dans notre témoignage écrit.
Nous ne pourrons pas régler ce problème grandissant sans nous attaquer aux médias sociaux en ligne et à l'espace financier. Sans une loi nationale musclée, les sociétés de technologie ne modifieront pas leurs pratiques. Plus important encore, les sociétés de technologie doivent être tenues responsables dans toutes les langues, et pas seulement l'anglais américain. Une démocratie souveraine ne peut s'épanouir lorsqu'elle côtoie de si grands espaces non gouvernables. La plupart des études sur l'impact des médias sociaux sur nos démocraties et nos sociétés proviennent de la société civile et s'intéressent surtout aux États-Unis.
Il faudrait financer des études indépendantes sur les méfaits en ligne. Nous devrions accroître la coopération transfrontalière, en particulier en ce qui concerne les voyages transnationaux, l'échange de renseignements et l'évaluation des menaces. Nous devrions mettre intégralement en œuvre les engagements liés à l'Appel de Christchurch, dont le Canada a été l'un des premiers signataires. Nous devrions adopter et appliquer des politiques robustes pour lutter contre l'extrémisme dans les forces armées et les forces policières au moment du recrutement et du service actif ou chez les vétérans.
Enfin, les mouvements extrémistes sont encouragés quand des personnes influentes adoptent leurs idées. Ils peuvent aussi être découragés quand le public les rejette et que les gens condamnent publiquement et avec force la haine, l'extrémisme et la désinformation chaque fois que c'est possible.
J'espère que ces suggestions vous seront utiles.
Merci.
:
Je vous remercie de votre honnêteté, monsieur Balgord. C'est important. Je n'essaie pas de minimiser le travail que vous faites.
Je viens d'une région où, l'été dernier, une église centenaire a été incendiée. Des dizaines de personnes ont dû être évacuées d'un immeuble d'appartements tout près, qui a failli brûler lui aussi, et des dizaines de personnes auraient pu mourir, mais on n'en parle tout simplement pas au Canada. Je comprends que votre organisme n'a pas le mandat de parler de ce genre de choses, parce que, comme vous l'avez dit, vous vous intéressez avant tout à l'extrême droite.
Durant les manifestations du convoi, votre directeur exécutif — je crois que c'est son titre —, Bernie Farber, a publié un gazouillis avec une photo d'un dépliant antisémite absolument affreux. Il a prétendu que c'était une photo d'un dépliant qui circulait à Ottawa entre les camionneurs qui manifestaient. Après enquête, il a été établi que cette même photo exactement avait été prise à Miami, en Floride, des semaines avant le début des manifestations.
Pouvez-vous expliquer pourquoi le directeur exécutif de votre organisme prétendait que cette photo circulait pendant les manifestations alors que, en vérité, c'était une photo qui provenait d'un tout autre pays et qui datait de plusieurs semaines avant les manifestations?
:
Passons à un autre sujet. Nous parlions de la manifestation à Ottawa, mais je vous remercie de ces éclaircissements.
Vous avez fait des allégations assez dérangeantes au sujet de l'éventualité d'un attentat terroriste, d'un incident de violence de masse. Je crois que nous nous réjouissons tous que cela ne soit pas survenu pendant ces manifestations, et je crois que cela démonte en quelque sorte l'argument prôné par beaucoup d'organismes, y compris le vôtre, voulant que cette manifestation était motivée par la violence, par un désir de commettre des actes violents. Le fait est que nous n'avons vu aucun attentat terroriste ni incident de violence de masse, et cela mine un peu ce que vous dites.
Vous avez fait un lien avec la manifestation United We Roll, à Ottawa en 2018, je crois... Il y a beaucoup de gens dans l'Ouest du Canada qui se préoccupent de la tarification du carbone, des pipelines qui sont bloqués... Selon vous, comment peut‑on établir un lien entre le suprématisme blanc et le fascisme et les gens qui veulent protéger leurs moyens de subsistance?
:
Nous ne recueillons pas ce genre de données nous-mêmes. Il existe deux sources pour ce genre de données au Canada.
D'abord, il y a les statistiques sur les crimes haineux présentées par la police, mais ces statistiques sont déficientes, parce que beaucoup de données ne sont pas recueillies.
La meilleure façon de mesurer les crimes et les incidents haineux au Canada, c'est de simplement demander aux Canadiens et aux Canadiennes s'ils ont déjà été touchés. C'est ce que nous faisons dans le cadre de l'Enquête sociale générale. Tous les cinq ans, il y a une section sur la victimisation où on demande tout simplement aux gens s'ils ont déjà été victimes d'un crime haineux, et on recueille certaines données à ce sujet. Cela nous donne le meilleur portrait de la situation actuelle au Canada, en ce qui concerne les crimes haineux.
Respectueusement, je dirais que tous les cinq ans, ce n'est pas assez fréquent pour recueillir ce genre de données. Nous demandons depuis longtemps à Statistique Canada de recueillir annuellement ce genre de données.
:
J'étudie l'extrême droite dans le contexte canadien depuis environ 2012‑2013. J'avais aussi travaillé un peu dans ce domaine aux États-Unis, vers le milieu des années 1990 environ, mais je travaille, pour parler de façon générale, dans le domaine des études sur la haine depuis plus ou moins 30 ans maintenant.
En 2015, nous avons publié un rapport découlant d'une étude financée par Sécurité publique Canada, et il s'agissait réellement de la première étude universitaire exhaustive visant à comprendre le phénomène de l'extrême droite au Canada. Nous avons récemment conclu une autre étude triennale, qui donne suite à cette première étude.
Ce que nous avons conclu, dans le rapport de 2015 — et je pourrai vous le transmettre ou vous faire parvenir le livre qui en a été tiré —, c'est que, selon une estimation très prudente, il y avait environ 100 groupes actifs d'un bout à l'autre du Canada. Nous avons pu documenter, grâce à des données ouvertes, plus de 100 incidents de violence de diverses formes associés à l'extrême droite au Canada. Pour situer cela en contexte, au cours de la même période, il y a eu environ huit incidents d'extrémisme à caractère islamique, et c'est cela qui attirait toute l'attention à ce moment‑là.
Qu'avons-nous conclu d'autre? Dans la mise à jour, nous avons constaté que, les deux ou trois dernières années, en particulier, plus de 300 groupes actifs étaient associés à l'extrême droite, pour les sept dernières années seulement, environ, nous avons évidemment compté, en date d'aujourd'hui, 26 meurtres, dont 24 lors d'assassinats collectifs, qui étaient motivés par une forme d'extrémisme d'extrême droite.
Quelles sont les autres conclusions? Il a été question plus tôt de la notion de l'évolution démographique au sein du mouvement également. Je crois que, comme nous l'avons vu avec le convoi, ce sont des personnes plus âgées, comparativement à ce qui était observé auparavant, lorsqu'il s'agissait — pas seulement, mais surtout — d'un mouvement de jeunes — les Skinheads, les néonazis, les groupes habituels de ce genre —, mais à présent, des gens plus âgés, plus instruits, vont rejoindre ce mouvement également. Clairement, c'est un mouvement qui s'appuie beaucoup plus sur la facilité et qui est beaucoup plus disposé à utiliser les médias sociaux pour répandre — c'est très ironique —, de façon très ouverte ses messages.
:
Grâce à toutes les données réunies sur les dénonciateurs et fournies par les dénonciateurs eux-mêmes qui ont expliqué comment cela fonctionne dans les coulisses, chez Facebook, nous savons, de façon assez conclusive, que ces plateformes ont cerné les problèmes comme la polarisation et les discours haineux. Toutefois, quand ils proposent des solutions, les cadres refusent qu'elles soient mises en œuvre parce que cela nuirait à la mobilisation, ou alors ils réalisent que certaines des choses qu'ils font pour accroître la mobilisation contribuent en fait à alimenter la polarisation. Malgré tout, ils vont de l'avant avec ces décisions, parce que pour eux, la mobilisation, c'est de l'argent. Les plateformes comme Facebook et Twitter ont un incitatif inhérent à alimenter la mobilisation, coûte que coûte.
Donc, non, ces plateformes n'en font pas assez pour lutter contre ces phénomènes. Je sais que le gouvernement étudie présentement un projet de loi sur la sécurité en ligne. Cela aurait pu être très efficace il y a cinq ans. Cela va tout de même être efficace aujourd'hui, et c'est quelque chose d'important à faire, parce que, quand les gens sont attirés par l'extrémisme violent à caractère idéologique, par les organisations d'extrême droite ou par les théories du complot sur la COVID, ils ne commencent pas sur des plateformes étranges et marginales comme Telegram. Ils commencent sur les Facebook et les Twitter de ce monde.
Si on peut empêcher les gens de consulter ces fausses informations et ces désinformations, alors on peut aider beaucoup de familles dont la grand-mère, l'oncle ou la tante a plongé dans cet univers parallèle qui crée beaucoup de problèmes.
Il y a toujours énormément de choses que nous pouvons faire par rapport à ces plateformes, mais nous devons changer les incitatifs. Nous devons faire en sorte qu'elles choisissent d'agir responsablement.
Ces plateformes ont eu 10 ans pour comprendre comment le faire par elles-mêmes. Malheureusement, personne n'aime vraiment l'idée que le gouvernement intervienne pour dire à l'industrie quoi faire. Tout le monde rechigne à cela, ici et là, mais nous n'avons pas le choix, parce que, franchement, le statu quo est insoutenable.
:
D'après ce que j'en sais, aucune loi dont le but était d'atténuer les méfaits sur Internet n'a vraiment changé les choses pour les victimes. Je veux dire, les plateformes peuvent bien donner des exemples et dire qu'elles ont fait ceci ou cela, mais je suis prêt à dire que, si vous posez la question aux gens qui utilisent ces plateformes, ils diront qu'ils ne voient pas vraiment de différence en ce qui concerne leur sécurité ou la façon dont ils perçoivent les plateformes.
Bien sûr, il y a de l'opposition quand on essaie de faire quoi que ce soit à propos des méfaits sur Internet, alors je crois que nous devrions passer à un autre modèle. Je ne crois pas que nous devrions avoir un modèle compliqué dont le but est de censurer ou de supprimer certains éléments de contenu. Je crois que nous devrions avoir un modèle fondé sur un ombudsman.
L'idée de base, c'est qu'avec un ombudsman — une entité de réglementation qui dispose de beaucoup de ressources et de pouvoirs d'enquête —, on peut défoncer les portes de Facebook pour prendre ses disques durs... J'exagère un peu, mais nous savons que ces plateformes nous cachent des données et mentent aux journalistes, c'est pourquoi nous avons besoin de pouvoirs d'enquête vastes pour enquêter sur elles.
Je crois que cet ombudsman devrait pouvoir formuler des recommandations sur ces plateformes, au sujet de leurs algorithmes et d'autres choses du genre. Ce serait très similaire à ce que leurs propres employés veulent faire, dans les coulisses. Par exemple, s'ils apprennent que quelque chose favorise la polarisation et la mobilisation négative et alimente les discours haineux, ils peuvent proposer de faire ceci au lieu de cela, ou de mettre quelque chose en place comme mesure provisoire.
Si nous avions un ombudsman qui pouvait regarder sous le capot et formuler des recommandations visant ces plateformes, ce serait l'approche à prendre. Si les plateformes ne veulent pas suivre ces recommandations, nous croyons qu'un ombudsman devrait pouvoir porter plainte devant un tribunal. Le tribunal pourrait examiner la recommandation de l'ombudsman au regard des dispositions de la Charte. Si le tribunal décide que la mesure est valable et conforme à la Charte, alors il peut rendre une ordonnance et, si les plateformes ne s'y conforment pas, elles s'exposent à une lourde amende.
C'est une approche beaucoup plus flexible, parce que cela veut dire que toutes les discussions que nous pourrions avoir au sujet de la liberté d'expression et des discours haineux, etc., ne relèvent plus du gouvernement, mais plutôt de divers intervenants qui se présentant devant un tribunal et un juge. C'est cette approche qui nous permettrait d'aller de l'avant, parce qu'elle a une certaine flexibilité. Nous pouvons mettre cela en place dès maintenant et renvoyer certaines de ces discussions, pour que cela se fasse au bon endroit, devant les tribunaux.
:
Merci, monsieur le président.
Merci à tous les témoins qui viennent en aide au Comité dans le cadre de notre étude.
Monsieur Balgord, je crois que je vais commencer par vous. Au sujet d'Elon Musk, je lisais quelques-uns de ses gazouillis. Il y en a un qui m'a accroché: il a dit que Twitter était en quelque sorte la prochaine mouture de la « place publique », et que c'était donc important, dans cet espace numérique, de protéger la capacité des gens à exprimer leurs opinions et de défendre la liberté de parole.
Je crois que le problème principal sur toutes sortes de plateformes des médias sociaux, c'est qu'elles permettent aux utilisateurs de se cacher sous le couvert de l'anonymat. Par exemple, je ne pourrais pas tout simplement commencer à crier des obscénités en public ou à prononcer des discours haineux contre des groupes identifiables, parce que je vais être tenu responsable. Les gens vont voir qui je suis. Je serais tenu responsable de mes actes. Mais le couvert de l'anonymat est très présent dans un grand nombre de médias sociaux. Il y a aussi les problèmes liés aux faux comptes, aux usines à trolls, aux fermes à bot informatique, etc.
Jusqu'ici, les sociétés de médias sociaux ont lamentablement échoué à s'attaquer à ce problème, alors peut-être pourriez-vous nous dire si, selon vous, l'ombudsman que vous avez mentionné devrait ou non remplir ce rôle et s'attaquer à ce problème? Peut-être pourriez-vous approfondir un peu le sujet.
:
Nous reprenons les travaux.
Mesdames et messieurs, nous sommes prêts à reprendre avec notre deuxième groupe de témoins. Pour la deuxième heure, nous accueillons Ilan Kogan, scientifique des données à Klackle. Nous recevons Rachel Curran, gestionnaire responsable des politiques publiques à Meta Canada, et David Tessler, gestionnaire responsable des politiques publiques, tous les deux de Meta Platforms. Nous accueillons Michele Austin, directrice, Politiques publiques pour les États-Unis et le Canada, de Twitter inc.
Je voudrais inviter nos témoins à présenter une déclaration liminaire de cinq minutes maximum. Je vais commencer par M. Kogan.
Monsieur Kogan, la parole est à vous.
:
Monsieur le président, mesdames et messieurs les membres du Comité, je tiens à vous remercier de m'avoir invité aujourd'hui à discuter de l'intelligence artificielle et de la réglementation des médias sociaux au Canada.
Je vais commencer par une observation souvent citée: « Pour chaque problème complexe, il existe une solution claire, simple et inadaptée. »
Le Canada n'est pas le premier pays à réfléchir à la meilleure façon d'assurer la sécurité sur Internet. En 2019, par exemple, le Parlement français a adopté la loi Avia, un projet de loi très semblable à la législation sur les méfaits en ligne sur laquelle le gouvernement canadien s'est penché l'an dernier. Le projet de loi exigeait que les plateformes de médias sociaux retirent de leurs plateformes le « contenu manifestement illégal », y compris les discours haineux. Sous peine d'importantes sanctions pécuniaires, les fournisseurs de service ont dû retirer les discours haineux dans les 24 heures suivant leur notification. Fait remarquable, la Cour constitutionnelle française a annulé la loi, estimant qu'elle constituait une atteinte excessive à la liberté d'expression.
Or, les lois sur les discours haineux de la France sont beaucoup plus strictes que celles du Canada. Pourquoi cette extension apparemment mineure de la loi sur les discours haineux à la sphère en ligne a‑t‑elle franchi la ligne constitutionnelle? La réponse est ce que les spécialistes des droits de la personne appellent la « censure collatérale ». La censure collatérale est le phénomène par lequel, si une entreprise de médias sociaux est punie pour les propos de ses utilisateurs, la plateforme va les censurer à outrance. Lorsqu'il existe une possibilité, même minime, qu'un discours soit illégal, l'intermédiaire va pécher par excès de prudence et censurer le discours, parce que le coût du défaut de supprimer du contenu illégal est trop élevé. La Cour constitutionnelle française refusait d'admettre l'effet restrictif de la loi sur l'expression juridique.
Le risque de censure collatérale dépend de la difficulté pour une plateforme de distinguer le contenu légal du contenu illégal. Certaines catégories de contenu illégal sont plus faciles à repérer que d'autres. En raison de l'échelle, la plupart des modérations de contenu sont effectuées à l'aide de systèmes d'intelligence artificielle. Il est relativement facile pour un tel système de reconnaître la pornographie juvénile, mais pas les discours haineux.
Il faut savoir que plus de 500 millions de gazouillis sont publiés chaque jour sur Twitter. De nombreux gazouillis apparemment haineux sont en fait des contre-discours, des reportages ou des œuvres d'art. Les systèmes d'intelligence artificielle ne peuvent pas distinguer ces catégories. Les examinateurs humains ne peuvent pas non plus faire ces évaluations avec précision en quelques secondes. Étant donné que Facebook demande aux modérateurs de privilégier la suppression, de manière contre-intuitive, en ligne, le discours des groupes marginalisés peut être censuré par ces efforts de bonne foi pour les protéger. C'est pourquoi tant de communautés marginalisées se sont opposées à la législation proposée sur les méfaits en ligne dévoilée l'an dernier.
Permettez-moi de vous donner un exemple tiré de l'époque où je travaillais au Conseil de surveillance, la cour suprême qui modère le contenu sur Facebook. En août 2021, après la découverte tragique de tombes non marquées à Kamloops, en Colombie-Britannique, un utilisateur de Facebook a publié une photo artistique portant le titre « Tuez l'Indien, sauvez l'homme », ainsi qu'une description connexe. Sans qu'aucun utilisateur ne se soit plaint, deux des systèmes automatisés de Facebook ont identifié le contenu comme pouvant contrevenir aux politiques de Facebook en matière de discours haineux. Un examinateur humain dans la région Asie-Pacifique a ensuite déterminé que le contenu était interdit et l'a supprimé. L'utilisateur a interjeté appel. Un deuxième examinateur humain est arrivé à la même conclusion que le premier.
Pour un algorithme, cela ressemble à une réussite, mais ce n'est pas le cas. La publication a été faite par un membre de la communauté autochtone canadienne. Elle comprenait un texte indiquant que le seul but de l'utilisateur était d'attirer l'attention sur l'une des périodes les plus sombres de l'histoire canadienne. C'était non pas un discours haineux, mais un contre-discours. Facebook s'est trompé à quatre reprises.
Il n'y a pas lieu de définir une politique par des anecdotes. En effet, le risque de censure collatérale n'exclut pas nécessairement une réglementation en vertu de la Charte. Pour déterminer si les limites imposées à la liberté d'expression sont raisonnables, la question qu'il convient de se poser est la suivante: pour chaque catégorie de contenu préjudiciable, comme la pornographie juvénile, les discours haineux ou les documents terroristes, à quelle fréquence ces plateformes commettent-elles des erreurs au chapitre de la modération?
Même si la plupart des spécialistes des droits de la personne estiment que la censure collatérale est un problème très important, les plateformes de médias sociaux refusent de transmettre leurs données. Par conséquent, la voie à suivre consiste à mettre l'accent sur la transparence et la régularité de la procédure, et non pas sur les résultats: des vérifications indépendantes, des statistiques sur l'exactitude et le droit à un examen et à un appel véritables, pour les utilisateurs tant que pour les plaignants.
C'est la voie qu'emprunte actuellement l'Union européenne et celle que devrait suivre le gouvernement canadien également.
Merci.
:
Merci, monsieur le président.
Nous vous remercions de nous avoir invités à comparaître devant le Comité aujourd'hui pour parler de l'importante question de l'extrémisme violent à caractère idéologique au Canada.
Je m'appelle David Tessler et je suis gestionnaire des politiques publiques au sein de l'équipe de Meta chargée de la lutte contre le terrorisme et les organismes et individus dangereux.
Je suis accompagné aujourd'hui de Rachel Curran, responsable des politiques publiques pour le Canada.
Chaque année, Meta investit des milliards de dollars dans le personnel et la technologie pour assurer la sécurité de ses plateformes. Nous avons triplé — à plus de 40 000 personnes dans le monde — le nombre de personnes travaillant à la sûreté et à la sécurité. Nous rajustons continuellement nos politiques en fonction des commentaires directs émis par les experts et les communautés touchées, afin de faire face aux nouveaux risques à mesure qu'ils se manifestent, et nous sommes un pionnier de la technologie de l'intelligence artificielle pour supprimer le contenu préjudiciable à grande échelle, ce qui nous permet de supprimer la grande majorité du contenu lié au terrorisme et à la propagande haineuse avant que les usagers ne le signalent.
Nos politiques relatives au contenu des plateformes sont détaillées dans nos standards de la communauté, qui précisent ce qui est autorisé et ce qui ne l'est pas sur nos plateformes. Les sections les plus pertinentes pour cette discussion sont intitulées « Violence et incitation » et « Individus et organismes dangereux ».
En ce qui concerne la violence et l'incitation, nous cherchons à prévenir les préjudices potentiels hors ligne qui pourraient être liés au contenu sur Facebook, et nous supprimons donc les propos encourageant ou facilitant la violence grave. Nous supprimons le contenu, désactivons les comptes et collaborons avec les forces de l'ordre lorsque nous estimons qu'il existe un risque réel de préjudice physique ou de menaces directes pour la sécurité publique.
Par ailleurs, nous ne permettons pas aux organismes ou aux individus affichant une mission violente ou se livrant à la violence d'être présents sur nos plateformes. Nous avons mis en place un processus rigoureux pour identifier les organismes et les individus qui répondent à nos critères de dangerosité, et nous avons travaillé avec divers experts et organismes de partout dans le monde, y compris au Canada, afin de perfectionner ce processus.
Les organismes et les individus dangereux sur lesquels nous nous concentrons incluent ceux qui sont impliqués dans des activités terroristes, la haine organisée, les meurtres de masse ou en série, la traite des personnes, la violence organisée ou les activités criminelles. Notre travail est incessant. Nous évaluons en permanence les individus et les groupes au regard de cette politique dès que ceux‑ci sont signalés. Nous recourons à une combinaison de technologie, de rapports de notre communauté et de surveillance humaine pour faire appliquer nos politiques. Nous recherchons et examinons de manière proactive les signalements de contenus interdits et les supprimons conformément à nos standards de la communauté.
L'application de nos politiques n'est pas parfaite, mais nous nous améliorons de mois en mois, et nous rendons compte de nos efforts et de nos résultats tous les trimestres et publiquement dans nos rapports sur l'application des standards de la communauté.
Le deuxième point important, au‑delà de l'existence de ces standards, est que nous nous efforçons de constamment faire évoluer nos politiques en fonction des commentaires des parties prenantes et du contexte réel actuel. Notre équipe chargée de la politique de contenu collabore avec des experts en la matière au Canada et dans le monde entier qui surveillent les tendances dans un large éventail de domaines, notamment les discours haineux et la haine organisée.
Nous faisons aussi régulièrement équipe avec d'autres entreprises, gouvernements et ONG, car nous savons que ceux qui cherchent à abuser des plateformes numériques ne tentent pas seulement de le faire sur nos applications. Par exemple, en 2017, nous avons lancé le Global Internet Forum to Counter Terrorism, ou GIFCT, de concert avec YouTube, Microsoft et Twitter. Le forum, qui est désormais un organisme indépendant à but non lucratif, rassemble des industries technologiques, les gouvernements, la société civile et le monde universitaire afin de favoriser la collaboration et le partage de renseignements pour contrer les activités terroristes et extrémistes violentes en ligne.
Je vais maintenant céder la parole à ma collègue, Mme Curran.
:
Merci, monsieur Tessler.
Au Canada, en 2020, en partenariat avec l'Ontario Tech University Centre on Hate, Bias and Extremism, dirigé par Mme Perry, que vous venez d'entendre, nous avons lancé le Global Network Against Hate. Ce programme quinquennal permettra de faire progresser les travaux et les recherches du centre sur l'extrémisme violent fondé sur les préjugés ethniques, raciaux, sexistes et autres, notamment sur la façon dont ils se propagent et sur les moyens d'y mettre fin.
Le Global Network Against Hate facilite également les partenariats mondiaux et l'échange de connaissances axées sur la recherche, la compréhension et la prévention de la haine, des préjugés et de l'extrémisme en ligne et hors ligne. Nos partenariats avec les universitaires et les experts qui étudient les individus et groupes haineux organisés nous aident à garder une longueur d'avance sur les tendances et les activités des groupes extrémistes. Nos experts sont en mesure de nous communiquer des renseignements sur la façon dont ces organisations s'adaptent aux médias sociaux et de nous donner des commentaires sur la façon dont nous pourrions mieux les combattre.
En fonction de ces commentaires, au Canada, nous avons désigné plusieurs organismes et individus haineux canadiens au cours des dernières années, notamment Faith Goldy, Kevin Goudreau, le Front nationaliste canadien, Aryan Strikeforce, Loups d'Odin et Soldats d'Odin. Ils ont tous été interdits de toute présence sur Facebook et Instagram.
Nous supprimons également la représentation affiliée de ces entités, y compris les pages et les groupes associés. Parmi les suppressions récentes, citons Alexis Cossette-Trudel, Atalante Québec et Radio-Québec...
:
Merci beaucoup, monsieur le président et mesdames et messieurs les membres du Comité, de m'avoir donné l'occasion d'être ici, et je vous remercie de votre service.
Je tiens aussi à reconnaître les membres du personnel politique qui sont présents dans la salle et les remercier de leur service et de leur soutien.
L'objectif de Twitter est de servir la conversation publique. Des personnes du monde entier se réunissent sur Twitter pour échanger librement et ouvertement des idées et des sujets qui les intéressent. Twitter s'engage à améliorer la santé collective, la transparence et la courtoisie des conversations publiques sur sa plateforme. Nous faisons ce travail en reconnaissant que la liberté d'expression et la sécurité sont interconnectées.
Twitter aborde les problèmes tels que le terrorisme, l'extrémisme violent et les organisations violentes par une combinaison d'interventions, notamment en élaborant et en appliquant nos règles, en proposant des solutions de produits et en travaillant avec des partenaires externes, comme les gouvernements, la société civile et le milieu universitaire.
Dans mon discours d'ouverture, je me concentrerai sur le travail que nous effectuons avec nos partenaires, notamment le gouvernement du Canada.
Twitter partage l'avis du gouvernement du Canada selon lequel la sécurité en ligne est une responsabilité partagée. Les fournisseurs de services numériques, les gouvernements, les forces de l'ordre, les plateformes numériques, les fournisseurs de services réseaux, les organisations non gouvernementales et les citoyens jouent tous un rôle important dans la protection des communautés contre les contenus préjudiciables en ligne. Twitter est reconnaissant envers le gouvernement du Canada pour sa volonté de favoriser des discussions honnêtes et parfois difficiles à l'aide d'événements tels que l'Appel de Christchurch ou d'organisations comme le Groupe des cinq.
Grâce à notre travail conjoint sur le Forum mondial de l'Internet contre le terrorisme, connu sous le nom de GIFCT, que mon collègue, M. Tessler, a mentionné dans sa déclaration, nous avons réalisé de réels progrès dans un grand nombre de domaines, notamment en faisant du GIFCT une organisation non gouvernementale indépendante, en mettant au point les ressources du GIFCT et en renforçant son impact, en formant le comité consultatif indépendant et les groupes de travail, et en mettant en œuvre un changement radical dans notre réaction aux situations de crise dans le monde.
Au Canada, la Loi antiterroriste et le Code criminel prévoient des mesures permettant au gouvernement du Canada de dresser une liste publique des entités terroristes et extrémistes violentes connues. Twitter surveille attentivement la liste du gouvernement du Canada ainsi que les autres listes des gouvernements du monde entier. La dernière mise à jour de la liste canadienne remonte au 25 juin 2021. Nous collaborons et coopérons également avec les forces de l'ordre lorsque cela est approprié et conforme à la procédure légale. Je tiens également à souligner le dialogue constant et opportun que j'entretiens avec les fonctionnaires de l'ensemble du gouvernement qui travaillent sur les questions nationales liées à ces dossiers.
Au‑delà des gouvernements, Twitter s'associe à des organisations non gouvernementales du monde entier afin de guider notre travail de lutte contre les contenus extrémistes en ligne. Par exemple, nous collaborons étroitement avec Tech Against Terrorism, une ONG mondiale avec qui nous échangeons des informations, des connaissances et de bonnes pratiques. Nous avons récemment participé, aux côtés du gouvernement du Canada, à l'atelier du Forum mondial de lutte contre le terrorisme, qui a élaboré une boîte à outils pour contrer l'extrémisme violent à motivation raciale.
Notre approche n'est pas statique. Nous luttons activement contre les activités extrémistes violentes en ligne et nous avons fortement investi dans la technologie et les outils nécessaires à l'application de nos politiques. La nature de ces menaces a changé, tout comme notre approche de la lutte contre ces comportements. En tant que plateforme ouverte de libre expression, Twitter a toujours cherché à trouver un équilibre, d'une part, entre l'application de ses propres règles couvrant les comportements interdits et les besoins légitimes des forces de l'ordre; et, d'autre part, la capacité des personnes d'exprimer librement leurs opinions sur Twitter, y compris celles que certaines personnes peuvent désapprouver ou trouver offensantes.
Je voudrais terminer mon témoignage par une citation de la ministre des Affaires étrangères, l', datant du 2 mars de cette année. Elle a dit ceci:
Plus que jamais, les plateformes de médias sociaux sont de puissants outils d'information. Elles jouent un rôle clé dans la santé des démocraties et la stabilité mondiale. Les plateformes de médias sociaux jouent un rôle important dans la lutte contre la désinformation...
Twitter partage cet avis.
Je me ferai un plaisir de répondre à toutes les questions concernant nos politiques, leur application et les solutions produits, ainsi que les moyens que nous mettons en œuvre pour protéger la sécurité des conversations sur Twitter.
Je vous remercie.
:
Merci, monsieur le président.
Je remercie les témoins d'être ici. Ma première question s'adresse à Twitter.
Aujourd'hui au Comité, comme vous l'avez peut-être entendu, nous avons beaucoup parlé de l'opinion de l'extrême droite et de l'extrême gauche, du partage en ligne et du contenu préjudiciable des éléments des deux extrêmes. Je suis sûre que vous savez également que les conservateurs font parfois des commentaires sur le fait qu'ils se sentent injustement visés par la censure des médias sociaux.
Dans le même ordre d'idées, dans votre déclaration conjointe avec Elon Musk, ce dernier a expliqué sa motivation à vouloir acheter Twitter et à le privatiser. Il a déclaré: « La liberté d'expression est le fondement d'une démocratie qui fonctionne, et Twitter est la place politique numérique où des questions vitales pour l'avenir de l'humanité sont débattues ». Elon Musk, comme vous le savez, a également déclaré qu'il voulait améliorer Twitter en y ajoutant de nouvelles fonctionnalités, « en rendant les algorithmes en source ouverte afin d'accroître la confiance des [utilisateurs], en éliminant les robots polluposteurs et en authentifiant tous les [utilisateurs humains] ».
Avez-vous l'impression que M. Musk peut atteindre ces objectifs et pensez-vous que cela fera en sorte que tous les côtés du spectre politique, pour ainsi dire, y compris les conservateurs, seront mieux protégés pour exprimer leurs opinions librement sur votre plateforme?
Ma prochaine question est destinée à Facebook.
Je vous remercie, madame Curran, d'être ici aujourd'hui.
J'aimerais parler un peu de ce qui s'est passé en Australie. Comme vous le savez, le gouvernement australien a proposé une législation qui obligerait Facebook à payer les éditeurs de médias d'information si Facebook hébergeait ou si les utilisateurs partageaient du contenu d'actualités. Comme vous le savez, Facebook a riposté en interdisant le partage de liens d'actualités par les utilisateurs de Facebook en Australie et en fermant les pages d'actualités australiennes hébergées sur la plateforme Facebook, en signe de protestation contre la loi australienne que le gouvernement cherchait à faire adopter. Au final, Facebook avait coupé la possibilité de partager des publications d'actualités en ligne par les utilisateurs ou non. Un accord a été conclu peu de temps après, mais l'entreprise a pris cette mesure extraordinaire consistant à interdire le partage des publications d'actualités.
Nous savons que le gouvernement libéral a proposé un projet de loi semblable à ce que le gouvernement australien a fait. Le projet de loi comporte certaines ressemblances. Sa version abrégée s'appelle la Loi sur les nouvelles en ligne. Vous la connaissez peut-être. Il y a aussi le projet de loi , qui vise à contrôler ce que les Canadiens voient lorsqu'ils ouvrent leurs applications de médias sociaux comme Facebook, Twitter et ainsi de suite.
Madame Curran, est‑il raisonnable de croire que Facebook pourrait faire au Canada la même chose que ce qu'il a fait en Australie et interdire le partage de nouvelles, si le gouvernement libéral allait de l'avant avec des projets de loi comme le projet de loi et d'autres itérations de ce projet?
:
Je suis d'accord avec Mme Dancho pour dire que nous en sommes encore aux premiers stades de l'analyse.
Il y a deux ou trois choses à dire en ce qui concerne le projet de loi .
Twitter, comme le secteur des nouvelles, ne gagne pas beaucoup d'argent avec les nouvelles. En fait, il n'y a personne au Canada qui vend du contenu d'actualités. Si vous voyez de la publicité pour des nouvelles sur Twitter, elle est en grande partie intéressée. Les organismes de presse ont choisi de faire leur propre publicité.
Nous sommes également ce que l'on appelle une plateforme « fermée ». Lorsque vous créez un lien vers une actualité sur Twitter, vous devez quitter le site. Ce n'est pas nécessairement le cas avec les autres plateformes.
Ce qui nous préoccupe le plus, c'est la portée et la transparence. La question est de savoir si Twitter est inclus ou non dans le champ d'application du projet de loi. Ce n'est pas clair du tout. Je crois savoir qu'un décret très complet sera publié après l'adoption du projet de loi.
Je serai ravie de rencontrer quiconque pour discuter du contenu du projet de loi .
:
Merci, monsieur le président.
Je remercie les témoins d'être parmi nous.
Je vais d'abord m'adresser à Mme Austin, de Twitter.
Avec le groupe précédent, un peu plus tôt, nous avons parlé du rachat de Twitter par M. Musk. Ces personnes ont lancé deux sondages en mars dernier pour demander aux gens si, selon eux, l'algorithme de Twitter devrait être un code source ouvert et si la liberté d'expression était respectée. Les personnes sondées ont répondu oui à la première question, et non à la deuxième. Clairement, M. Musk a accusé la plateforme de faire de la censure.
Selon vous, avec l'arrivée de M. Musk à la tête de Twitter, les politiques et certaines façons de faire fonctionner la plateforme risquent-elles de changer? Le fait que les gens puissent s'exprimer davantage pourrait malheureusement encourager la propagation de désinformation et de discours haineux.
J'aimerais revenir à la conversation précédente que vous avez eue en ce qui concerne le convoi qui s'est rendu jusqu'à Ottawa, puis qui s'est transformé en occupation illégale. Lorsque les représentants de GoFundMe ont comparu devant le Comité, ils ont souligné que toute campagne de financement liée à la désinformation, aux discours haineux, à la violence ou autre est interdite par leurs conditions de service. Or, leur plateforme de financement, leur sociofinancement, a permis à ce convoi de recueillir des fonds jusqu'à ce que le site soit fermé, le 4 février, malgré les preuves factuelles que la désinformation circulait partout depuis deux semaines.
Je veux savoir, du point de vue de Meta, ce que vous faisiez pendant la période où vous surveilliez ces groupes sur Facebook. Comment avez-vous changé de tactique lorsque GoFundMe a mis fin à la collecte de fonds, lorsqu'Ottawa a déclaré un état d'urgence local le 6 février, lorsque la province de l'Ontario a fait la même chose le 11 février, et lorsque, finalement, le gouvernement fédéral a été contraint de le faire le 14 février? Comment votre entreprise a‑t‑elle intensifié ses actions à cet égard?
:
Merci, monsieur le président.
Je vais terminer en m'adressant à Mme Austin.
Vous avez conclu votre allocution d'ouverture en disant que les plateformes de médias sociaux jouaient un important rôle dans la lutte contre la désinformation, et je suis d'accord avec vous. Cependant, c'est également un endroit où il y a beaucoup de désinformation.
Même nous, les élus, sommes confrontés à ce genre de problèmes. D'un côté, les médias sociaux sont nos meilleurs amis parce qu'ils nous permettent de joindre les gens que nous représentons, mais, d'un autre côté, ils sont nos pires ennemis, parce que nous recevons des mauvais commentaires et des discours haineux, si je puis dire.
Malgré tout, vous avez annoncé une nouvelle intéressante, vendredi dernier, à l'occasion du Jour de la Terre. Vous avez dit que « les publicités trompeuses sur le changement climatique seraient désormais interdites, afin de ne pas saper les efforts en faveur de la protection de l'environnement ». Cette décision est survenue alors que la modération des contenus de la plateforme est vertement critiquée à gauche et à droite par ceux qui l'accusent de censure et par ceux qui lui reprochent son laxisme. Personnellement, je pense que c'est une belle annonce et une bonne décision.
Peut-on s'attendre à ce genre de politique de la part de Twitter également pour contrer les discours haineux et la désinformation?