Bonjour à tous.
Bienvenue à la 135e réunion du Comité permanent de l'accès à l'information, de la protection des renseignements personnels et de l'éthique de la Chambre des communes.
[Français]
Conformément à l'article 108(3)h) du Règlement et à la motion adoptée par le Comité le mardi 13 février 2024, le Comité reprend son étude des impacts de la désinformation et de la mésinformation sur le travail des parlementaires.
J'aimerais souhaiter la bienvenue aux témoins d'aujourd'hui.
[Traduction]
Représentant Google Canada, nous accueillons M. Shane Huntley, directeur principal, Groupe d'analyse des menaces, qui se joint à nous par vidéoconférence, ainsi que Mme Jeanette Patell, directrice, Affaires gouvernementales et des politiques publiques, Canada.
Nous recevons également Mme Rachel Curran, qui est ici avec nous. Elle est directrice des politiques publiques, Canada, chez Meta Platforms Inc., et sa collègue, Mme Lindsay Hundley, est quant à elle responsable mondiale du renseignement sur les menaces et témoignera par vidéoconférence.
M. Steve de Eyre est directeur, Politiques publiques et affaires gouvernementales, Canada, chez TikTok, et M. Justin Erlich y est responsable mondial du développement des politiques. Les deux comparaîtront par vidéoconférence.
Enfin, M. Wilfredo Fernández est chef des affaires gouvernementales, États-Unis et Canada, de la X Corporation.
Je vous souhaite à tous la bienvenue au Comité dans le cadre de cette étude de la plus haute importance. Comme vous le savez, vous disposez de cinq minutes pour présenter vos déclarations liminaires au Comité.
Je vais donner la parole à M. Huntley en premier. Il nous joint par Internet. Pouvez-vous commencer, monsieur? Vous avez cinq minutes pour vous adresser au Comité.
:
Merci beaucoup, monsieur le président.
Mesdames et messieurs les membres du Comité, je m'appelle Jeannette Patell. Je suis responsable des affaires gouvernementales et des politiques publiques chez Google au Canada.
[Traduction]
Je suis heureuse d'être accompagnée à distance par mon collègue Shane Huntley, le directeur principal du Groupe d'analyse des menaces chez Google.
Plus tôt cette année, conformément à notre engagement continu de protéger le processus électoral, Google a créé le groupe Google Threat Intelligence, qui collige les analyses de premier plan de notre Groupe d'analyse des menaces et celles de la division du renseignement de Mandiant de Google Cloud.
Le renseignement recueilli par Google aide à la détection des menaces, à leur surveillance et à la lutte contre un éventail de menaces allant des opérations d'influence coordonnées aux campagnes de cyberespionnage à travers le réseau Internet. Chaque jour, le Groupe d'analyse des menaces surveille et s'emploie à démanteler plus de 270 groupes de cyberattaque soutenus par les gouvernements de plus d'une cinquantaine de pays. Le Groupe publie ses résultats tous les trimestres. La société Mandiant communique également ses résultats sur une base régulière. Depuis le début de l'année, elle a déjà publié plus de 50 blogues qui présentent des analyses sur la Russie, la Chine, l'Iran, la Corée du Nord et les réseaux criminels. Nous avons transmis certains de nos rapports récents au Comité, et M. Huntley répondra volontiers à vos questions sur ces efforts continus.
La mission de Google est d'organiser l'information à l'échelle mondiale afin de la rendre universellement accessible et utile. Nous sommes conscients que c'est particulièrement important pour nos institutions et nos processus démocratiques. Nous comprenons parfaitement l'importance de protéger la liberté d'expression et l'accès à une diversité de points de vue. Nous réalisons également qu'il est primordial de permettre aux gens d'utiliser nos services pour s'exprimer librement sur les enjeux politiques auxquels ils attachent de l'importance.
Afin de préserver l'intégrité et la sécurité du processus électoral, nous nous concentrons sur trois domaines clés. D'abord et avant tout, nous voulons continuer à aider les gens à trouver de l'information utile auprès de sources fiables grâce à nos produits renforcés par une gamme d'initiatives proactives, de partenariats et mesures de sécurité responsables. En plus de concevoir nos systèmes de façon qu'ils donnent accès à de l'information de qualité supérieure, nous intégrons à la recherche Google des fonctionnalités de littératie numérique grâce auxquelles les utilisateurs peuvent évaluer et vérifier les informations trouvées dans une application de média social ou entendues dans leur entourage.
Ainsi, la fonctionnalité « À propos de cette image » de la recherche Google permet de contrôler la vraisemblance et le contexte de toutes les images trouvées en ligne à partir de leur historique, de leur utilisation et de leur description sur d'autres pages Web, ainsi que du repérage d'images similaires. Nous continuons aussi d'investir dans les capacités de pointe qui permettent de repérer le contenu généré par intelligence artificielle, ou IA. Nous avons lancé l'outil de premier plan SynthID, qui filigrane et étiquette le contenu généré par IA dans les textes, le contenu sonore ou vidéo, ainsi que les images. Sur YouTube, les créateurs qui téléversent du contenu doivent dorénavant indiquer s'il contient du matériel retouché ou de synthèse qui semble réel et, le cas échéant, nous apposons l'étiquette voulue.
Bientôt, nous allons commencer à utiliser les identifiants de contenu Content Credentials de la Coalition for Content Provenance and Authenticity, un nouveau type de métadonnées inviolables. En plus de leur donner la provenance du contenu dans Google Ads, la recherche Google et YouTube, ces identifiants de contenu vont aider les utilisateurs à repérer le matériel généré par IA.
Pour ce qui est de nos propres outils d'IA générative, par surcroît de prudence, nous imposons des restrictions pour certaines requêtes liées aux élections dans Gemini. Les utilisateurs sont redirigés directement vers la recherche Google et à des liens aux informations les plus récentes et les plus exactes.
Le deuxième domaine auquel nous portons une attention spéciale concerne les niveaux supplémentaires de protection des entités les plus à risque comme les campagnes ou les élus eux-mêmes. Notre programme de protection avancée et le service Project Shield, offerts gratuitement, mettent à profit notre gamme d'outils de cyberprotection les plus fiables pour les entités et les personnes à risque comme les élus, les candidats, les travailleurs de campagne et les journalistes.
Et finalement, nous sommes très attentifs à la protection de nos propres plateformes contre la malveillance. Dans cette option, nous exerçons une surveillance active et nous anticipons les tendances en matière d'attaques en appliquant nos politiques de longue date sur le contenu potentiellement préjudiciable au processus démocratique.
Le maintien et l'application généralisés de politiques responsables sont au cœur de la protection du processus démocratique à l'échelle mondiale. C'est pourquoi, depuis des années, nous investissons dans les capacités de pointe, nous renforçons nos politiques et nous adoptons de nouveaux outils pour contrer les menaces à l'intégrité du processus électoral. Parallèlement, nous poursuivons nos efforts pour empêcher que nos plateformes et nos outils soient utilisés à mauvais escient, particulièrement par des États étrangers qui tentent de compromettre les processus électoraux démocratiques.
Les équipes Google Threat Intelligence, y compris le Groupe d'analyse des menaces créé par mon collègue Shane Huntley, jouent un rôle déterminant dans ce travail. Souvent, ces équipes communiquent de l'information importante sur les activités malveillantes aux agences de sécurité nationale, aux forces de l'ordre locales et à nos pairs de l'industrie pour qu'ils mènent des enquêtes et prennent les mesures qui s'imposent.
La préservation de l'intégrité de nos processus et institutions démocratiques représente un défi commun. Google, nos utilisateurs, l'industrie, les organismes d'application de la loi et la société civile ont tous un rôle important à jouer, et nous sommes fermement résolus à apporter notre contribution afin d'assurer la sécurité et la fiabilité de l'écosystème numérique.
Nous serons heureux de répondre à vos questions et de continuer à collaborer avec vous dans le cadre de cette étude qui porte sur des enjeux importants.
:
Je vous remercie de me donner la chance de m'adresser à vous aujourd'hui.
Je m'appelle Lindsay Hundley et je suis directrice du renseignement mondial sur la menace chez Meta. Mon travail est axé sur la production de renseignement de sécurité visant à identifier, à perturber et à prévenir les menaces adverses qui pèsent sur nos plateformes. J'ai œuvré à la lutte contre ces menaces chez Meta au cours des trois dernières années. Ma contribution à Meta est le fruit de près de 10 ans d'expérience comme chercheuse. Mon orientation principale portait sur les questions relatives à l'ingérence étrangère, y compris mon travail doctoral à l'Université Stanford et à la Harvard Kennedy School.
Je suis accompagnée aujourd'hui de Rachel Curran, responsable des politiques publiques pour le Canada.
Chez Meta, nous nous employons à identifier et à contrer les menaces étrangères hostiles — y compris le piratage, les logiciels espions, le cyberespionnage et les opérations d'influence —, que nous appelons « comportements non authentiques coordonnés », autrement dit tout effort coordonné pour manipuler le débat public dans un but stratégique, particulièrement à l'aide de faux comptes. Un comportement non authentique coordonné peut se manifester par des utilisateurs qui coordonnent leurs efforts afin de créer de faux comptes en vue d'induire d'autres personnes en erreur à l'égard de leur identité et de ce qu'ils font.
L'authenticité représente un principe central pour la communauté Meta. Nos standards interdisent tout comportement non authentique, y compris de la part d'utilisateurs qui cherchent à se présenter sous un faux jour, qui utilisent de faux comptes ou qui augmentent de manière artificielle la popularité de leur contenu. Cette politique a pour objet de préserver la sécurité des comptes d'utilisateurs et de nos services, et de créer un espace où les gens peuvent faire confiance aux personnes et aux communautés avec lesquelles ils interagissent sur nos plateformes.
Nous savons également que les auteurs des menaces s'efforcent de nuire au débat public et de le manipuler, d'exploiter les divisions sociétales, de promouvoir la fraude, d'influencer les élections et de miner l'engagement social authentique. L'une de nos plus grandes priorités consiste à arrêter ces acteurs hostiles. C'est pourquoi nous avons énormément investi dans les ressources humaines et la technologie afin de lutter contre les comportements non authentiques à grande échelle.
Les équipes de sécurité de Meta ont créé des politiques, des outils de détection automatisés et des cadres d'application pour contrer les stratagèmes trompeurs orchestrés depuis le Canada ou de l'étranger. Ces investissements technologiques nous ont permis de stopper des millions de tentatives de création de faux comptes chaque jour, et d'en détecter et d'en supprimer des millions d'autres, souvent dans les minutes qui suivent leur création. Seulement cette année, Meta a désactivé près de deux milliards de faux comptes. La grande majorité d'entre eux, soit plus de 99 %, ont été identifiés de façon proactive.
Notre stratégie pour contrer ces menaces hostiles s'articule autour de trois grands axes. Premièrement, des enquêtes sont menées par des experts pour révéler les activités les plus sophistiquées. Deuxièmement, la divulgation publique et l'échange d'information appuient la mise en place de mesures de défense intersociétales. Troisièmement, des efforts liés aux produits et à l'ingénierie visent à intégrer les résultats de nos enquêtes pour assurer une détection et une mise en œuvre plus efficaces, à grande échelle et automatisées.
Nos rapports trimestriels publics sur les menaces font partie intégrante de cette stratégie. Depuis que nous avons amorcé ce travail, nous avons démantelé et divulgué plus de 200 opérations d'influence secrètes provenant de 68 pays et dans au moins 40 langues différentes, qui vont de l'amharique à l'ourdou en passant par le russe et le chinois. Le partage de ces informations a permis à nos équipes, à des journalistes d'enquête, à des fonctionnaires et à des pairs de l'industrie de mieux comprendre et de dénoncer les risques de sécurité sur Internet, notamment à l'approche d'élections majeures.
Nous fournissons également des indicateurs techniques détaillés liés à ces réseaux dans un registre public hébergé sur GitHub, qui contient plus de 7 000 indicateurs d'opérations d'influence sur Internet.
Avant de terminer, je voudrais vous faire part très brièvement de quelques tendances liées aux menaces que nous surveillons dans le monde.
Tout d'abord, la Russie, l'Iran et la Chine demeurent les trois sources les plus prolifiques de stratagèmes d'ingérence étrangère dans le monde. Nous avons interrompu près de 40 opérations menées à partir de la Russie et visant des publics du monde entier, y compris 4 nouvelles opérations au cours du dernier trimestre. Les opérations en provenance de la Russie se sont largement orientées dans un seul sens au cours des deux dernières années. En effet, elles favorisent les discours appuyant ceux qui soutiennent moins l'Ukraine.
Similairement, nous avons constaté que les opérations chinoises ont énormément évolué au cours des dernières années pour cibler des publics plus étendus, de portée mondiale et dans des langues autres que le chinois. Ces opérations diversifient constamment leurs tactiques, y compris le ciblage de critiques du gouvernement chinois, l'appropriation de l'identité d'utilisateurs authentiques et l'utilisation de lecteurs de nouvelles générés par IA dans le but de rendre de faux médias d'information plus crédibles.
Enfin, nous avons observé que des acteurs malveillants décentralisent de plus en plus leurs opérations pour résister aux activités de perturbation d'une seule plateforme, externalisent leurs campagnes trompeuses à des firmes privées et exploitent les technologies d'IA générative pour produire des volumes plus importants de contenu original à grande échelle. Cependant, leur utilisation abusive de ces technologies n'a pas entravé notre capacité à détecter et à éliminer ces opérations.
Je me ferai un plaisir de discuter plus en détail de ces tendances.
Je conclus en rappelant que la lutte contre les opérations d'influence étrangère incombe à l'ensemble de la société. C'est pourquoi nous collaborons avec nos pairs de l'industrie, des chercheurs indépendants, des journalistes d'investigation, des instances gouvernementales et les forces de l'ordre.
Merci beaucoup de l'intérêt que vous portez à ces efforts. Nous serons ravis de répondre à vos questions.
:
Bonjour, monsieur le président et distingués membres du Comité. Je m'appelle Steve de Eyre. Je suis directeur, Politiques publiques et affaires gouvernementales chez TikTok Canada. Je suis accompagné aujourd'hui de mon collègue Justin Erlich, le responsable mondial du développement des politiques au sein de l'équipe chargée de la confiance et de la sécurité chez TikTok. M. Erlich participe virtuellement à la réunion depuis la Californie.
Merci de l'invitation à comparaître de nouveau devant le Comité afin de discuter de l'enjeu capital de la protection des Canadiens contre la désinformation. Le sujet de la séance d'aujourd'hui est d'une grande importance pour nous et il est le fondement même de notre communauté et de notre plateforme.
TikTok est une plateforme mondiale qui a permis à un éventail incroyablement diversifié de créateurs et d'artistes canadiens d'obtenir un succès sans précédent auprès de publics de partout dans le monde. Notre plateforme a aussi servi de tribune à des créateurs autochtones, qui peuvent raconter eux-mêmes leurs histoires, ainsi que de rampe de lancement à de petites entreprises comme The DSRT Company, de Hamilton, Realm Candles, de Mississauga et, bien entendu, McMullan Appliance and Mattress, de Smiths Falls, qui ont pu élargir leur clientèle non seulement au Canada, mais ailleurs dans le monde.
Les Canadiens adorent TikTok en raison de la nature authentique et positive du contenu. C'est pourquoi il est important — et dans notre intérêt — de préserver la sécurité et l'intégrité de notre plateforme. À cet escient, nous investissons des milliards de dollars pour renforcer la confiance et la sécurité. Ce travail se fait notamment à l'aide de technologies évoluées de modération automatisée et de sécurité, avec le concours de milliers d'experts en sûreté et sécurité du monde entier, y compris des modérateurs de contenu au Canada. Nous employons en outre des spécialistes locaux des politiques pour nous assurer que la mise en oeuvre de nos politiques tient compte des nuances des lois et de la culture locales.
L'approche de TikTok en matière de mésinformation et de désinformation est à la fois objective et rigoureuse. Tout d'abord, les lignes directrices données à notre communauté interdisent la mésinformation susceptible de causer un préjudice grave à des particuliers ou à la société, quelle que soit l'intention. Pour contrer la mésinformation et la désinformation, nous collaborons avec 19 organismes de vérification des faits qui appliquent nos politiques d'interdiction de ces contenus. De plus, nous investissons dans la promotion des sources fiables d'information durant les élections, divers événements et sur des sujets liés à la santé et au bien-être.
Nous surveillons et supprimons continuellement les comptes qui violent nos règles liées aux comportements trompeurs, y compris les opérations secrètes d'influence. Des analyses hautement techniques sont effectuées pour repérer et démanteler ces opérations sur une base continue. Nous supprimons des milliers de comptes appartenant à des dizaines de réseaux basés dans différents pays. Nous produisons des rapports périodiques sur les comptes supprimés dans notre centre de transparence accessible au public.
La lutte contre la désinformation concerne toute l'industrie et, pour relever ce défi, il faut adopter une approche collaborative et des mesures collectives qui mobiliseront autant les plateformes que les gouvernements. Cette collaboration sera nécessairement articulée autour de la transparence et de la responsabilisation, qui sont à notre avis essentielles pour instaurer un climat de confiance. Nous nous sommes engagés à donner l'exemple en faisant preuve de transparence dans la manière dont nous intervenons et modérons ou recommandons des contenus, en outillant les utilisateurs et en sécurisant notre plateforme. Conformément à cet engagement, TikTok publie périodiquement des rapports de transparence qui mettent en lumière les mesures prises pour assurer l'application des lignes directrices de notre communauté et pour répondre aux demandes d'information des organismes d'application de la loi ou des gouvernements relativement à la suppression de comptes, ainsi qu'aux opérations secrètes d'influence que nous avons déjouées sur notre plateforme.
Notre engagement à l'égard de la transparence est aussi ce qui guide notre collaboration avec les autorités canadiennes, comme nous l'avons démontré dans le cadre de l'examen de la sécurité nationale au sujet de TikTok en vertu de la Loi sur Investissement Canada. Nous avons collaboré avec les autorités afin de nous assurer qu'elles comprennent le fonctionnement de notre plateforme, y compris les mesures que nous prenons pour protéger les données d'utilisateurs canadiens et lutter contre les stratagèmes de désinformation et d'ingérence étrangère, entre autres. L'an dernier, durant ce processus, nous avons offert aux autorités canadiennes la possibilité d'examiner et d'analyser le code source et l'algorithme de TikTok. Le gouvernement n'a pas encore donné suite à notre invitation, mais nous avons bon espoir qu'il va saisir cette occasion. Nous allons continuer de collaborer avec lui afin de servir au mieux les intérêts des Canadiens.
Cette collaboration sera vraiment essentielle à l'approche des élections fédérales. En 2021, TikTok a collaboré avec Élections Canada à la mise au point d'un centre intégré à notre application où on pouvait trouver des renseignements authentifiés sur la date du vote, le lieu et le processus. Cette année, nous avons aussi été la seule nouvelle plateforme à signer la Déclaration du Canada sur l'intégrité électorale en ligne du Bureau du Conseil privé. À l'approche des prochaines élections, nous allons tirer profit de ce travail et des enseignements que nous en avons tirés, de même que des pratiques exemplaires issues de campagnes menées ailleurs dans le monde, y compris aux États-Unis.
Pour conclure, je m'en voudrais de ne pas souligner que la réunion d'aujourd'hui est tenue durant la Semaine éducation médias, un événement annuel pancanadien voué à la promotion de la littératie numérique et de l'éducation aux médias. Par ailleurs, nous avons célébré hier la Journée de la citoyenneté numérique, qui encourage les Canadiens à interagir de manière responsable dans notre monde numérique. L'éducation est déterminante pour aider les Canadiens à se comporter de manière sécuritaire en ligne et à renforcer leur résilience contre la mésinformation et la désinformation.
Au Canada, ces événements sont pilotés par HabiloMédias. Cet organisme canadien sans but lucratif est un chef de file mondial dans ce domaine et c'est avec une immense fierté que TikTok soutient son travail.
Nous sommes impatients de poursuivre la discussion avec vous concernant notre approche de ces enjeux cruciaux.
Une fois encore, merci de votre invitation à prendre la parole devant le Comité.
:
Merci, monsieur Fernández.
Je remercie les témoins pour leurs déclarations liminaires.
Distingués collègues, nous sommes choyés d'avoir devant nous des porte-parole des quatre principales plateformes de médias sociaux, quoique cela pose en soi quelques problèmes. Je vais demander aux députés d'adresser leurs questions à une personne en particulier pour éviter que les témoins perdent du temps à deviner qui doit répondre.
Il est devenu pratique courante au sein de ce comité de remettre le chronomètre à zéro après la première série de questions pour permettre à MM. Villemure et Green d'avoir six minutes pour poser leurs questions au deuxième tour. Est‑ce que le Comité est d'accord pour faire de même aujourd'hui?
Des députés: D'accord.
Le président: Parfait.
Nous allons entamer la première série de questions, avec des segments de six minutes.
Monsieur Cooper, la parole est à vous.
:
Merci, monsieur le président, messieurs les vice-présidents et distingués membres du Comité de m'accueillir aujourd'hui. C'est un honneur.
Je m'appelle Wilfredo Fernández et j'ai le plaisir de diriger le service des affaires gouvernementales et des politiques publiques pour les États-Unis et le Canada de la plateforme X.
La plateforme X joue un rôle essentiel dans le débat public sur les élections, c'est bien connu. Cette année, pour le seul mois de septembre, il y a eu plus de 850 milliards d'expositions, de 79 milliards de visionnements de vidéos et de 4 milliards de publications liés à la politique dans le monde. Nous sommes fiers que notre plateforme encourage le dialogue démocratique à l'échelle de la planète. L'authenticité, l'exactitude et la sécurité sont les principes fondamentaux de notre approche à l'égard du processus électoral.
Notre vision de l'authenticité est axée sur deux grands volets: les comptes et les discussions. Notre équipe de sécurité surveille de façon proactive l'activité sur nos plateformes et elle recourt à des méthodes de détection évoluées pour assurer la conformité à nos règles en matière d'authenticité. Ces règles visent les manipulations de la plateforme, les pourriels et l'utilisation d'identités fausses et trompeuses, entre autres. Nous nous employons activement à contrecarrer et à neutraliser les stratagèmes qui menacent l'intégrité de la plateforme, aussi bien ceux des entités affiliées à un État impliquées dans des opérations secrètes d'influence que ceux des réseaux de génération de pourriels génériques.
Notre programme de vérification appose des étiquettes d'authenticité sur les profils des comptes, y compris ceux des marques et des gouvernements. La coche grise indique aux membres du public qu'une réponse ou une interaction a pour source un agent du gouvernement certifié, qu'il s'agisse d'une autorité responsable des élections, d'un corps policier ou de leurs représentants.
Nous voulons nous assurer que la plateforme X est la source d'information la plus fiable sur Internet. C'est pourquoi nous avons beaucoup investi dans le développement et l'expansion de l'outil Notes de la Communauté, qui permet actuellement à plus de 800 000 contributeurs de 197 pays et territoires d'ajouter des éléments contextuels pertinents aux publications, y compris les annonces publicitaires.
Une étude récente de l'Université de Giessen en Allemagne a conclu que, toutes allégeances politiques confondues, les utilisateurs perçoivent les Notes de la Communauté comme une source d'information nettement plus fiable que les avertissements traditionnels de mésinformation. Toujours selon cette étude, les Notes de la Communauté aident davantage les utilisateurs à repérer des publications trompeuses. Par ailleurs, des études distinctes de l'Université de Giessen et de l'Université du Luxembourg ont révélé que le partage de publications assorties de notes est de 50 à 61 % moins fréquent, et leur suppression 80 % plus fréquente. Nous serons ravis de vous soumettre ces études aux fins du compte rendu.
Les hypertrucages, les trucages simples, les photos générées par AI, les contenus multimédias hors contexte et d'autres contenus similaires inquiètent le public. Au cours de la dernière année, nous avons donné un nouveau superpouvoir aux contributeurs en leur permettant d'ajouter des notes qui sont affichées automatiquement pour les contenus similaires. Vous aurez une meilleure idée de l'effet boule de neige de ces notes si je vous dis que les quelque 6 800 notes sur le contenu sont maintenant affichées sur plus de 540 000 publications et ont été vues près de 2 milliards de fois.
À la demande générale, nous avons également ajouté une fonctionnalité qui permet à tous les utilisateurs de demander une Note de la Communauté. Si la demande le justifie, les principaux contributeurs recevront une alerte et pourront proposer des notes. C'est un outil utile pour tous les utilisateurs de la plateforme X, qui permet aussi aux contributeurs de savoir où leur aide est requise. J'ajoute que les publications assorties d'une Note de la Communauté sont démonétisées.
Nous sommes fermement convaincus que la liberté d'expression et la sécurité peuvent et doivent coexister. Le contexte électoral pose des défis uniques pour ce qui concerne les abus et le harcèlement, les contenus violents, l'utilisation de fausses identités et l'usurpation d'identité, les entités violentes, les comportements haineux, les contenus de synthèse et manipulés, ainsi que l'information trompeuse sur la participation et le vote.
Pour X, toutes les années sont des années électorales. Nos politiques et nos procédures sont constamment mises à jour pour suivre l'évolution des menaces, des activités malicieuses et des acteurs malveillants. Notre planification doit commencer bien avant le déclenchement des élections. Tous les groupes de travail concernés en interne collaborent à cette planification en mettant à profit leur expertise et leur expérience, de même qu'au renforcement de ces règles avant, durant et après les élections. Nous continuons d'investir dans notre équipe et notre technologie pour renforcer nos capacités.
Nos efforts ne se limitent pas à la modération de contenu. Nous déployons des initiatives proactives pour diriger les utilisateurs de notre plateforme vers des sources autorisées et fiables concernant la participation aux élections. Nous collaborons directement avec les organismes de réglementation, les partis politiques, les campagnes, les candidats, la société civile, les organismes d'application de la loi, les agences de sécurité et bien d'autres pour établir les canaux de communication clairs qui sont essentiels pour accroître notre visibilité dans le paysage de la menace et nous assurer que X représente une ressource utile pour les partenaires externes.
Ainsi, notre collaboration efficace au Mécanisme de réponse rapide du Canada à plusieurs reprises au cours de la dernière année a conduit au démantèlement de réseaux de comptes, dont certains étaient liés à l'opération d'information chinoise par camouflage de pourriels, ou spamouflage. Nous avons été à même de constater l'utilité de ce mécanisme et nous allons maintenir des canaux de communication ouverts en préparation des prochaines élections fédérales au Canada.
Je réitère mes remerciements pour votre invitation à comparaître devant le Comité. Je suis impatient de répondre à vos questions.
:
Nous luttons contre le camouflage de pourriels depuis 2019. L'an dernier, nous avons appliqué des mesures à très grande échelle dans le cadre de notre politique relative aux comportements inauthentiques coordonnés.
Le camouflage de pourriels est une opération de longue haleine menée sur tout Internet et ciblée à l'échelle mondiale. Nous avons supprimé des milliers de comptes et de pages après avoir réussi à relier différents groupes d'activités dans le cadre d'une seule opération et à attribuer cette opération à des individus liés aux forces de l'ordre chinoises.
Nous avons identifié plus de 50 plateformes et forums utilisés pour camoufler des pourriels, y compris Facebook, Instagram, X, YouTube, TikTok, Reddit, Pinterest, Medium, Blogspot, LiveJournal, VKontakte et Vimeo, et des dizaines d'autres de plus petite taille.
Comme pour d'autres opérations menées depuis la Chine, nous n'avons pas trouvé de preuves que le camouflage de pourriels suscite une mobilisation importante de communautés authentiques sur nos services. Il s'agit d'une opération mondiale et nous avons constaté que des publics canadiens sont également ciblés. Les chercheurs de l'Australian Strategic Policy Institute, par exemple, décrivent l'utilisation dans l'opération de l'IA générative audio et de vidéos YouTube trafiquées qui ont été partagées sur d'autres plateformes avec une participation nulle ou minime de la part d'utilisateurs réels.
Nous avons collaboré à quelques reprises avec le Mécanisme de réponse rapide, y compris pas plus tard qu'hier, au sujet de l'activité de camouflage de pourriels. Je suis heureuse d'annoncer que, dans ce cas, il a constaté que nous avons réussi à supprimer de manière proactive l'immense majorité des activités qu'il suivait.
:
Merci beaucoup, monsieur le président.
Je vous remercie tous d'être ici aujourd'hui.
Je vais commencer par poser une première question à Mme Curran.
Nous avons déjà eu l'occasion d'échanger sur ce sujet. Plusieurs experts sont venus nous dire que la désinformation en Finlande a été vaincue, si on peut le dire ainsi. Du moins, elle a été grandement affectée par le fait qu'une éducation est faite. Ensuite, le pays a des médias très forts. Ce sont des médias indépendants et libres. Vous n'êtes pas sans savoir que, au Canada, les médias locaux ont été très affectés par la décision de Facebook de ne pas s'engager en vertu de la récente loi. Je vois tous les efforts que fait Meta pour contrer la désinformation, mais, selon nos spécialistes, une des plus grandes recommandations est la présence de médias forts et libres, à laquelle vous ne souscrivez pas.
J'aimerais savoir où en est rendue votre réflexion à ce sujet.
:
Merci beaucoup, madame Curran.
Monsieur Fernandez, le modèle d'affaires des médias sociaux est fondé sur le nombre de clics; ce n'est un secret pour personne. L'algorithme fait ses propres choix. Personnellement, je vais régulièrement sur la plateforme X, et il me semble qu'il s'agit d'un environnement hostile. J'ai remarqué que la brutalité, les banalités et les autres formes de fausseté génèrent plus de clics que ce qui est d'intérêt public. Vous ne pouvez pas ne pas le savoir.
Selon vous, comment pourrait-on résoudre le paradoxe entre la nécessité des clics aux fins de revenus et l'environnement hostile que cela crée actuellement? Je dois dire que, chaque fois que je termine mes visites sur votre plateforme, je suis déprimé.
:
Je poursuis ma lecture. Human Rights Watch dit avoir examiné un millier de cas concernant ce qu'elle estime être un contenu pacifique en soutien à la Palestine qui a été censuré ou par ailleurs abusivement supprimé, tandis qu'un seul cas concernait la suppression d'un contenu en soutien à Israël. Donc, en bref, il y avait 1 049 cas de suppression de contenu propalestinien et un cas de suppression de contenu pro-Israël.
Human Rights Watch conclut que la censure du contenu relatif à la Palestine était systématique et générale sur Instagram et Facebook et que l'application aléatoire de ses propres politiques par Meta entraînait la suppression par erreur de contenu sur la Palestine.
Je crois, en fait, que Meta a présenté des excuses publiques. Elle avait reçu des recommandations sur des modèles abusifs de censure, de suppression de messages, d'articles et de commentaires, de suspension ou de désactivation permanente de comptes, de restriction de la possibilité de commenter le contenu — donc, une censure fantôme —, et de restriction de la capacité de suivre ou d'étiqueter.
Il semble qu'à cet égard, Meta ait pris ses responsabilités, ait présenté des excuses publiques et ait ensuite assumé sa responsabilité sociale d'entreprise en chargeant une entité indépendante d'enquêter sur cette affaire. Celle‑ci a conclu qu'il semblait y avoir des répercussions négatives sur les droits des utilisateurs palestiniens.
Qu'a fait Meta depuis pour s'assurer que ses pratiques ne portent pas indûment atteinte à la liberté d'expression fondamentale des personnes qui publient des messages sur la question de la Palestine?
:
Je vais parler d'un article de Sheera Frenkel paru dans le
New York Times. La journaliste y affirme qu'Israël a mené une campagne d'influence sur la guerre à Gaza ciblant secrètement des législateurs américains.
Il s'agit, en fait, d'une campagne que Meta a dévoilée. Je veux donc vous donner la possibilité d'en parler un peu. Elle a commencé en octobre. Elle reste active sur X. À son plus fort, elle utilisait des centaines de faux comptes sur Facebook et sur Instagram pour afficher des contenus pro-israéliens. Les comptes étaient axés sur des législateurs américains, en particulier des législateurs noirs et démocrates — ce qui m'intéresse particulièrement —, par exemple des représentants tels que Hakeem Jeffries.
Ensuite, un autre reportage de NBC News a révélé que Meta et OpenAI ont déclaré avoir perturbé des opérations d'influence liées à une société israélienne. Votre entreprise technologique a annoncé que Project Stoic, société de marketing politique et de veille stratégique basée à Tel-Aviv, utilisait ses produits de manière malveillante pour manipuler diverses conversations politiques en ligne.
Qu'est‑ce qui me garantit, en tant que législateur canadien, que les mêmes tactiques malveillantes liées à cette entreprise israélienne n'ont pas été utilisées pour cibler des parlementaires comme moi?
:
J'ai une question pour Meta sur les répercussions de la et sur son incidence sur le journalisme local.
J'ai entendu dire, dans ma collectivité et par des Canadiens dans tout le pays qui travaillent dans le domaine de l'information, que lorsque cette loi a été adoptée, ils ont vu leur trafic, qui leur parvenait gratuitement sur Facebook, s'effondrer. Il a carrément chuté. Dans certains cas, les médias ont dû licencier des journalistes. Dans d'autres, ils ont dû fermer.
Je suis curieux de savoir si vous avez mesuré cet impact. Cependant, j'aimerais également en savoir plus sur l'espace ouvert par le départ de journalistes réputés et accrédités, de journalistes indépendants, qui est désormais occupé par d'autres acteurs, et aussi sur le risque de diffusion de mésinformation à la place des nouvelles qui étaient auparavant recherchées et partagées sur votre plateforme.
Je reviens un instant vers vous, monsieur Fernández.
À la fin de la dernière série de questions posées par Mme Khalid, vous avez reconnu financer la poursuite intentée par M. Strauss. Vous avez dit que X financerait les actions en justice de personnes qui ont perdu leur emploi à cause de commentaires qu'elles ont publiés sur la plateforme.
Si j'étais un député qui tenait sur la plateforme des propos absurdes attaquant, par exemple, un groupe ethnique particulier et, qu'en conséquence, les électeurs de ma circonscription décidaient de ne pas me réélire aux prochaines élections parce que j'ai dit des choses vraiment stupides sur votre plateforme, est‑ce que X serait prêt à me financer si je contestais ce résultat en justice?
:
C'est difficile à croire.
Je comprends qu'il y a ByteDance entre les deux, la structure de l'entreprise, le conseil d'administration qui a des assises européennes, et ainsi de suite.
Les services de renseignement dans plusieurs pays bannissent TikTok. Il y a des raisons qui expliquent cela. Ce n'est pas simplement parce qu'on n'aime pas le logo. TikTok est vu comme étant un risque à la sécurité. TikTok participe à la manipulation des esprits, selon certains.
Je suis renversé par cette histoire qui entoure la loi chinoise.
Comment pouvez-vous me rassurer?
Vous venez de parler des « Notes de la Communauté », il me semble donc opportun d'en citer quelques-unes.
Celle‑ci vient du , et date du 13 octobre: « L'année dernière, Cenovus a accumulé 37 milliards de dollars de bénéfices. Et un énorme 64 milliards de dollars en 2022. » Il y a une « Community Note » à ce sujet, avec un lien vers les actualités de Yahoo! Finance.
Ceci date du 17 août: « a dit aux Canadiens que les choses iraient mieux, mais au lieu de cela, elles ont empiré. Des familles perdent leur logement », et ainsi de suite.
Il est dit dans la « Community Note »: « Justin Trudeau est au pouvoir grâce à une entente de soutien et de confiance conclue avec ».
La note se poursuit. Le 17 août, a de nouveau déclaré: « a fait naître des espoirs chez les gens, pour ensuite les décevoir ». Il parle ensuite du prix des loyers, et il y a une « Community Note » à ce sujet.
Le 18 mars, il a déclaré:
Le vote a eu lieu et nous avons forcé les libéraux à:
arrêter de vendre des armes au gouvernement israélien,
soutenir la Cour pénale internationale et la Cour internationale de Justice,
imposer des sanctions aux colons extrémistes,
La note précise que « la motion en question ne 'force' pas les libéraux à faire quoi que ce soit ». Elle continue.
Le 7 mars, il y a une autre note.
Puis voici une note datant du 27 février. Elle est très intéressante: « 80 % du marché de l'alimentation est contrôlé par cinq sociétés... Sobeys, Metro et, vous l'avez deviné, Loblaws ». Elle se poursuit ainsi: « Les campagnes du Parti libéral et du Parti conservateur reçoivent des dons de ces trois entreprises. »
Il est très intéressant que Metro soit ajouté ici, étant donné que son frère fait du lobbying pour eux.
La note indique: « L'affirmation contenue dans le billet est fausse. Les dons des entreprises aux partis politiques fédéraux sont interdits par la loi au Canada depuis plus de 15 ans. » C'est un peu comme si les libéraux disaient « armes d'assaut », qui sont illégales depuis 40 ans, et ils le savent.
Il y en a une autre sur les conflits d'intérêts.
Qu'avons-nous? Nous avons huit « Notes de la Communauté ». Avez-vous déjà vu un dirigeant politique au Canada recevoir autant de « Notes de la Communauté »?
:
Dans votre déclaration liminaire, vous avez parlé du désir de X d'être franc et honnête. Vous avez dit — et je vous cite en quelque sorte, mais je peux me tromper — « une plateforme cruciale en ce qui concerne les élections ».
Votre PDG, Elon Musk, s'est livré à un trafic de désinformation sur X au sujet de l'élection présidentielle américaine de 2024 qui aura lieu en novembre.
Le 4 octobre, il a retransmis une fausse affirmation selon laquelle deux millions de non-citoyens avaient été inscrits sur les listes électorales au Texas, en Arizona et en Pennsylvanie. Le 19 octobre, il a retransmis un message voulant que les listes électorales de l'État étaient susceptibles de contribuer à une fraude généralisée. Toutes ces affirmations ont été démenties, et il existe de nombreux autres exemples de désinformation électorale.
Et c'est le PDG. De toute évidence, votre service interne de vérification des faits ne fonctionne pas.
Ma question est la suivante. Comment les Canadiens peuvent-ils être sûrs qu'Elon Musk et d'autres employés de X ne diffuseront pas de la désinformation sur les politiciens fédéraux, provinciaux et municipaux canadiens, d'autant plus qu'il a déjà donné son avis sur la plateforme X concernant les affaires canadiennes?
:
C'est là que les « Notes de la Communauté » entrent en jeu. Nous disposons d'un réseau de 800 000 contributeurs dans le monde entier, dont plus de 30 000 Canadiens qui se sont inscrits au programme. Pour devenir contributeur, il faut avoir un compte en règle — un compte depuis au moins six mois — et un numéro de téléphone confirmé.
Ensuite, vous posez votre candidature et nous intégrons des personnes chaque semaine selon un processus équitable et aléatoire. Ces personnes ont la possibilité de commencer à évaluer les notes en fonction de leur utilité, de la qualité des citations qu'elles contiennent, de leur pertinence par rapport à l'objet de l'article, de leur facilité de compréhension et de la neutralité ou de l'impartialité de leur langage.
Nous utilisons ensuite ce que l'on appelle un « algorithme de classement des ponts ». Pour qu'un billet se voie attribuer une Note de la Communauté, il faut que des communautés qui, historiquement, ne convenaient pas de l'utilité des « Notes de la Communauté » s'entendent pour dire que cette note est utile, et c'est à ce moment‑là qu'elle apparaît dans le billet.
Je vais m'adresser à Mme Hundley ou à Mme Curran.
J'ai commencé à faire de la politique en 2009, et je me suis présenté contre six autres personnes à l'échelle municipale. Je pense que si j'ai gagné, c'est parce que j'ai été très tôt sur Facebook. Aucun des candidats que j'ai affrontés n'avait de page Facebook, et j'avais environ un millier d'amis sur Facebook à l'époque.
Dans votre déclaration liminaire — ou peut-être que c'est Mme Hundley qui l'a dit, je ne m'en souviens plus —, vous avez parlé de la découverte de millions de faux comptes et de leur suppression. Est‑ce une goutte d'eau dans l'océan? Y a‑t‑il des milliards de faux comptes? Je crois bien qu'une de mes tantes a eu environ 700 faux comptes, et ces comptes sont toujours là.
J'ai été avocat en immigration, avec ma photo. J'ai été à peu près tous les profils possibles, et ce n'est que moi. Beaucoup d'entre eux sont toujours là, et lorsque nous les signalons, ils ne disparaissent pas.
J'admets que si vous êtes capables de supprimer des millions de faux comptes, c'est formidable, mais avez-vous besoin d'une plus grande capacité? Considérez-vous toujours cela comme un problème? Y a‑t‑il des milliards de faux comptes?
:
Merci, monsieur le président.
Monsieur Fernández, le gouvernement a présenté le projet de loi , connu sous le nom de Loi sur les préjudices en ligne. Margaret Atwood l'a qualifié d'orwellien. The Atlantic a publié un article dans lequel il qualifie le projet de loi d'« attaque extrémiste du Canada contre la liberté d'expression ». Le projet de loi a été caractérisé de la manière suivante: « La pire attaque contre la liberté d'expression de l'histoire moderne du Canada ».
Entre autres choses, le projet de loi établira une commission dite de sécurité numérique, une nouvelle bureaucratie massive de censeurs qui auront le pouvoir d'imposer des sanctions à toute personne ou tout service de média social jugé avoir permis ce que considère comme un « contenu préjudiciable », quel qu'il soit. Les sanctions seront établies par le cabinet Trudeau, et non par le Parlement.
Avez-vous des inquiétudes au sujet de cette commission dite de sécurité numérique et des effets qu'elle aura sur la liberté d'expression des Canadiens en ligne?
Je reviens à une question que j'ai posée à la fin de mon dernier tour.
Le ministère du premier ministre a très rapidement pris contact avec Facebook lorsqu'il a repéré un article qui contenait de la désinformation sur , mais pendant les élections de 2021, pour autant que Mme Curran le sache, le ministère du premier ministre, le Bureau du Conseil privé, n'a pas pris contact avec Facebook face à une vague de désinformation par le régime de Pékin dirigée contre Kenny Chiu et d'autres candidats conservateurs pour les faire échouer et pour aider à la réélection de Justin Trudeau.
Aux autres témoins représentant les autres plateformes de médias sociaux, le Bureau du Conseil privé vous a‑t‑il contacté pendant les élections de 2021, au sujet des efforts de désinformation de Pékin?
Je pose la question à M. Fernández.
:
Merci beaucoup, monsieur le président.
La page Facebook de Châteauguay est très populaire auprès de mes concitoyens. Toutefois, je trouve décevant que les gens mettent toutes sortes d'informations personnelles sur Facebook. Je pense à ma mère, par exemple, à des amis ou à des parents. La protection des renseignements personnels est peut-être une question mal connue, mais je trouve cela inquiétant.
La question que je vais poser à Mme Curran concerne la décision unanime rendue par la Cour d'appel fédérale, le 9 septembre 2024.
[Traduction]
Cette décision s'intitule Canada (Commissaire à la protection de la vie privée) c. Facebook, Inc. 2024; il s'agit de la CAF 140.
[Français]
Elle infirmait la décision de la Cour fédérale et concluait que les pratiques de Facebook, entre 2013 et 2015, avaient contrevenu à la Loi sur la protection des renseignements personnels et les documents électroniques, parce que l'entreprise n'avait pas obtenu le consentement éclairé de ses utilisateurs et qu'elle n'avait pas protégé leurs données personnelles. La Cour d'appel fédérale a demandé aux parties de faire un rapport au cours des 90 jours suivant la date de la décision pour indiquer si une entente sur les termes de l'ordonnance réparatoire avait été conclue.
Le commissaire à la protection de la vie privée du Canada a déclaré qu'il s'attendait à ce que Facebook présente maintenant de quelle façon elle s'assurera de respecter la décision de la Cour. Meta n'a pas indiqué si elle entend demander l'autorisation à la Cour suprême du Canada de faire appel de cette décision.
J'imagine que vous êtes au courant de cette situation, madame Curran.
Quelle suite Meta entend-elle donner à la décision unanime de la Cour d'appel fédérale dans l'affaire opposant le commissaire à la protection de la vie privée à Facebook?
:
Merci de votre question, madame Shanahan.
Si j'ai bien compris, cette décision fait l'objet d'un appel, mais je n'ai pas plus de détails que cela, donc j'éviterai de faire des observations sur l'affaire en particulier.
Nous avons toujours soutenu qu'il n'y avait aucune preuve que les renseignements des Canadiens ont été partagés avec un acteur externe, y compris Cambridge Analytica, et la Cour fédérale a souscrit à la conclusion selon laquelle il n'y avait pas suffisamment de preuves que les données des Canadiens n’ont jamais été partagées à l'extérieur.
Surtout, au cours des dernières années, nous avons transformé les pratiques en matière de protection de la vie privée chez Meta et mis en place un des programmes de protection de la vie privée les plus complets au monde, et nous sommes prêts à continuer de créer les services que les gens aiment et auxquels ils font confiance, en plaçant la protection de la vie privée au premier plan.
Je ne commenterai pas davantage cette décision, mais je peux dire que nous approuvons la décision de la Cour fédérale selon laquelle il n'y a aucune preuve que les données des Canadiens ont été partagées avec Cambridge Analytica.
:
Je ne peux pas parler des détails de cette affaire judiciaire. Je crois savoir qu'il est fait appel d'une décision, mais je n'ai pas d'autres détails.
Je suis d'accord avec vous, madame Shanahan: si les gens ne nous font pas confiance pour assurer la sécurité de leurs données, nous savons qu'ils ne choisiront pas d'utiliser nos produits et nos services.
Notre entreprise utilise des données pour mettre en relation des clients et utilisateurs potentiels avec un contenu pertinent et intéressant. Nous ne pouvons le faire que si nos utilisateurs nous confient leurs données et ont confiance que nous allons protéger leur vie privée. C'est pourquoi nous en faisons une priorité absolue dans l'ensemble de notre entreprise.
Nous avons aujourd'hui des dizaines d'équipes, tant techniques que non techniques, qui se concentrent sur la protection de la vie privée et qui examinent comment les données sont protégées et divulguées au sein de l'entreprise — comment elles sont collectées, utilisées et stockées. Je pense que l'on peut dire sans risque que nos pratiques de protection de la vie privée ont considérablement évolué au cours des dix dernières années. Nous sommes désormais convaincus que la protection de la vie privée est au coeur de tout ce que nous faisons et de tout ce que nous bâtissons.
:
Merci beaucoup, monsieur le président.
Ma question s'adresse à M. de Eyre, de TikTok.
Dans un article du 15 mars dernier, publié par Reuters et repris dans l'édition en chinois de Forbes, on pouvait lire que 60 % des parts de ByteDance étaient détenues par des groupes institutionnels tels Carlyle Group, General Atlantic et Susquehanna, 20 % l'étaient par les employés et le reste par M. Zhang Yiming, qui en est le fondateur. On dit aussi que, bien qu'il possède 20 % du capital, il détient encore 50 % des voix dans ByteDance.
Comment se passe le lien avec la Chine?
:
Je vais vous donner quelques éléments de contexte.
Le 29 juillet 2024, une attaque massive à l'arme blanche a eu lieu dans un cours de danse pour enfants à Southport, au Royaume-Uni, et trois enfants sont morts.
Immédiatement après la nouvelle de l'attaque, de faux renseignements sur l'identité de l'agresseur se sont répandus sur les médias sociaux, en parallèle d'appels à l'action et à la violence. Le lendemain, des centaines de personnes se sont rassemblées devant une mosquée de Southport et ont lancé des cocktails Molotov, des briques et des insultes antimusulmanes, motivées par de faux renseignements diffusés en ligne désignant l'attaquant — et je ne le renommerai même pas, parce que je ne veux pas alimenter cette haine — comme étant à la fois musulman et demandeur d'asile.
Des actes de violence et des désordres publics, dont une grande partie était motivée par un sentiment antimusulman et antimigrant, se sont rapidement répandus dans tout le pays. Les publications contenant le faux nom ont été moussées par les utilisateurs à l'aide des algorithmes de la plateforme et des fonctions recommandées. Selon l'Institute for Strategic Dialogue, X mettait en évidence le faux nom dans ses promotions « Tendances au Royaume-Uni », le suggérant aux utilisateurs dans la barre latérale « Ça se passe maintenant ».
Des personnalités d'extrême droite aux millions d'abonnés ont capitalisé sur de fausses affirmations selon lesquelles l'attaquant était un demandeur d'asile, continuant ainsi à propager la fausseté au sein de leurs bases massives d'abonnés.
Une plateforme s'est démarquée. C'était la vôtre. Il s'agit de X, et son propriétaire, que nous avons déjà identifié, M. Elon Musk, a communiqué de faux renseignements sur la situation à ses 195 millions d'abonnés et s'est évertué à attaquer la réponse du gouvernement britannique à la flambée de violence. Au lieu de s'assurer que les risques et les contenus illégaux étaient atténués sur sa plateforme, M. Musk a imprudemment promu la notion d'une guerre civile imminente au Royaume-Uni, monsieur Fernández, et pourtant votre entreprise, X, refuse de signer une déclaration sur la pratique de la désinformation.
Qu'avez-vous à dire à ce sujet, monsieur Fernández?
:
Bien sûr. Merci pour la question. C'est un sujet dont nous parlons beaucoup avec les créateurs canadiens.
Le fonds pour les créateurs, ou le fonds pour la créativité, comme on l'appelle maintenant, est propre aux États-Unis et à quelques autres pays. Nous ne l'avons pas encore déployé à l'échelle mondiale. Nous sommes toujours à la recherche de moyens pour continuer à aider les créateurs à monnayer leur contenu et à gagner leur vie grâce à celui‑ci. Il existe toutefois de nombreuses autres façons pour les créateurs canadiens de prospérer et de gagner de l'argent en utilisant TikTok.
Un résident de votre circonscription, que j'ai mentionné dans ma déclaration liminaire, Corey McMullan, l'utilise pour des partenariats avec des marques et pour vendre ses propres articles directement à ses abonnés. Je pense qu'il a amassé plus de 400 000 ou 500 000 abonnés.
Les cadeaux en direct sont un autre moyen important pour les créateurs canadiens de monnayer leurs plateformes. Ils sont en direct et reçoivent des cadeaux virtuels.
Nous cherchons constamment des moyens d'aider notre collectivité à tirer parti de son auditoire et à gagner de l'argent, voire à gagner sa vie grâce à TikTok.
:
Merci pour cette réponse.
J'aimerais poser une question à tous les membres du groupe, et elle porte sur la responsabilité des utilisateurs vérifiés sur vos plateformes lorsqu'il s'agit de diffuser de la désinformation.
Monsieur Fernández, vous avez parlé du crochet gris et de la confiance que les utilisateurs de votre service peuvent avoir lorsqu'ils reconnaissent que le crochet gris signifie que cette personne est un élu ou un représentant du gouvernement.
J'aimerais vous lire un message publié sur X datant du 17 octobre 2023. La du Canada publie: « Le bombardement d'un hôpital est un acte impensable et il ne fait aucun doute que cet acte est absolument illégal. » Ce message a été vu 2,7 millions de fois. Il est toujours en ligne sur votre site aujourd'hui.
J'aimerais juxtaposer cela à un article d'ABC News datant du 18 octobre 2023. Je vais vous lire le premier paragraphe:
Un jour après que le ministère de la Santé de Gaza, dirigé par le Hamas, a affirmé qu'Israël avait attaqué l'hôpital Al Ahli Arab dans la ville de Gaza, déclarant que quelque 500 Palestiniens avaient été tués, des responsables israéliens et américains, des experts en explosifs et le président Joe Biden ont déclaré mercredi que les preuves disponibles montraient que la destruction avait été causée par un tir de roquette raté de terroristes palestiniens.
Quelle est la difficulté pour vos utilisateurs — et aussi pour vos services — de gérer cela lorsque nous avons ce type d'imprudence, non seulement de la part d'un représentant élu, mais aussi de la part de la d'un pays du G7, qui diffuse ce qui est manifestement prouvé comme étant de fausses nouvelles, de fausses informations — appelez cela comme vous le voulez?
Nous parlons de mésinformation. Le président a déjà fait remarquer qu'il s'agit d'un terme habile pour désigner un mensonge. Quels types de défis cela crée‑t‑il lorsque ce type d'acteur publie ce genre de mésinformation?
:
Merci, monsieur le président.
Merci à tous nos invités des plateformes de se joindre à nous.
Je voudrais m'adresser à M. Fernández au sujet des robots. Les robots, nous le savons, sont une source de mésinformation sur les plateformes de médias sociaux. Depuis la vente de X, l'activité des robots sur X est pire que jamais, selon des experts comme Timothy Graham de la Queensland University of Technology. Voici ce qu'on peut lire dans un article du Washington Post de juillet 2018:
Le taux de suspensions de comptes, que Twitter a confirmé au Post, a plus que doublé depuis octobre, lorsque l'entreprise a révélé sous la pression du Congrès comment la Russie a utilisé de faux comptes pour interférer dans l'élection présidentielle américaine. Twitter a suspendu plus de 70 millions de comptes en mai et juin, et le rythme s'est poursuivi en juillet.
Cependant, d'après vos déclarations plus tôt dans la journée, M. Fernández, vous avez dit que X avait supprimé 60 000 comptes de camouflage de pourriels au cours de l'année écoulée. Pourquoi y a‑t‑il un tel écart entre les suspensions avant que M. Musk n'achète la plateforme et ce que j'ai mentionné en 2018? Ne s'agit‑il pas d'un écart considérable par rapport aux robots encore actifs?
:
Vous savez, j'ai suspendu mon utilisation de TikTok par suite des enquêtes sur l'ingérence étrangère que je prends très au sérieux. J'attends la conclusion des enquêtes.
J'étais un utilisateur assidu de TikTok. Je connais de nombreuses personnes qui le sont encore. J'accorde du crédit à ce que vous dites sur le fait que les gens l'apprécient. Je vous dirais qu'en fait, si les gens passent autant de temps sur TikTok, c'est en raison de la puissance des algorithmes. C'est la capacité d'établir le profil des gens et de continuer à leur fournir du contenu qui va essentiellement monopoliser leur temps sur la plateforme.
L'inquiétude demeure, quelle que soit la manière dont vous y répondez. Vous ne voulez pas qualifier ByteDance de géant chinois de la technologie; je le ferai. Vous ne voulez pas dire qu'il est basé à Pékin; je dirai que c'est le cas, et pourtant nous en sommes là.
Des pays du monde entier, et plus particulièrement des pays occidentaux, enquêtent sur l'utilisation des algorithmes de TikTok. Qu'avez-vous à dire aux personnes qui, comme moi, ont suspendu leur compte par crainte d'une ingérence étrangère?
:
Merci, monsieur Caputo.
Madame Khalid, avant de vous donner la parole, je voudrais revenir sur votre intervention précédente concernant la demande de documents.
J'ai consulté les règles. Il est clair que les comités... Plusieurs demandes ont été faites au cours de cette réunion. Je sais que M. Housefather a fait une demande. La greffière en a noté d'autres. Nous ferons un suivi auprès de la personne à qui la demande a été adressée, mais il est précisé que nous obtenons généralement les documents en les demandant simplement à leurs auteurs ou à leurs détenteurs. Toutefois, si la demande est refusée après qu'elle a été faite et que le comité permanent estime que certains documents sont essentiels à son travail, il peut utiliser le pouvoir d'ordonner la production de documents en adoptant une motion à cet effet. Généralement, la méthode consiste à demander. Si nous n'obtenons pas satisfaction, nous pouvons déposer une motion.
Je tenais à le préciser avant que vous ne commenciez.
Si vous pouvez nous fournir des données supplémentaires qui confirmeraient ce que vous avez dit aujourd'hui, je vous en serais très reconnaissante.
Monsieur Fernández, je reviendrai rapidement sur les crochets bleus et sur l'apparente capacité sur X de s'acheter maintenant une légitimité pour un certain nombre de dollars et d'amplifier sa voix, indépendamment de l'exactitude ou de la véracité — ou non — de cette voix. Il peut s'agir de mésinformation, de désinformation, de discours haineux, etc., mais vous pouvez acheter le crochet bleu qui amplifie votre voix.
Une étude a‑t‑elle été réalisée au sein de X pour savoir si ce crochet bleu et les comptes qui y sont associés ont une quelconque corrélation avec les campagnes de mésinformation ou de désinformation ou avec les opérations de vérification des faits sur votre plateforme?
:
Parfait. Merci, madame Khalid.
Je tiens à remercier tous nos témoins. Je ne vais pas tous vous nommer, vous êtes trop nombreux. Je vous suis vraiment reconnaissant de vous être mis à notre disposition pour cette importante étude.
La greffière a pris note de certaines demandes de renseignements supplémentaires formulées par les membres du Comité. Elle examinera les bleus et communiquera vers vous.
Je m'attends à ce qu'au cours des prochaines semaines, nous fournissions à nos analystes des instructions de rédaction. Une fois que la greffière aura pris contact avec vous, je vous serais reconnaissant, en tant que président, de bien vouloir transmettre ces réponses au Comité par son intermédiaire le plus rapidement possible. Nous vous donnerons probablement une date limite, si cela vous convient.
Merci à tous ceux qui ont participé sur Zoom et à tous ceux qui sont venus en personne, y compris nos techniciens, nos greffiers et nos analystes.
Voilà, c'est tout. Je vous souhaite à tous un bon week-end.
La séance est levée.