JUST Réunion de comité
Les Avis de convocation contiennent des renseignements sur le sujet, la date, l’heure et l’endroit de la réunion, ainsi qu’une liste des témoins qui doivent comparaître devant le comité. Les Témoignages sont le compte rendu transcrit, révisé et corrigé de tout ce qui a été dit pendant la séance. Les Procès-verbaux sont le compte rendu officiel des séances.
Pour faire une recherche avancée, utilisez l’outil Rechercher dans les publications.
Si vous avez des questions ou commentaires concernant l'accessibilité à cette publication, veuillez communiquer avec nous à accessible@parl.gc.ca.
Comité permanent de la justice et des droits de la personne
|
l |
|
l |
|
TÉMOIGNAGES
Le jeudi 6 juin 2019
[Enregistrement électronique]
[Traduction]
Bonjour à tous et bienvenue à cette séance du Comité permanent de la justice et des droits de la personne. Nous allons reprendre notre étude sur la haine en ligne.
J'aimerais souhaiter la bienvenue à Mme Raitt pour sa première réunion en tant que vice-présidente du Comité .
C'est pour moi un honneur et un plaisir d'accueillir M. Chan, directeur des politiques mondiales chez Facebook, qui prendra part à notre étude. Monsieur Chan, je tiens à vous remercier, vous et Facebook, d'avoir accepté de participer à notre étude sur la haine en ligne. Nous savons que votre entreprise prend cette question au sérieux et nous vous sommes très reconnaissants d'être ici pour nous renseigner sur ce que vous faites.
Nous allons commencer par vous. Vous avez la parole.
Merci beaucoup.
J'aimerais préciser, monsieur le président, que je ne suis que l'un des nombreux directeurs des politiques mondiales de Facebook. Je ne suis donc pas « le » directeur, mais simplement « un » directeur de l'entreprise.
Merci, monsieur le président, et merci aux membres du Comité. Je m'appelle Kevin Chan et je suis le chef des politiques publiques de Facebook Canada. Je suis heureux de contribuer à votre étude sur la haine en ligne.
Nous voulons que Facebook soit un lieu où les gens puissent s'exprimer librement et en toute sécurité dans le monde entier. C'est pourquoi nous avons investi massivement dans les personnes, la technologie et les partenariats afin d'examiner les abus commis sur notre plateforme par des personnes malveillantes, et d'y répondre.
Nous avons travaillé rapidement pour supprimer les contenus préjudiciables et les personnalités qui incitent à la haine sur notre plateforme, conformément à nos politiques, et nous restons également déterminés à travailler avec les dirigeants mondiaux, les gouvernements et l'ensemble de l'industrie de la technologie pour contribuer à la lutte contre les propos haineux et la menace terroriste.
[Français]
Nous souhaitons que Facebook soit un endroit où les gens peuvent s'exprimer librement et de manière sécuritaire dans le monde entier. En lien avec cet objectif, nous avons beaucoup investi dans les ressources humaines, la technologie et les partenariats afin d'examiner et de combattre les abus de notre plateforme imputables à de mauvais joueurs. Conformément à nos politiques, nous avons travaillé rapidement pour supprimer de notre plateforme les contenus préjudiciables et les représentants de groupes haineux. Nous restons déterminés à collaborer avec les gouvernements et l'ensemble du secteur des technologies pour lutter contre les discours haineux et la menace du terrorisme.
[Traduction]
Tous les membres de notre entreprise demeurent choqués et profondément attristés par les récentes tragédies survenues en Nouvelle-Zélande et au Sri Lanka, et nous sommes de tout cœur avec les victimes, leur famille et les collectivités touchées par ces terribles attentats terroristes.
En ce qui concerne les événements de Christchurch, Facebook a travaillé en étroite collaboration avec la police néo-zélandaise au moment où elle a réagi à l'attentat, et continue d'appuyer son enquête.
Quelques minutes après avoir été contactés par la police, nous avons retiré la vidéo en direct originale de Facebook et nous l'avons hachée de façon à ce que les vidéos visuellement similaires partagées soient ensuite détectées et automatiquement supprimées de Facebook et d'Instagram. Certaines variantes, comme les enregistrements d'écran, étant plus difficiles à détecter, nous nous sommes également tournés vers d'autres systèmes de détection, y compris la technologie audio.
Ainsi, au cours des 24 premières heures, nous avons supprimé environ 1,5 million de vidéos de l'attentat dans le monde. Plus de 1,2 million de ces vidéos ont été bloquées lors de leur téléchargement et n'ont donc pas pu être visionnées sur nos services.
Comme vous le savez, Facebook est l'un des membres fondateurs du Forum mondial de lutte contre le terrorisme sur Internet, qui assure une coordination régulière de la lutte contre le terrorisme. Nous sommes en contact étroit depuis l'attentat, et nous avons échangé plus de 800 vidéos distinctes sur le plan visuel liées à l'attentat via notre base de données collective, ainsi que des adresses URL et du contexte sur nos approches en matière d'application. Cet événement souligne l'importance de la coopération au sein de l'industrie pour lutter contre tous les terroristes et les extrémistes violents qui opèrent en ligne.
Parallèlement, nous nous sommes efforcés de comprendre comment nous pouvons prévenir de tels abus à l'avenir. Le mois dernier, Facebook a signé l’Appel à l'action de Christchurch pour éliminer le contenu terroriste et extrémiste violent en ligne, et a pris des mesures immédiates relativement à la diffusion en direct.
Plus précisément, les personnes qui enfreignent certaines règles sur Facebook, y compris notre politique sur les organisations et les personnes dangereuses, ne pourront pas utiliser Facebook Live. Nous investissons également 7,5 millions de dollars dans de nouveaux partenariats de recherche avec d'éminents universitaires pour nous attaquer au type de manipulation hostile des médias dont nous avons été témoins après Christchurch, lorsque des personnes ont modifié la vidéo pour éviter sa détection et la publier de nouveau après son retrait.
En ce qui concerne la tragédie survenue au Sri Lanka, nous savons que le mauvais usage et l'usage abusif de notre plateforme peuvent amplifier les tensions ethniques et religieuses sous-jacentes et contribuer à des préjudices hors ligne dans certaines régions du monde. C'est particulièrement vrai dans les pays comme le Sri Lanka, où de nombreuses personnes se servent d'Internet pour la première fois, et où les médias sociaux peuvent être utilisés pour répandre la haine et alimenter les tensions sur place.
C'est pourquoi, en 2018, nous avons commandé une étude d'impact sur les droits de la personne portant sur le rôle de nos services, qui a révélé que nous n'en faisions pas assez pour empêcher que notre plateforme soit utilisée pour fomenter la discorde et inciter à la violence. Nous avons pris un certain nombre de mesures, y compris la mise sur pied d'une équipe spéciale pour travailler dans toute l'entreprise afin de nous assurer que nous élaborons des produits, des politiques et des programmes qui tiennent compte des situations qui se présentent, et de tirer des enseignements de notre expérience au Myanmar. Nous avons également mis sur pied nos équipes d'examen du contenu pour nous assurer que nous disposons de personnes possédant les compétences linguistiques et la compréhension du contexte culturel voulues.
Nous avons investi dans la technologie et les programmes là où nous avons repéré des risques plus élevés en matière de contenu et où nous prenons des mesures pour les devancer.
À la suite des atrocités commises au Sri Lanka, notre communauté s'est rassemblée pour s'entraider. Après les attentats terroristes et jusqu'à l'entrée en vigueur de l'interdiction des médias sociaux, le 21 avril dernier, plus d'un quart de million de personnes avaient utilisé l'outil de contrôle d'absence de danger de Facebook pour signaler qu'elles étaient en sécurité, afin de rassurer leurs amis et leurs êtres chers. À la suite des attaques, plus de 1 000 offres ou demandes d'aide ont été reçues sur l'outil de réponse aux crises de Facebook.
Ces événements sont un rappel douloureux du fait que même si nous avons fait beaucoup de chemin, nous pouvons et devons toujours en faire plus. Toute erreur pourrait nous coûter très cher.
J'aimerais maintenant vous donner un aperçu général de la façon dont nous traitons les propos haineux en ligne. La principale responsabilité de Facebook est d'assurer la sécurité des personnes en ligne et hors ligne pour protéger ce qu'il y a de mieux dans le monde virtuel. En fin de compte, nous voulons donner aux gens le pouvoir de bâtir des communautés et rapprocher le monde à travers une diversité d'expressions et d'expériences sur notre plateforme.
Les normes de notre communauté sont claires: la haine peut prendre plusieurs formes et aucune d'entre elles n'est permise dans notre communauté mondiale. Facebook rejette d'ailleurs non seulement les propos haineux, mais toutes les idéologies haineuses, et nous croyons que nous avons réalisé d'importants progrès. À mesure que nos politiques se resserrent dans un domaine, les personnes changent leur langage et leur approche pour essayer de les contourner. Par exemple, les gens parlent de nationalisme blanc pour éviter notre interdiction de la suprématie blanche, alors nous interdisons maintenant aussi le nationalisme blanc.
Les personnes qui sont déterminées à répandre la haine trouveront un moyen de contourner les règles. L'un des domaines que nous avons considérablement renforcés est la désignation de personnalités et d'organisations incitant à la haine en fonction d'un plus large éventail de signaux et pas seulement de leurs activités sur notre plateforme. La collaboration avec des experts canadiens de l'extérieur a abouti à l'élimination de six personnalités et organisations incitant à la haine — Faith Goldy, Kevin Goudreau, le Canadian Nationalist Front, l'Aryan Strikeforce, les Wolves of Odin et les Soldiers of Odin — sur Facebook et Instagram. Nous supprimerons également tout éloge, représentation ou soutien de ces personnes et organisations. Notre politique mondiale sur les organisations dangereuses nous a déjà permis d'interdire plus de 200 groupes suprémacistes blancs.
En plus de ce changement de politique, ces dernières années, nous avons renforcé notre approche à l'égard de la propagande haineuse autour de trois P. Tout d'abord, les personnes. Nous avons triplé le nombre d'employés de Facebook qui travaillent dans le domaine de la sûreté et de la sécurité à l'échelle mondiale pour le porter à plus de 30 000 personnes.
Deuxièmement, les produits. Nous continuons d'investir dans la technologie de pointe et nos équipes responsables des produits continuent de créer des outils essentiels comme l'intelligence artificielle, l'automatisation intelligente et l'apprentissage machine, qui nous aident à supprimer une grande partie de ce contenu, souvent au moment de son téléchargement.
Troisièmement, les partenariats. En plus du Forum mondial de lutte contre le terrorisme sur Internet, au Canada, nous avons travaillé avec des organismes autochtones pour mieux comprendre les propos haineux tenus sur notre plateforme et appliquer des sanctions contre ceux-ci. Nous nous sommes également associés à l'organisation À voix égales pour élaborer des ressources visant à assurer la sécurité en ligne des candidats, en particulier des candidates, en vue des prochaines élections fédérales. Nous avons travaillé en partenariat avec le Centre canadien d'engagement communautaire et de prévention de la violence dans le cadre d'un atelier sur la lutte contre les propos haineux et la radicalisation.
Notre engagement en faveur de la transparence est à la base de tout cela. En avril 2018, nous avons publié nos lignes directrices internes, que nos équipes ont utilisées pour faire respecter les normes de notre communauté. Nous avons également publié notre tout premier rapport sur l'application des normes de notre communauté qui décrit la quantité et les types de contenu contre lesquels nous avons pris des mesures, ainsi que la quantité de contenu que nous avons signalé de façon proactive aux fins d'examen. Nous produisons un rapport semestriel et, dans notre dernier rapport, publié le mois dernier, nous avons été fiers d'annoncer que nous continuons de réaliser des progrès dans l'identification des propos haineux.
Nous détectons maintenant de façon proactive 65 % du contenu que nous supprimons, contre 24 % il y a un peu plus d'un an, lorsque nous avons partagé nos efforts pour la première fois. Au premier trimestre de 2019, nous avons supprimé quatre millions de messages haineux et nous continuons d'investir dans la technologie afin d'accroître notre capacité à détecter ce contenu dans différentes langues et régions.
Je voudrais conclure avec quelques réflexions sur l'avenir de la réglementation dans ce domaine. Les nouvelles règles régissant Internet devraient préserver ce qu'il y a de mieux dans cet espace et dans l'économie numérique: stimuler l'innovation, soutenir la croissance des petites entreprises et favoriser la liberté d'expression tout en protégeant la société contre les préjudices plus importants. Ce sont là des questions extrêmement difficiles à traiter et nous voulons travailler avec les gouvernements, les universitaires et la société civile du monde entier pour nous assurer que les nouveaux règlements sont efficaces.
À mesure que le nombre d'utilisateurs de Facebook a augmenté et que les difficultés liées au maintien d'un équilibre entre la liberté d'expression et la sécurité se sont accentuées, nous nous sommes rendu compte que Facebook ne devrait pas avoir à prendre un si grand nombre de ces décisions difficiles. C'est pourquoi nous allons créer un conseil de surveillance externe qui nous aidera à gérer le discours sur Facebook avant la fin de l'année en cours. Ce conseil de surveillance sera indépendant de Facebook et constituera le dernier niveau d'appel pour déterminer ce qui reste affiché et ce qui est éliminé sur la plateforme. À l'heure actuelle, nous pensons que les décisions de ce conseil de surveillance seront exécutoires sur Facebook.
Même avec le conseil de surveillance, nous savons que les gens utilisent de nombreux services et plateformes en ligne pour communiquer, et il vaudrait mieux pour nous tous que des normes de base claires soient établies pour toutes les plateformes. C'est pourquoi nous aimons travailler avec les gouvernements afin d'établir des règles concernant ce qui constitue un discours admissible en ligne. Nous avons travaillé avec le président français, Emmanuel Macron, sur ce type de projet précis, et nous serions heureux de pouvoir collaborer avec d'autres pays à l'avenir.
Je vous remercie de m'avoir donné la chance de m'adresser à vous aujourd'hui, et je me ferai un plaisir de répondre à vos questions.
Merci beaucoup pour votre exposé.
Nous allons maintenant passer aux questions.
Allez-y, madame Raitt.
Merci beaucoup.
Monsieur Chan, je m'intéresse à la dernière partie de votre exposé, parce que je n'avais jamais entendu que vous songiez à créer un conseil externe. Pourriez-vous me dire qui nommera les membres de ce conseil?
C'est en fait assez nouveau; vous avez raison, madame. C'est quelque chose que nous avons annoncé en novembre dernier.
Nous menons actuellement des consultations partout dans le monde, y compris au Canada. Nous avons tenu une table ronde canadienne en mai dernier, à laquelle ont participé divers groupes ayant différents points de vue et provenant de secteurs variés pour discuter de ce genre de questions. L'une des questions encore en suspens est la nomination de ces personnes et la façon dont nous assurerons une représentation adéquate dans le monde entier, car il s'agirait d'un conseil mondial. Certaines des décisions qu'elles auront à prendre seront de nature très locale.
Nous n'avons pas encore de position finale précise à ce sujet, mais je peux vous dire que nous avons entendu des commentaires selon lesquels si, disons, Facebook nommait initialement ces personnes, certains diraient: « Nous ne sommes pas sûrs que cela vous donnera le degré d'indépendance que vous cherchez à obtenir ». Si l'on permettait la présentation de candidatures, par exemple, je pense que nous avons aussi entendu des commentaires selon lesquels la difficulté sera que nous finirons, d'une certaine façon, par ne pas représenter certains groupes qui estiment devoir l'être au sein du conseil.
Je veux parler de l'application de la loi. Corrigez-moi si je me trompe, mais quelle est la part de contrôle de M. Zuckerberg dans l'actionnariat?
Oui, de 57 %, non? Par conséquent, au bout du compte, en tant que PDG et actionnaire majoritaire, il est essentiellement l'unique propriétaire. Il contrôle tout. Il contrôle tout ce qui se passe au sein de l'entreprise. Il contrôle aussi le conseil.
Le Royaume-Uni fait quelque chose de très intéressant. Ils viennent de publier un livre blanc et ils envisagent d'introduire le concept du devoir de diligence. Il y a une certaine inquiétude au sujet de l'application de la loi, dont vous venez de nous parler, en ce qui concerne le processus visant à déterminer qui siégera au conseil. Cela semble prendre beaucoup de temps. Si nous essayons de trouver un moyen d'établir un processus de nomination, nous ne sommes pas près de nommer le conseil. Pourtant, le problème est urgent et actuel.
Je suis juste curieuse, monsieur Chan: comment a-t-il été décidé que votre PDG et votre actionnaire majoritaire ne viendraient pas rendre des comptes aux parlementaires, ainsi qu'aux membres du Congrès, sur une question aussi importante que celle-ci?
Je parle en général. On ne lui a pas demandé de se présenter devant notre comité parce que je crois que nous avons tiré des leçons de la première invitation dans le cadre du dossier des conflits d'intérêts. Il ne s'est pas présenté devant le Congrès américain en avril quand il était question...
Je vous en remercie. Je dis la même chose à mes enfants tous les jours, en plus de me le dire à moi-même.
Des voix: Oh, oh!
M. Kevin Chan: Le PDG s'est déjà présenté devant des organes législatifs, mais pas au Canada. Dans le cas présent, je crois qu'il y a des choses précises que le Comité souhaitait aborder en matière de discours haineux. Nous essayons habituellement de déléguer des experts qui ont les compétences nécessaires pour discuter de tels dossiers. Aujourd'hui, c'est moi. Dans d'autres circonstances, d'autres personnes ont comparu devant vous, selon l'expertise recherchée.
Alors, posons la question à l'expert. Qu'allez-vous répondre au livre blanc, surtout en ce qui concerne le devoir de diligence et la reddition de comptes? Cela m'intéresse beaucoup. Notre seul recours est de vous demander d'envoyer le décideur le plus adéquat à la table. C'est ce que nous avons demandé, mais en vain, alors je présume que nous devrons recourir à d'autres moyens. C'est la position adoptée par le Royaume-Uni. Quelle est votre réponse?
Comme vous le savez, nous allons fournir de la rétroaction pendant le processus de consultation. De façon plus générale, toutefois, si nous parlons de contenu haineux ou interdit sur la plateforme, je crois que l'importance de la propagation est une meilleure façon d'aborder la question. Il s'agit d'une connaissance globale de l'ampleur de cette présence sur la plateforme, et nous sommes très à l'aise avec cette mesure et estimons approprié d'être évalués en fonction de celle-ci.
Comme je l'ai dit, il y a environ un an, nous repérions proactivement environ 24 % de ce contenu. Nous essayons de faire mieux. Nous dépassons actuellement les 60 %. Nous savons qu'il y a encore du travail à faire, mais nous estimons que l'importance de la propagation est un outil d'évaluation important.
Je crois qu'ailleurs dans le monde on a parlé d'échéanciers, de retirer du contenu dans un délai donné. Cette approche présente quelques difficultés de taille. Par exemple, il peut y avoir quelque chose d'accessible depuis un moment déjà, mais qui n'est consulté par presque personne, tandis qu'il y a du contenu qui est accessible depuis probablement très peu de temps ou fort longtemps et qui est consulté par beaucoup de gens.
Nous voulons aborder la question de l'accès par rapport à ce qui est déjà en ligne, des éléments précis de contenu qu'il faut retirer dans un délai précis. Ailleurs dans le monde, je crois que cela a eu comme conséquence imprévue la censure excessive de contenu.
Nous savons que certaines choses ne devraient pas être sur notre plateforme. Elles contreviennent à nos politiques et, dans certains cas, aux lois locales. Nous voulons agir rapidement dans ce cas, mais nous voulons être évalués d'après l'importance de la propagation et la capacité de nos systèmes à accomplir ce que nous disons que nous allons faire plutôt qu'en fonction d'échéanciers qui entraînent ces types de conséquences involontaires en matière de censure.
Merci, monsieur le président.
Merci, monsieur Chan, d'être avec nous aujourd'hui.
Je souhaite reprendre un point soulevé par Mme Raitt, à savoir l'absence de M. Zuckerberg devant ce comité ou un autre comité, malgré sa convocation.
En mars, il a déclaré avoir hâte de discuter des enjeux liés au contenu en ligne avec les législateurs du monde entier. Nous sommes réunis aujourd'hui, et nous l'avons invité à témoigner devant ce comité. Il a été cité à comparaître devant un autre comité.
On peut difficilement se méprendre sur l'importance que Facebook accorde à ce dossier quand son PDG affirme qu'il va rencontrer les législateurs du monde entier, mais qu'il se désiste quand il est invité par un comité parlementaire, c'est-à-dire celui-ci, et quand il est cité à comparaître par un autre comité. J'aimerais savoir pourquoi il n'est pas là aujourd'hui.
Comme je l'ai dit, monsieur, nous avons une équipe internationale responsable des politiques dont les membres interagissent non seulement avec les gouvernements et les législateurs, mais aussi avec la société civile et les universitaires de partout dans le monde. Dans tous les cas, nous essayons de déléguer les personnes les plus qualifiées.
Vous semblez faire référence à une lettre d'opinion publiée dans le Washington Post. Évidemment, je crois qu'il essaie de montrer que, en règle générale, l'entreprise souhaite discuter avec autant de personnes que possible. Vous comprendrez que cela sera, bien sûr, difficile pour lui d'aller partout où il devrait aller ou là où on voudrait qu'il soit, d'où la présence d'une équipe internationale responsable des politiques pour l'aider dans sa tâche.
Quand il a déclaré avoir hâte de discuter avec les législateurs du monde entier, il ne voulait donc pas dire lui directement, il voulait dire l'entreprise.
Manifestement, nous parlons ici d'une entreprise qui souhaite entamer un dialogue.
Je veux être très clair: je crois que sur la question précise du discours haineux, mais aussi sur bien d'autres, y compris l'intégrité du processus électoral — une question qui, selon moi, nous concerne tous —, nous sommes l'entreprise qui a fait le plus dans ce dossier parmi toutes les autres plateformes.
Je comprends cela, mais on peut difficilement se méprendre sur l'importance que Facebook accorde à ce dossier quand M. Zuckerberg affirme avoir hâte de discuter avec les législateurs du monde entier, puis refuse de se présenter devant eux quand ils se prévalent de son offre.
Je veux passer à un autre point, et c'est la tenue imminente des élections fédérales. Vous en avez parlé dans votre exposé. Que fait Facebook pour surveiller et endiguer l'ingérence étrangère, en général, dans le contexte d'élections démocratiques mais, plus particulièrement, en ce qui a trait aux élections fédérales à venir au Canada?
Nous en aurons davantage à dire là-dessus sous peu, car nous allons lancer nos outils favorisant la transparence de la publicité politique, dont l'un vise à prévenir autant que possible l'ingérence étrangère au cours des prochaines élections. Je peux vous dire que, en règle générale, nous nous intéressons à ce que nous appelons le comportement coordonné non authentique.
Nous ne voulons pas nous attarder au contenu, parce que le contenu en soi ne contrevient que rarement aux règles. Il s'agira d'un message tout ce qu'il y a d'ordinaire qui aurait été tout à fait acceptable s'il avait été affiché dans un autre contexte. Nous devons aller au-delà du contenu et nous attarder au comportement.
Pour ce faire, nous avons des partenaires. Nous collaborons avec les forces de l'ordre du monde entier. Nous travaillons avec les services du renseignement partout dans le monde. Nous nous fions aux rapports des partis politiques et des organismes électoraux, y compris le commissaire aux élections fédérales, qui soulèvent des cas difficiles ou louches. Cela nous permet de mener une enquête de notre côté pour établir qui est à l'origine de ces messages. Dans beaucoup de cas, nous effectuons une analyse des ramifications pour comprendre ce qu'il y a derrière ce message.
Si nous constatons que l'origine du message est, en fait, un compte factice, nous essayons d'établir combien de comptes du genre sont coordonnés pour afficher des messages et échanger des messages en même temps. Cela nous permet de tracer toutes les ramifications du réseau jusqu'à la source et ainsi de procéder à des retraits en masse.
Nous avons effectué divers retraits du genre liés à un comportement coordonné non authentique ces deux dernières années. Nous déclarons toujours publiquement ces mesures et nous travaillons toujours de pair avec les forces de l'ordre locales.
Cela dit, dans tous ces cas, ce qu'il est intéressant de noter, c'est que nous n'avons trouvé aucun lien avec le Canada. Par le passé, nous avons trouvé des messages qui provenaient des États-Unis et du Royaume-Uni. Nous avons découvert des réseaux en Europe et au Moyen-Orient. Dans tous ces cas, nous n'avons tout simplement rien trouvé qui est associé au Canada. Cela ne veut certes pas dire qu'il n'y a rien ici, et nous continuons donc d'étudier la question.
Voilà le genre de choses que nous faisons.
Merci.
Est-ce que Facebook croit qu'il y a vraiment des pays derrière une partie de l'ingérence électorale en ligne?
Oui, je crois que nous avons été très ouverts sur nos efforts pour contrer les comportements coordonnés non authentiques. Il est arrivé que nous remontions la filière jusqu'à l'Internet Research Agency, en Russie. Certains cas prennent leur source en Iran. D'autres sont des opérations nationales dans les pays où nous effectuons les retraits.
Je veux revenir brièvement sur les six personnalités et organisations canadiennes — je crois que c'est ce que vous avez dit — qui ont été retirées de votre plateforme à la suite d'une enquête. Parmi elles figurait Faith Goldy. J'aimerais savoir de quelle façon on a établi qu'elle devait être retirée de votre plateforme.
Je peux vous donner un peu plus de détails. Nous ne voulons pas dévoiler tous nos outils, mais dans ce cas précis, je peux vous décrire le processus de façon générale. C'est ce que nous appelons un processus de développement des politiques. Nous avons une équipe. Je fais partie de l'équipe responsable des politiques publiques. Un sous-groupe de cette équipe réfléchit aux organisations et personnalités dangereuses. Il fait une analyse en profondeur, travaille avec des experts du monde entier, pour les identifier.
Dans le cas dont vous parlez, elle a employé le slogan suprémaciste blanc de 14 mots, ce qui, en plus d'autres signes, était matière à son retrait de la plateforme.
Merci beaucoup, monsieur le président.
Merci, monsieur Chan, d'être parmi nous aujourd'hui.
Je veux aussi vous remercier de ne pas banaliser l'incidence du discours haineux sur le quotidien des gens, comme l'ont déjà fait certains témoins, et de ne pas non plus associer les préoccupations liées aux limites imposées à la liberté d'expression à une certaine hypersensibilité.
J'ai parlé à des membres de ma collectivité qui m'ont dit avoir peur de se rendre à leur synagogue ou à leur mosquée en raison des violences qui ont cours dans le monde et parce qu'on en fait la promotion localement.
Je veux vous poser une question sur le repérage du discours haineux. Je me fonde sur quelque chose qui s'est produit dans ma collectivité dernièrement. Une activité était organisée sur Facebook et on en faisait aussi la promotion dans d'autres médias. Je ne mets pas Facebook sur la sellette, ici. Cela dit, le discours portait sur — je vais omettre le nom du groupe au début — X, qui s'en prennent aux femmes et aux enfants.
Les gens avaient du mal à déterminer qu'il s'agissait d'un discours haineux en raison de la désignation que j'ai omise ici. Si on avait dit: « Les homosexuels s'en prennent aux femmes et aux enfants », on aurait tout de suite relevé ce cas. Si on avait utilisé les noms « Noirs », « Juifs », « Asiatiques » ou tout autre nom du même genre ici... mais comme on a plutôt opté pour le nom « transgenre », le maire de la municipalité a dit que les organisateurs pouvaient utiliser les installations publiques parce que ce n'était pas du discours haineux. Votre organisation n'a pas relevé cet exemple comme une forme de discours haineux. Il lui a fallu un mois pour réagir.
J'accorde à Facebook le mérite qui lui revient: la personne qui a organisé cette activité n'est plus autorisée à se servir de cette plateforme pour en organiser d'autres.
Facebook n'a pas le droit de diffuser ses messages.
Cela dit, durant le mois en question, cette personne a utilisé Facebook et toutes ses fonctionnalités pour promouvoir son discours haineux dans la collectivité.
Quand vous parlez de la portée du contenu, dans ma collectivité, même s'il n'était pas question de centaines de milliers ou des millions de personnes — et je suis conscient que Facebook est une organisation mondiale —, ces messages ont eu une véritable incidence durant un mois avant d'être retirés.
Comment conciliez-vous ce problème d'ampleur locale et, je présume, la fréquence de consultation du contenu que vous surveillez?
Je ne suis pas au fait de ce dossier, mais je vous dirais qu'il est évident que cela me chagrine. Je suis heureux d'apprendre que nous semblons avoir fini par faire ce qu'il fallait dans les circonstances.
C'est pour cette raison que je crois que nous devrions faire mieux. Et c'est difficile. Comme je l'ai dit, il faudra toujours qu'il y ait un repérage réalisé par automatisation intelligente et par des personnes. Avec l'automatisation intelligente, le contexte est important. De ce que j'ai compris, vous n'aviez pas ce genre de choses. C'est pour cette raison que nous ne pourrons jamais dire que ce sont uniquement les logiciels qui doivent trancher. Il faut des personnes pour le faire parce que le contexte est très important et qu'il constitue l'essence même de la liberté d'expression.
Je ne crois pas que nous atteindrons un jour les 100 %. Ce que nous visons, c'est de faire beaucoup mieux. Je crois que nous avons fait bien du chemin en seulement un an, mais il y reste évidemment encore beaucoup à faire.
... ici... Il y a eu des plaintes adressées à Facebook à cet effet.
Parmi ces 30 000... C'est le nombre d'employés que comprend votre équipe chargée de répondre aux plaintes de partout dans le monde.
Est-ce qu'il y a des gens issus des diverses communautés qui sont souvent l'objet de discours haineux?
Oui. Nous nous efforçons d'avoir une équipe représentative.
Nous sommes même allés plus loin. Dans le cas du Myanmar, par exemple, nous employons maintenant environ 100 personnes qui parlent et comprennent la langue locale.
Bien entendu, je me soucie particulièrement de la communauté LGBTQ. Je me demande si vous employez des personnes qui font partie de la communauté ou qui sont experts dans le domaine de la haine qui vise souvent la communauté et, en particulier, les transgenres.
Oui, absolument. En fait, l'équipe des politiques publiques répond à un grand nombre de questions posées à l'échelle mondiale au sujet de notre dialogue avec la communauté LGBTQ, y compris au Canada. Je dirais que nous sommes très attentifs aux difficultés que les membres de cette communauté affrontent tant en ligne que hors ligne.
Je souhaite revenir sur un sujet qui a été abordé à la fois par Mme Raitt et M. Fraser, et cela a trait à ce que j'appellerais l'attitude un peu cavalière de Facebook par rapport aux tentatives du gouvernement de cerner ce problème. L'un des exemples de cette attitude est, bien entendu, le fait que votre PDG — et j'aimerais souligner que votre entreprise n'a en quelque sorte qu'un seul propriétaire — a omis de comparaître devant des comités, mais je ne vais pas revenir sur cet exemple.
Si j'ai bien compris, votre titre est celui de directeur des politiques publiques, à Facebook Canada.
Est-ce exact?
Il y a donc une seule personne dans votre organisation qui est responsable des relations avec le Canada et le gouvernement canadien à ces égards, et c'est vous.
Oui, je pense que c'est plus ou moins exact.
Toutefois, monsieur, je dirais qu'en réalité, nous ne faisons pas beaucoup de lobbying. Nous nouons plutôt un dialogue avec le tissu social élargi qui se préoccupe de ces enjeux. Examinons les discours haineux, par exemple. Ils ne font pas l'objet d'un grand nombre de restrictions réglementaires. En fait, la raison pour laquelle nous sommes réunis aujourd'hui, c'est pour décider si de telles restrictions réglementaires devraient exister.
Dans le cadre de nos activités, nous passons du temps avec des groupes — des groupes religieux, la communauté LGBTQ, des communautés autochtones et des groupes liés à la sécurité des femmes —, précisément dans le but de peaufiner nos politiques. C'est là le mandat de l'équipe des politiques publiques.
Les questions que vous soulevez à propos de la façon de garantir que la plate-forme est dotée du contexte culturel approprié — le contexte culturel canadien ou le contexte culturel autochtone — font partie de mon mandat, monsieur.
Merci beaucoup.
Je pense que nous avons le temps de poser deux ou trois questions supplémentaires.
Madame Khalid, la parole est à vous.
Merci, monsieur, le président.
Je vous remercie, monsieur Chan, d'être venu nous rencontrer aujourd'hui.
Monsieur Chan, j'aimerais commencer par revenir sur quelque chose que vous avez dit au cours de votre déclaration préliminaire à propos de la protection des femmes qui se porteront candidates aux prochaines élections fédérales. Mettez-vous en oeuvre les mêmes politiques pour protéger les membres de la communauté LGBTQ2 qui se présenteront? Ils ne sont pas nombreux.
C'est une excellente question, madame.
Nous mettons en oeuvre les mêmes politiques, en ce sens qu'elles s'appliquent à tous les « groupes protégés », si nous pouvons nous permettre de les appeler ainsi. Il s'agit du sexe, de la race et de l'orientation sexuelle. Nous appliquons les mêmes politiques à ces groupes protégés ou à ces caractéristiques protégées.
Cependant, dans le cas particulier de la sécurité des femmes, je faisais allusion au partenariat que nous avons établi avec l'organisation À voix égales, afin de nous assurer que nous disposons du plus grand nombre d'outils possible pour les fournir au plus grand nombre de candidates possible et les appuyer ainsi.
Nous avons commencé ce travail le mois dernier, et il se poursuivra la semaine prochaine, dans le cadre d'une tournée nationale. Nous dialoguerons avec le plus grand nombre possible de candidats et de militants politiques des quatre coins du pays. Nous étions à Ottawa, Toronto, Halifax, Oshawa et Montréal précédemment, et nous irons en Colombie-Britannique et en Alberta la semaine prochaine. Dans tous ces cas, nous organisons aussi des activités avec l'organisation À voix égales, au cours desquelles nous invitons le plus grand nombre possible de membres du réseau national de cette organisation pour discuter avec eux des outils et des produits que nous offrons pour assurer la sécurité des candidates pendant leur campagne.
Par votre intermédiaire, j'aimerais prier le PDG et l'équipe en entier de tenir compte des mesures supplémentaires qui s'imposent pour protéger les membres de la communauté LGBTQ2 et les membres de cette communauté qui se portent candidats.
Je vais maintenant me pencher un peu sur ce que nous avons entendu jusqu'à maintenant à propos des plates-formes comme la vôtre, en ce qui concerne le rôle que les gouvernements et Facebook jouent dans la façon dont vous exercez vos activités à l'échelle mondiale. Évidemment, chaque pays met en oeuvre différentes mesures législatives qui assurent une protection différente.
Pouvez-vous nous décrire les mesures législatives les plus strictes qui ont été adoptées à l'échelle mondiale, en Allemagne par exemple, et l'effet positif ou négatif qu'elles ont eu sur les discours haineux en ligne?
Bien sûr. C'est avec plaisir que je le ferai.
D'emblée, il est important de souligner que, lorsque ces lois existent, comme en Allemagne, bon nombre d'entre elles — et il n'y en a pas beaucoup — témoignent évidemment du contexte culturel et historique de certains pays. Nous devrions toujours garder cela en tête et ne pas nécessairement dire: « C'est le modèle qui existe et, par conséquent, les autres pays, comme le Canada, devraient simplement l'adopter en bloc ».
Cela dit, comme je l'ai mentionné plus tôt à Mme Raitt, la difficulté que nous avons rencontrée en Allemagne est liée au fait que les mesures que la plate-forme est tenue de prendre sont définies de façon très stricte. Vous me pardonnerez d'avoir oublié la durée exacte de la période, mais le contenu doit être supprimé dans un délai très bref, disons une journée après le signalement. Évidemment, cela ne donne pas aux gens beaucoup de temps pour s'assurer que ce type de contenu est, en fait, illégal ou interdit pour d'autres raisons, et cela ne donne pas beaucoup de temps pour prévenir les résultats faussement positifs.
Au cours de l'année qui a suivi la mise en oeuvre de la loi, des érudits ont examiné un peu son effet et, si vous jetez un coup d'œil à leurs conclusions, vous constaterez que la rotation des contenus sur les plates-formes est excessivement rapide. Je pense qu'en général, nous craignons d'être tenus responsables si un contenu est signalé et que nous ne prenons pas immédiatement des mesures pour le supprimer. Le sentiment général est que les plates-formes devraient peut-être retirer ce contenu plus rapidement.
Je ne sais pas si on désirait que les politiques publiques aient cet effet. Au Canada, nous envisageons habituellement ces plates-formes comme des efforts pour offrir aux gens autant d'occasions que possible de s'exprimer librement, de ne pas être censuré, tout en indiquant clairement que certains discours devraient être interdits. Pour en arriver là, nous avons toujours cru qu'il valait mieux avoir une mesure de la prévalence de ces contenus, une mesure de la quantité présente, et de tenir les entreprises responsables de la réduction de cette quantité, ainsi que de veiller à ce que leurs processus soient en place, au lieu de se concentrer sur des contenus particuliers qui doivent être supprimés avant que tel ou tel laps de temps se soit écoulé, parce que si l'on se concentre sur des contenus donnés, on ne s'attaque pas la difficulté fondamentale que représente la détermination de la nature de la liberté d'expression.
Au cours de votre déclaration préliminaire d'aujourd'hui, vous avez mentionné à plusieurs reprises l'importance de comprendre le contexte culturel lorsqu'il est nécessaire de définir ou distinguer des discours haineux. Avez-vous des équipes dans tous les pays du monde où vous exercez vos activités?
Il y a certains pays où nous n'avons pas nécessairement de personnel, mais, oui, nous employons des gens dans la plupart des pays.
Comment travaillez-vous avec les gouvernements ou les organismes d'application de la loi dans les régions où vous exercez vos activités?
Pourquoi votre équipe canadienne est-elle restreinte?
En fait, elle n'est pas tellement restreinte si vous la comparez aux équipes des autres pays.
Permettez-moi de commencer par dire que nous disposons d'un groupe responsable de l'application de la loi qui assure la liaison avec les organismes d'application de la loi du monde entier. Nous avons établi des relations dans le cadre desquelles, si, au cours de leur travail, les forces de l'ordre découvrent des faits qui pourraient avoir des conséquences pour notre plate-forme, elles nous communiquent les renseignements qu'elles peuvent légalement nous transmettre. Nous faisons de même.
Si, au cours de nos propres enquêtes, nous découvrons que certaines personnes sont en danger ou qu'il y a des personnes mal intentionnées au Canada, nous prenons les mesures qui s'imposent en communiquant ces faits aux organismes d'application de la loi, et nous nous en remettons évidemment à eux en ce qui concerne la façon dont ils souhaitent intervenir.
En ce qui a trait à l'équipe, il s'agit d'une équipe mondiale. Comme nous en avons parlé plus tôt, nous faisons effectivement appel aux ressources nécessaires pour avoir une incidence sur les divers enjeux. La principale responsabilité que l'équipe des politiques publiques assume au Canada consiste à fournir un contexte culturel, de manière à ce que, lorsque nous prenons des mesures... Plus tôt, je parlais justement à M. Boissonnault d'un produit que nous avons déployé, c'est-à-dire Facebook Dating, de la question des Autochtones et de la façon de leur permettre de se rencontrer de façon sécuritaire sur l'application Facebook Dating. Nous avons travaillé d'arrache-pied pour comprendre les fonctions qui leur seraient utiles. L'une d'elles était la possibilité d'indiquer le fait que la personne est, disons, bispirituelle. Cela donne aux personnes bispirituelles une option à sélectionner.
Voilà les dossiers dont s'occupe l'équipe des politiques publiques. C'est le genre de travail que nous accomplissons.
Nous n'avons pas le temps de mener une autre série de questions complète, mais nous avons le temps de poser quelques brèves questions. Je pense que nous pourrions probablement accorder quatre interventions de trois minutes.
Madame Raitt, la parole est à vous.
Merci.
Monsieur Chan, il y a quelque chose qui m'intrigue. À la fin de vos observations, vous avez dit: « Nous voulons établir des règles pour déterminer les « propos permis en ligne » ».
Comment allez-vous définir les propos permis?
Madame, je conviens que c'est là la difficulté. C'est une question à laquelle il est vraiment difficile de répondre. C'est, selon moi, la raison pour laquelle nous ne croyons pas qu'il soit approprié que nous prenions cette décision. Dans la mesure où les gouvernements ou les assemblées législatives souhaitent établir un cadre pour les discours en ligne, nous estimons évidemment qu'il vaut mieux confier ce travail aux parlements.
Je vous remercie beaucoup de votre présence, monsieur Chan. Je vous remercie également de nous avoir parlé plus tôt et d'avoir joint le secrétariat LGBTQ2 au sein du Bureau du Conseil privé.
Je m'interroge à propos de la question générale de la haine en ligne.
Pouvons-nous demander à Facebook de rendre le bouton pour signaler des publications inappropriées plus facile à trouver?
Il faut cliquer une dizaine de fois pour le trouver. Ce bouton devrait être visible en tout temps. Ce n'est pas une question de codage fixe. Je pense que, si le bouton était trouvable, les gens l'utiliseraient plus fréquemment. Je pense également que votre équipe canadienne s'élargirait, parce qu'il y aurait plus de gens qui signaleraient des publications qu'ils ne souhaitent pas voir.
Je crois qu'il s'agit là d'un problème facile à régler. Nous ne tenons pas à vous humilier en public. Écoutez, nous sommes coincés ensemble. Vous êtes là, et nous sommes ici. Nous allons réglementer ce secteur. Vous allez vous développer, et M. Zuckerberg va s'enrichir. Vous allez déployer davantage d'efforts, et nous allons apprendre l'un de l'autre.
Je pense que votre plate-forme s'améliore chaque fois que des élections ont lieu quelque part dans le monde. Je crois qu'en fait, nous pouvons suivre l'évolution que Facebook a connue au cours des différents cycles politiques qui sont survenus à l'échelle mondiale. C'est certainement le cas de Twitter, et nous en avons été témoins sur Facebook. Nous gouvernons cet écosystème, et les citoyens s'attendent à ce que nous accomplissions tous les deux de grandes choses. Je pense qu'il serait bon que vous placiez la fonction de signalement plus en surface, là où les gens peuvent l'utiliser.
Y a-t-il une équipe qui s'emploie à régler ce problème?
Oui.
Vous avez raison de dire que cela fait l'objet d'un débat. Nous avons reçu des commentaires à propos de la question de savoir si la fonction de signalement devrait être plus accessible.
Je vais vous présenter quelques nuances. Nous avons fait quelques expériences à cet égard pour tenter de comprendre en quoi consiste un flux de signalement approprié. Toutefois, nous avons découvert que, dans certains cas, lorsque nous rendons cette fonction plus accessible en la plaçant plus en surface, ce flux de signalement fait fréquemment l'objet d'une utilisation abusive. En fait, nous observons d'étranges comportements lorsque l'accès à cette fonction est plus facile, en ce sens que des gens l'utilisent pour contrarier des personnes qu'ils connaissent. C'est une étrange façon d'intimider les gens. Ils se disent qu'ils vont signaler constamment ces publications comme des discours haineux. En conséquence, les systèmes reçoivent sans cesse des signalements à ce sujet.
De faux signalements peuvent être faits par espièglerie, mais aussi par malveillance. Toutefois, je comprends que c'est un problème, et nous en avons entendu parler. Nous avons récemment mené des consultations auprès des peuples autochtones, et cette question a été soulevée. Nous avons eu un débat à ce sujet, car il y avait des personnes dans les deux camps. Une personne souhaitait qu'il soit plus facile de signaler les publications inappropriées, alors que d'autres personnes disaient: « Oui, mais il y a tous ces gens qui signalent mes publications. Pourquoi font-ils ça? Aucune de mes publications n'est... ».
Avant que mon temps de parole soit écoulé, j'aimerais suggérer que, de la même façon que vous avez abordé l'organisation À voix égales pour assurer la sécurité des candidates... Je pense qu'Helen Kennedy est probablement en train de me donner des coups de pieds sous la table parce qu'elle n'est pas là pour suggérer un partenariat avec le groupe EGALE ou un groupe non partisan d'organisations LGBT...
... qui pourraient vous fournir des conseils sur la façon d'assurer la sécurité des candidats LGBT. Voici pourquoi c'est important.
Il y a 338 députés au Parlement du Canada. Cinq d'entre eux ont affiché ouvertement leur homosexualité. Si vous examinez le Parlement du Royaume-Uni, qui compte plus de 640 parlementaires, il y a plus de 45 députés ouvertement homosexuels, et on en trouve aussi deux dizaines à la Chambre des lords. Nous n'avons pas un seul sénateur ouvertement homosexuel. Il y a donc beaucoup de travail à faire au Canada, et nous sommes encore loin de l'objectif. Nous avons besoin d'une plateforme pour faire savoir aux éventuels candidats qu'ils seront en sécurité.
D'ailleurs, lors d'une de nos réunions, cette semaine, un de mes collègues a consulté mes messages sur Twitter et Facebook, puis m'a dit: « Oh, mon Dieu, vous recevez beaucoup de messages haineux. » Être soi-même dans ce métier exige un trop-plein de... Disons que j'ai la couenne plus dure après ces trois ans. Je peux vous dire que j'ai vécu les plus beaux jours de ma vie lorsque j'ai embauché quelqu'un à temps plein pour s'occuper des communications, ce qui m'a permis de délaisser Facebook et Twitter pendant un an. Je ne plaisante pas.
Comme je l'ai mentionné dans un mémoire présenté au Comité, ma santé mentale s'est améliorée lorsque je me suis retiré des réseaux sociaux pendant un an. C'est triste de ne pas pouvoir utiliser une plateforme dont je me suis servi pour être élu parce que... Je peux vous dire qu'une employée de mon bureau a été décontenancée lorsqu'elle a fait parvenir au Comité neuf pages de propos haineux publiés sur Facebook et Twitter, et ce n'était là qu'un échantillon des milliers de messages de ce genre que je reçois chaque mois. Nous avons du travail à faire.
Merci beaucoup.
Je vais revenir très brièvement sur ce que M. Boissonnault a dit. Je participe depuis bien des années aux efforts de recrutement de candidats LGBT pour les encourager à se présenter aux élections. Un des obstacles que ces gens mentionnent le plus souvent — et c'est peut-être l'obstacle principal —, c'est la haine en ligne à laquelle ils savent qu'ils devront faire face. C'est bien réel. Je crois que la suggestion de M. Boissonnault est très intéressante.
J'aimerais revenir sur deux points que vous avez soulevés dans votre témoignage. Tout d'abord, lorsque vous parlez d'une prise de position sur le discours admissible, cela m'inquiète. Ce que je recherche, ce sont des motifs justifiant l'interdiction de certains types de discours. À mon avis, lorsqu'on franchit cette limite et qu'on se met à parler de discours admissible, on se retrouve aux prises avec des préoccupations en matière de liberté d'expression. Il faut plutôt chercher à déterminer quels types de discours devraient être interdits à cause de leurs répercussions négatives réelles au sein de la communauté.
Je suppose que je tiens à prévenir tout le monde, moi y compris, qu'il faut éviter de franchir cette limite: au lieu de dire ce qui est permis, il faut plutôt préciser ce qui est interdit en raison des répercussions concrètes sur la vie des gens.
L'autre point, et c'est l'objet de ma question, concerne vos observations sur la rotation excessive et les faux positifs. Au fond, ma question est la suivante: est-ce là un vrai problème? S'il s'agit d'un discours haineux ou d'une incitation à la violence, il faut que ce soit retiré de toute urgence. Si ce n'est pas le cas, il sera possible de réafficher le message à tout moment. Il n'y a aucune urgence ou nécessité de réagir dans un délai de 24 heures, ou peu importe le délai que vous vous êtes fixé comme norme. En cas d'erreur, vous pouvez remettre le message en ligne. Si quelqu'un se plaint d'avoir été banni à tort, vous pouvez remédier à la situation.
Par contre, il est urgent d'agir dans le cas des messages qui incitent la haine et la violence. C'est pourquoi je trouve inquiétant de vous entendre dire que vous prenez soin d'éviter les faux positifs, parce que vous pouvez toujours les corriger, mais une fois que les messages d'incitation à la haine ou à la violence sont publiés, il est très difficile de les repérer et de les supprimer, comme vous le savez. Vous ne pouvez pas vraiment vous en débarrasser une fois qu'ils sont en ligne.
J'aimerais simplement savoir ce que vous en pensez, parce que j'aurais tendance à privilégier le retrait urgent de tels messages, sachant que vous pouvez rectifier le tir dans les autres cas.
Je sais. Je vous comprends.
Je crois que cela va au coeur de ce dont nous parlons, c'est-à-dire un Internet libre et ouvert. Selon la position défendue par le passé, les gens devraient pouvoir s'exprimer, sans être obligés d'obtenir au préalable la permission d'une autorité ou d'un éditeur. Je crois que c'est ce dont il est question aujourd'hui.
Par ailleurs, bien entendu, je pense qu'il est juste de dire que, d'après ce qui ressort des discussions des gens à ce sujet, la question est de savoir s'il devrait y avoir une norme différente pour le discours en ligne, par rapport à celui hors ligne. À mon avis, bon nombre des exemples en ligne dont nous parlons en ce moment seraient en fait admissibles dans le monde hors ligne, et c'est pourquoi il s'agit en somme de déterminer comment nous distinguons la liberté d'expression en ligne de celle hors ligne.
Monsieur le président, je sais qu'il ne nous reste presque plus de temps, mais j'aimerais ajouter que nos politiques en matière de contenu reposent sur les documents des Nations unies — notamment ceux sur les droits civils et politiques, ainsi que les droits de la personne. Selon ces documents, les gens devraient être en mesure de communiquer et de s'associer avec qui ils veulent, peu importe le média utilisé. C'est notre étoile du Nord. Nous considérons cela comme un élément très important qui guide nos normes de comité.
Au fond, voici ce que nous demandons: dans la mesure où les parlements et les gouvernements du monde souhaitent avoir une norme différente pour le discours en ligne, alors ils devraient adopter de telles lois, et nous saurons ainsi très clairement quelles normes de base appliquer.
Je n'ai que quelques observations à faire, monsieur Chan. Merci de votre présence.
Comme vous pouvez le constater, il y a unanimité — ce qui arrive rarement entre nous trois — à propos de l'irresponsabilité de Facebook, mais pour en revenir à la dernière observation, différents pays réglementent le discours différemment, n'est-ce pas? Voilà pour le premier point.
La Constitution protège la liberté d'expression au Canada, mais cela a des limites. Je crois que vous confondez la question de savoir comment transposer au monde numérique les limites imposées actuellement à la liberté d'expression, notamment en ce qui concerne l'incitation à la haine, la diffamation, les propos calomnieux, le droit d'auteur, etc. C'est le premier point.
Deuxième point: si vous allez protéger les candidats, vous devez alors protéger tous les candidats vulnérables. Parlons de l'islamophobie à laquelle Iqra Khalid a fait face. Parlons des peuples autochtones en Saskatchewan au lendemain de la mort de Colten Boushie et du procès de Gerald Stanley. Il faut tenir compte de tous ces éléments, car la diffusion de telles invectives en ligne rend difficile le recrutement de candidats musulmans, juifs, autochtones ou noirs pour les faire élire à la Chambre.
J'aimerais ajouter que, tout comme M. Boissonnault, j'ai une employée qui s'occupe de ces questions, mais maintenant, je m'inquiète de sa santé mentale, plutôt que de la mienne. Les problèmes de santé mentale touchent tout le monde, et pas seulement les parlementaires.
Je voudrais parler de ce que j'appellerais, en fait, une culture d'impunité chez Facebook. J'aimerais vous entendre à ce sujet, parce que je trouve cela un peu problématique. La seule solution que je peux entrevoir pour mettre fin à la culture d'impunité, c'est une réglementation musclée. Prenons l'exemple de l'Allemagne. D'après ce que je peux comprendre, l'Allemagne est dotée d'un mécanisme législatif solide pour réglementer la haine en ligne. Si vous prenez exactement la même invective haineuse néonazie provenant de n'importe quelle ville au Canada et que vous changez le lieu et la date en les remplaçant par des coordonnées à Munich, tout à coup, le message disparaît. Cela me porte à croire que, lorsque votre entreprise fait face à des sanctions sévères, vous mobilisez le personnel nécessaire pour faire en sorte que ces messages soient supprimés. Si ce n'est pas le cas, expliquez-moi quelle est la situation au juste.
Ce genre de contenu devrait être retiré de Facebook, peu importe l'endroit, puisqu'il s'agit d'une violation de nos normes de communauté mondiale.
Est-il vrai ou non que vous avez des milliers d'employés supplémentaires qui surveillent le contenu en ligne en Allemagne en raison de la loi, comparativement à ce que vous avez au Canada?
Combien d'employés supplémentaires en Allemagne s'occupent de la modération du contenu, par rapport au nombre d'employés qui le font au Canada?
Je vais essayer.
Si je peux me le permettre, monsieur le président, je tiens à être très clair. Nous sommes ici pour parler de la façon dont nous réglementons le discours en ligne. J'ai moi-même fait l'objet de critiques qui étaient, selon moi, injustifiées, surtout après avoir pris des mesures contre des personnalités et des organisations qui incitent à la haine. Je peux vous dire que mon équipe de sécurité mondiale veille à ma sécurité. Même ma présence ici était un enjeu. Je tiens donc à vous dire très clairement que je comprends ce dont vous parlez.
Je veux également préciser que les principes dont nous parlons — à savoir la liberté d'expression et l'équilibre entre la liberté d'expression et la censure — sont extrêmement importants, et nous ne pouvons pas les perdre de vue.
Merci beaucoup. Je crois que nous partageons tous le sentiment que la liberté d'expression est très importante et que nous devons trouver un équilibre par rapport à ce que nous appelons le « discours haineux ».
Si vous me le permettez, chers collègues, j'aimerais poser une brève question.
Selon la définition que j'ai trouvée dans le dictionnaire, le terme « létal » signifie « qui provoque la mort ». Je vous suis reconnaissant du document que vous avez créé pour encourager les candidates à se présenter aux élections et pour montrer que Facebook se soucie de leur sécurité. Lorsque je passe à la page 8, on y mentionne les types de contenu que Facebook ne permet pas. Ainsi, il est interdit de publier un contenu « au sujet de toute personne, y compris d'une personnalité publique, qui contient » ce qui suit:
Toute déclaration d'intention de commettre un acte de violence létale,
Tout appel à l'action pour commettre un acte de violence létale,
Toute déclaration qui prône une violence létale.
Ce que cela signifie, selon le dictionnaire, c'est qu'une telle violence provoque la mort. Vous pourriez dire, par exemple: « Je crois que quelqu'un devrait couper les deux jambes d'Anthony Housefather ». Ce ne serait pas considéré comme un acte de violence qui provoque la mort. Selon cette définition, un tel message serait, semble-t-il, permis. Je me demande pourquoi il en est ainsi. Encore une fois, je crois que c'est très important. Les gens devraient être en mesure de tenir des propos négatifs sur des personnalités publiques, mais lorsque vous encouragez les autres à blesser quelqu'un physiquement, pourquoi cela ne contrevient-il pas aux normes de Facebook?
Non, je crois que notre norme est... Là encore, je ne peux pas me prononcer sur la définition du mot « létal » ou son utilisation précise dans le document, mais nous parlons de « menaces crédibles » de violence.
Je vous remercie de votre commentaire, mais si vous consultez nos normes de communauté, vous verrez que nous parlons de « menaces crédibles » de violence.
Merci beaucoup, et je remercie aussi mes collègues.
C'était notre dernière séance publique sur la haine en ligne. Nous vous remercions d'être venu témoigner aujourd'hui, monsieur Chan. Nous vous en sommes très reconnaissants.
Je vais suspendre brièvement la séance, le temps de laisser les gens quitter la salle, après quoi nous siégerons à huis clos pour préparer notre rapport.
[La séance se poursuit à huis clos.]
Explorateur de la publication
Explorateur de la publication