Passer au contenu

JUST Réunion de comité

Les Avis de convocation contiennent des renseignements sur le sujet, la date, l’heure et l’endroit de la réunion, ainsi qu’une liste des témoins qui doivent comparaître devant le comité. Les Témoignages sont le compte rendu transcrit, révisé et corrigé de tout ce qui a été dit pendant la séance. Les Procès-verbaux sont le compte rendu officiel des séances.

Pour faire une recherche avancée, utilisez l’outil Rechercher dans les publications.

Si vous avez des questions ou commentaires concernant l'accessibilité à cette publication, veuillez communiquer avec nous à accessible@parl.gc.ca.

Publication du jour précédent Publication du jour prochain
Passer à la navigation dans le document Passer au contenu du document






Emblème de la Chambre des communes

Comité permanent de la justice et des droits de la personne


NUMÉRO 155 
l
1re SESSION 
l
42e LÉGISLATURE 

TÉMOIGNAGES

Le mardi 4 juin 2019

[Enregistrement électronique]

(1610)

[Français]

     Nous sommes désolés d'être en retard.

[Traduction]

     Mes sincères excuses plus spécialement à notre témoin. Il y avait vote à la Chambre, voyez-vous.
    Bonjour à tous et à toutes. Je vous souhaite la bienvenue au Comité permanent de la justice et des droits de la personne, qui reprend aujourd'hui son étude sur la haine en ligne.
    Je suis très heureux d'accueillir parmi nous Colin McKay, chef, Relations gouvernementales et politiques publiques, à Google Canada. Nous vous sommes très reconnaissants, tout comme à Google, de participer à notre étude et ainsi de nous permettre de mener de meilleurs travaux. Merci beaucoup.
    Monsieur McKay, la parole est à vous.
    Je remercie tous les membres du Comité pour leur invitation à témoigner aujourd'hui.
    Ne vous en faites pas pour le retard. Ce sont les affaires du Parlement, et je suis simplement heureux d'y participer aujourd'hui.
    Comme vient de le dire le président, je m'appelle Colin McKay et je suis responsable des relations gouvernementales et des politiques publiques de Google au Canada.
    Tout comme vous, nous sommes profondément bouleversés par la montée de la haine et de la violence dans le monde. Nous sommes alarmés par les actes de terrorisme et d'extrémisme violent comme ceux qui ont été commis en Nouvelle-Zélande et au Sri Lanka. Nous sommes perturbés par les tentatives d'incitation à la haine et à la violence contre des personnes et des groupes précis, ici même, au Canada, et ailleurs dans le monde. Nous jugeons qu'il s'agit là de questions graves et voulons contribuer à leur résolution.
    Google conçoit des produits pour des utilisateurs issus de tous les milieux qui vivent dans près de 200 pays et territoires sur le globe. Il est essentiel pour nous de gagner leur confiance et de la conserver, surtout en cas de crise. Dans bien des dossiers, comme ceux de la confidentialité, de la diffamation ou des discours haineux, les mesures législatives locales et les obligations légales peuvent varier d'un pays à l'autre. Différentes compétences en sont venues à différentes conclusions sur la façon de gérer ces dossiers épineux. Trouver un juste équilibre n'est jamais simple.
    Pour arrêter la propagation en ligne de contenu haineux et extrémiste violent, les entreprises du secteur de la technologie, les gouvernements et la société en général doivent travailler de concert. Le terrorisme et l'extrémisme violent sont des problèmes sociétaux complexes qui exigent une réaction qui transcende le spectre social. Nous devons partager nos connaissances et apprendre les uns des autres.
    Google n'a pas attendu l'intervention d'un gouvernement ni l'adoption de lois pour agir. Nous avons déjà pris des mesures concrètes pour réagir à l'utilisation de la technologie pour propager ce type de contenu. Je tiens à déclarer sans ambages que chaque produit Google qui héberge du contenu utilisateur interdit l'incitation à la violence et les discours haineux visant une personne ou un groupe et fondés sur des caractéristiques particulières comme la race, l'ethnicité, le genre et la religion.
    Quand il est question d'agir contre le contenu extrémiste violent en ligne, notre position est sans équivoque: nous sommes d'avis qu'il faille agir. Permettez-moi de vous parler un peu de la méthode que nous employons pour cerner et bloquer ce type de contenu.
    D'abord, nous appliquons vigoureusement nos politiques. Sur YouTube, nous utilisons une combinaison d'apprentissage automatique et de surveillance humaine pour agir quand du contenu terroriste ou extrémiste violent est téléchargé. Cette combinaison permet d'utiliser efficacement les connaissances et l'expérience de nos équipes d'experts tout en misant sur la portée et la rapidité que nous offre la technologie.
    Au cours du premier trimestre de 2019, par exemple, YouTube a vérifié manuellement plus d'un million de vidéos signalées par nos systèmes en raison de contenu soupçonné d'être de nature terroriste. Même si moins de 90 000 d'entre elles se sont avérées contraires à notre politique sur le terrorisme, nous avons diligemment vérifié chacune des vidéos pour plus de précaution.
    De plus, nous collaborons avec les gouvernements et les organismes non gouvernementaux dans le cadre de programmes qui font la promotion du contre-discours sur nos plateformes, ce qui permet, par la même occasion, d'attirer l'attention sur des voix crédibles qui s'expriment contre la haine, la violence et le terrorisme.
    Toute tentative de remédier à ces difficultés exige une coordination à l'échelle mondiale. Nous avons participé activement à la rédaction de l'Appel à l'action de Christchurch qui a été annoncé il y a peu de temps. Nous figurons aussi parmi les fondateurs du Forum mondial de lutte contre le terrorisme sur Internet. Cette coalition de géants du secteur de la technologie vise à repérer les empreintes numériques du contenu terroriste sur nos plateformes en plus de favoriser l'échange de renseignements et le financement de la recherche sur les façons les plus efficaces de contrer la propagation du terrorisme en ligne.
    J'ai traité de ce que nous faisons pour contrer le contenu à caractère extrémiste violent. Nous suivons une procédure semblable pour le contenu haineux sur YouTube. Nous imposons des lignes directrices strictes à notre communauté qui interdisent tout contenu faisant la promotion ou l'apologie de la violence contre une personne ou un groupe fondée sur la race, l'origine ethnique, la religion, le handicap, le genre, l'âge, la nationalité, le statut d'ancien combattant, l'orientation sexuelle ou l'identité de genre. Ces lignes directrices s'appliquent également au contenu dont le but premier est d'inciter à la haine en se fondant sur ces caractéristiques fondamentales. Nous sommes rigoureux dans leur application afin de garder tout contenu haineux hors de nos plateformes.
    Nous avons aussi interdit les vidéos et les commentaires de nature abusive qui sont essentiellement des attaques malveillantes contre un utilisateur, de même que le contenu violent ou explicite qui vise principalement à choquer ou qui est de nature sensationnaliste ou irrespectueuse.
    Nos mesures pour gérer le contenu violent et haineux, comme le précise l'Appel à l'action de Christchurch que je viens de mentionner, doivent être conformes aux principes d'un Internet ouvert, libre et sûr, sans compromettre les droits de la personne ni les libertés fondamentales, y compris la liberté d'expression. Nous voulons favoriser la croissance de collectivités dynamiques tout en cernant les menaces pour nos utilisateurs et la société en général afin d'y remédier.
    Nous estimons que nos lignes directrices sont conformes à ces principes, même si nous les modifions sans cesse. Récemment, nous avons étendu la portée de notre politique en matière de harcèlement, ce qui rend le contenu faisant la promotion des canulars beaucoup plus rare.
    Dans les faits, qu'est-ce que cela signifie?
    De janvier à mars 2019, nous avons retiré plus de 8,2 millions de vidéos qui violaient les lignes directrices de la communauté YouTube. Pour vous donner un peu de contexte, sachez que, chaque minute, plus de 500 heures de contenu vidéo sont téléchargées sur YouTube. Bien que 8,2 millions soit un nombre très élevé, il correspond à une fraction d'un très imposant corpus. Bon, de ces vidéos, 76 % ont d'abord été signalées par des machines plutôt que par des personnes. De toutes les vidéos repérées par un logiciel, 75 % n'avaient jamais été vues.
    Nous sommes aussi intervenus de façon robuste contre les commentaires haineux et abusifs, toujours à l'aide d'une technologie intelligente de détection et de surveillants qui signalent, évaluent et retirent tout discours haineux ou autre forme de commentaire abusif. Au cours du premier trimestre de 2019, l'apprentissage automatique a permis à lui seul de retirer 228 millions de commentaires qui allaient à l'encontre de nos lignes directrices, et plus de 99 % d'entre eux ont été détectés par nos systèmes.
    Nous sommes en outre conscients des zones grises: du contenu peut être offensant sans nécessairement être contraire aux politiques de YouTube contre l'incitation à la violence et le discours haineux. Quand cela se produit, nous avons pour politique de réduire radicalement la diffusion de cette vidéo en la rendant inadmissible aux revenus publicitaires, en retirant les commentaires connexes et en l'excluant de notre système de recommandations.
    Certains ont mis en cause le système de recommandations de YouTube dans la propagation de contenu de nature discutable. Il y a plusieurs mois, nous avons déployé une mise à jour de notre système pour entamer la réduction de la visibilité de contenu encore plus ambigu qui peut désinformer les utilisateurs de façon néfaste, et nous travaillons à son déploiement à l'échelle du globe.
    Il est primordial que les utilisateurs de nos plateformes et services comprennent tant la portée que l'incidence des mesures que nous prenons à cet égard.
    Notre transparence envers les utilisateurs a longtemps était inégalée dans l'industrie. YouTube a publié le premier rapport de l'industrie sur les lignes directrices de la communauté, et nous le mettons à jour tous les trimestres. Google publie depuis longtemps un rapport sur la transparence avec des détails sur le retrait de contenu dans l'ensemble de nos produits, y compris le contenu retiré à la demande des gouvernements ou des forces de l'ordre.
    Bien que nos utilisateurs apprécient nos services, ils s'attendent aussi à ce qu'ils fonctionnent bien et leur fournissent les renseignements les plus pertinents et utiles qui soient. Les discours haineux et l'extrémisme violent n'ont leur place ni dans Google ni sur YouTube. Nous croyons avoir conçu une approche responsable pour traiter les enjeux complexes et changeants qui sont au cœur des préoccupations de la société et le sujet des travaux en cours de votre comité.
    Merci de m'avoir accordé de votre temps. Je serai heureux de répondre à vos questions.
(1615)
    Merci beaucoup pour cette déclaration.
    Monsieur MacKenzie, commençons par vous.
    Monsieur le président, si je n'utilise pas tout le temps qui m'est alloué, M. Barrett prendra le relais.
    Bien sûr.
    Merci d'être des nôtres aujourd'hui, monsieur McKay.
    Vous êtes avantageusement placé pour essayer de contrôler tout ce qui se passe dans le monde par l'intermédiaire de votre média. Je me demande ce qu'est votre définition d'un « message haineux ».
    Si vous permettez que je consulte mes notes, j'en ai une définition très précise.
    Pour nous, le discours haineux fait référence à du contenu qui fait la promotion de la violence contre une personne ou un groupe ou qui a pour principal objet d'inciter à la haine contre ces personnes en fonction des attributs que j'ai mentionnés dans ma déclaration.
    Donc, d'après cette définition, si quelqu'un met quelque chose sur YouTube qui peut provenir d'un film ou d'une émission de télévision, il me semble que ces sujets peuvent parfois faire partie de ce qui est diffusé. Si de telles vidéos sont téléchargées, que se passe-t-il?
    Si de telles vidéos sont téléchargées et signalées à des fins d'évaluation, que ce soit par un utilisateur ou par l'un de nos systèmes, nous avons une équipe de 10 000 personnes qui procède à leur évaluation pour confirmer si elles vont bien à l'encontre de nos politiques.
    S'il est évident en contexte qu'il s'agit d'un extrait de film ou d'une œuvre de fiction, ou encore qu'il s'agit d'un exposé sur un sujet traité d'une façon particulière, nous devons évaluer avec précaution si nos utilisateurs vont juger qu'il s'agit là d'un exemple de contenu culturel ou informatif ou plutôt de quelque chose qui est explicitement conçu pour inciter à la haine et la promouvoir.
    Il y a quelques semaines, un groupe de jeunes a attaqué et battu une femme dans un parc. Je crois qu'il n'y en avait qu'un seul de 13 ans; je pense que les autres étaient jeunes. Il en a été question au bulletin de nouvelles. Est-ce que cela pourrait devenir une vidéo sur YouTube?
    Si nous abordons la question de façon générale plutôt qu'à partir de cet exemple précis, si une telle vidéo était téléchargée sur YouTube, elle irait à l'encontre de nos politiques et serait retirée. Si on tentait de la télécharger de nouveau, nous aurions déjà une empreinte numérique qui nous permettrait de la retirer automatiquement.
    Le contexte de la diffusion d'une telle vidéo dans un bulletin de nouvelles est fort épineux. Et cela ne s'applique pas strictement aux attaques personnelles, mais aussi aux attaques terroristes. D'une certaine façon, nous devons évaluer ce qu'un service de nouvelles a jugé être du contenu acceptable. Dans notre évaluation, nous devons veiller très attentivement à ce que le spectateur sache hors de tout doute qu'il s'agit d'un commentaire fait soit par un service de nouvelles soit par une autre organisation qui met ces renseignements en contexte.
    Selon la longueur et le type de la vidéo, elle peut tout de même être retirée.
    D'accord. Je comprends cela, car l'une des choses qui se sont produites, je crois, c'est sa diffusion en boucle aux nouvelles. Si vous dites que Google n'accepte pas cette vidéo sur YouTube, je crois que c'est tout à fait approprié. Je ne suis pas certain de quelle façon nous pouvons gérer cela dans les bulletins de nouvelles au quotidien, alors à certains égards, je crois que vous avez une longueur d'avance sur l'état des lieux dans les salles de nouvelles.
    Est-ce que c'est également le cas des autres médias? Nous parlons de vidéos ici. Est-ce que quelqu'un peut chercher dans Google — plutôt que sur YouTube — un discours haineux qui a été prononcé? Je ne sais pas si l'on doit parler de censure, mais avez-vous des moyens de retirer ce discours haineux ou de le repérer?
    J'ai été vraiment précis dans le cas de YouTube parce que c'est une plateforme où les gens téléchargent consciemment du contenu. Dans le cas des moteurs de recherche, nous employons des processus semblables, mais leur portée doit être plus générale. Nous fournissons seulement des réponses aux questions qui nous sont posées par les utilisateurs sur des circonstances ou des manifestations particulières. Si un service de nouvelles présente l'information de cette façon, elle sortira comme d'habitude dans nos moteurs de recherche.
    Dans le cas d'éléments en particulier, si des discours ou du contenu précis sont illégaux dans un pays, alors ces éléments seront retirés. Nous respectons la loi des pays où nous sommes présents.
(1620)
    Parfait. Merci.
    Je cède la parole à M. Barrett.
    Vous avez deux minutes, monsieur Barrett.
    Monsieur McKay, vos réponses à M. MacKenzie ont satisfait ma curiosité en ce qui a trait à ce sujet, mais j'ai tout de même une question. Si Google a déclaré cette année qu'il ne compte pas permettre les publicités politiques, est-ce qu'il a l'intention de les autoriser lors des prochaines élections ou est-ce que le plan en vigueur ne permettra jamais d'accommoder ces publicités?
    Nous avions une décision difficile à prendre. La loi a été adoptée en décembre, et nous devions avoir un système en place d'ici la fin juin. Nous avons effectué une évaluation interne pour établir si nous pouvions accepter des publicités politiques au Canada au cours de cette période, et ce n'était tout simplement pas possible.
    Pour ce qui est de la transparence par rapport aux publicités politiques, nous avons déjà des produits à cet effet aux États-Unis et les déployons actuellement ailleurs. Ces produits sont en constante évolution, changeant d'une élection à l'autre. Il vient d'y avoir des élections en Europe. Puis en Inde. Au Brésil également. Notre objectif est de continuer à perfectionner ces produits jusqu'à l'obtention de ce qui est décrit dans la Loi électorale du Canada, du moins nous l'espérons.
    Vous attendez-vous à produire un échéancier en ce qui concerne le moment où vous pensez que Google sera en mesure de respecter la loi actuelle?
    M. Colin McKay: Non.
    M. Michael Barrett: D'accord.
    Ma prochaine question concerne la sécurité publique. Les Canadiens des régions rurales ont déclaré qu'ils étaient préoccupés par le fait qu'un logiciel de cartographie qui dépend souvent de Google Maps ne repérait pas les rues des régions rurales. Cela peut causer des problèmes aux services d'urgence. Y a-t-il un mécanisme qui permettrait aux Canadiens des régions rurales d'indiquer à Google soit les rues manquantes, soit les données cartographiques manquantes, comme celles que j'ai mentionnées, ou planifiez-vous de mettre un tel mécanisme à la disposition des Canadiens de ces régions?
    Ils peuvent le faire en ce moment. Dans l'application Google Maps, vous pouvez utiliser le mécanisme d'envoi de commentaires pour désigner un élément particulier de la carte. Vous pouvez signaler le fait qu'une route est fermée indéfiniment et que la carte ne l'indique simplement pas, ou le fait que des projets de construction ont eu lieu depuis la dernière fois que nous avons établi la carte de cette région et qu'il y a maintenant un édifice municipal ou d'autres installations qui doivent être reconnus. C'est en fait la façon la plus rapide de procéder. Ces commentaires sont envoyés directement à l'équipe de cartographie qui les évalue ensuite à des fins d'inclusion.
    Je vous remercie beaucoup de vos réponses à mes questions.
    Merci beaucoup.
    Monsieur McKinnon, vous avez la parole.
    Je vous remercie de votre présence. J'aimerais vraiment entendre parler des travaux d'intelligence artificielle que vous menez pour repérer les contenus malveillants, entre autres choses. Je m'intéresse plus particulièrement à la détermination de la provenance de tels contenus. Je soutiens que l'anonymat constitue un énorme problème, en ce sens qu'il encourage de mauvais comportements en ligne. Je comprends que Google exerce ses activités au sein d'un univers très vaste et qu'elle possède de nombreux produits différents.
    Je m'intéresse surtout aux commentaires, et je me demande si Google a envisagé de ne pas nécessairement exiger que les utilisateurs soient authentifiés, soit par une autorité d'authentification comme Verisign, soit au moyen d'une approche plus maison comme la toile de confiance offerte par des applications comme PGP... et d'identifier les gens au moyen d'une icône d'un genre ou d'un autre afin de signaler si ces personnes sont authentifiées ou non. La prochaine étape consisterait à permettre à ces gens de filtrer le contenu afin d'éliminer les commentaires provenant de sources non authentifiées. Avez-vous des observations à formuler à ce sujet?
    Si vous pouvez faire preuve de patience envers moi, je vous donnerai une réponse comportant deux volets. Premièrement, je pense que si nous parlons précisément de YouTube ou d'une plateforme où il vous est possible de téléverser de l'information, il n'y a pas de processus de vérification ou d'authentification, mais, en tant que téléverseur, vous devez fournir certains points de référence sur vous. Cela peut se limiter à une adresse courriel et quelques données supplémentaires, mais cela crée une sorte de marqueur, en particulier pour les organismes d'application de la loi qui pourraient souhaiter analyser le comportement passé d'un téléverseur de vidéos.
    Toutefois, l'un des aspects sur lequel nous mettons l'accent, c'est le fait que nous sommes tout à fait conscients que bon nombre d'utilisateurs comptent sur leur anonymat ou leur pseudonymat pour pouvoir prendre position, en particulier s'ils utilisent nos plateformes pour défendre un certain point de vue au sein de milieux délicats sur le plan politique et social. Dans ces circonstances, un processus de vérification ou d'authentification nuirait en fait à ces utilisateurs.
    Ce que je vais dire, c'est que, pour répondre aux cas de haine en ligne ou de contenu extrémiste violent accessible au moyen de nos produits Google Search et Google News, ainsi que YouTube, nous avons consciemment fait l'effort, comme nous en avons la responsabilité, de nous concentrer sur l'authenticité et la compétence des sources qui rapportent et commentent Ia situation de crise dans les moments qui suivent les événements, en particulier lorsqu'il n'y a pas encore de contenus factuels fiables au sujet de la crise.
    Dans nos systèmes et, en particulier, sur YouTube, vous constaterez que, si vous examinez un incident particulier, les autres documents que la plateforme recommande proviennent de sources fiables que vous avez probablement consultées auparavant. Nous essayons de vous communiquer ces indications. En plus de mettre à votre disposition des renseignements qui concernent la recherche que vous avez effectuée, nous essayons d'indiquer clairement que nous cherchons à fournir un certain degré d'assurance, voire de certitude.
(1625)
    Je comprends l'argument que vous avancez à propos du caractère parfois souhaitable de l'anonymat et du fait qu'un grand nombre de personnes peuvent avoir besoin de communiquer de façon anonyme dans certaines circonstances.
    Ce que je recherche, en tant qu'utilisateur final, c'est, disons, la capacité d'exclure, par choix, de mon flux les contenus qui n'ont peut-être pas été authentifiés, n'est-ce pas?
    Pour préciser mon argument, je dirais qu'il est important de réaliser que YouTube est une plateforme conçue pour les créateurs de contenu. Donc, les personnes qui téléversent des vidéos sur YouTube sont des gens qui cherchent à trouver un public et à bâtir une communauté qui partage leurs intérêts. La grande majorité d'entre eux vous fournissent les renseignements nécessaires pour que vous puissiez vérifier leurs compétences, voire leur identité, avec un certain degré de certitude, que vous parliez de la réparation de petits moteurs, de la construction de maquettes de trains ou de commentaires politiques, et qu'il s'agisse d'agences de presse traditionnelles ou d'agences de presse entièrement en ligne.
    Dans le cas de la grande majorité des documents ou des contenus, vous évoluez dans un milieu où vous êtes en mesure de déterminer ce que vous regardez, puis de le caractériser. Une grande partie de ma déclaration préliminaire et de nos processus automatisés en ligne sont fondés sur cette réaction immédiate à une crise dans le cadre de laquelle des gens tentent d'inciter d'autres personnes à la haine et à un extrémisme violent, en ce sens que nous tentons de faire exactement ce que vous vous efforcez de décrire. C'est-à-dire que nous disons: « Attendez une seconde. Qui est cette personne marginale, ce téléverseur ou cet utilisateur de notre service qui cherche à avoir des effets néfastes, et pouvons-nous l'identifier et déterminer son statut, puis appliquer nos politiques pour lutter contre lui, que cela consiste à limiter la disponibilité de ses vidéos ou à les retirer du système? »
    Nous cherchons à atteindre cet objectif, et pas seulement dans le contexte de l'authentification.
    Il me reste quelques secondes.
    Vous pourriez peut-être nous parler des robots. Je crois comprendre qu'ils sont parfois bénéfiques et parfois malveillants, et que vous êtes en mesure de détecter leur oeuvre. Vous pourriez peut-être nous décrire les normes qui s'appliquent et les mesures qui pourraient être prises pour les contrôler.
    Je pense que, selon notre perspective, il vaudrait mieux que j'abandonne le sujet des robots pour aborder un point de vue plus général, à savoir que, dans l'ensemble de notre système, notre infrastructure et nos services subissent depuis longtemps des attaques automatisées. Avec le temps, nous nous sommes souciés de communiquer à nos utilisateurs des messages indiquant qu'ils faisaient l'objet d'une attaque automatisée visant à compromettre leur compte Google ou Gmail ou à leur présenter des renseignements erronés ou de la désinformation. Cela va jusqu'à fournir des avis aux utilisateurs dans lesquels nous les informons que leur compte Gmail pourrait faire l'objet d'une attaque parrainée par un État.
    Grâce au genre d'analyse approfondie que j'ai décrit et qui permet d'étudier de façon plus générale les vidéos offertes dans l'ensemble de notre infrastructure, nous nous efforçons de déterminer les moments où nous remarquons des tentatives systématiques de percer la sécurité de nos systèmes ou d'élever le profil ou la popularité d'un contenu, que ce soit dans le cadre de recherches ou sur YouTube, et nous nous efforçons de lutter contre ses tentatives. Notre contexte est très différent de celui des autres services, mais nous investissons depuis longtemps beaucoup de temps et d'argent dans la lutte contre ces tentatives et dans leur signalement à nos utilisateurs, afin qu'ils aient conscience qu'ils font l'objet de ces attaques ou qu'on tente de les influencer de cette façon.
     Merci.

[Français]

     Merci beaucoup.
    Madame Moore, vous avez la parole.
    J'invite mes collègues à prendre leur téléphone, s'ils le veulent.

[Traduction]

    Si vous utilisez Google pour rechercher la phrase « Comment faire fonction de proxénète », vous obtiendrez d'innombrables vidéos qui montrent aux gens comment participer à la traite des personnes. Pourquoi ces sites et ces vidéos n'ont-ils pas été retirés des résultats de la recherche?
    Je suis désolé. Quelle était la phrase?
(1630)
    Comment faire fonction de proxénète.
    Comment faire fonction de proxénète, d'accord.
    Le fait est que nous luttons constamment contre des enjeux et des contenus de ce genre. Nous nous efforçons constamment de déterminer le contexte dans lequel s'inscrivent les commentaires qui figurent dans une vidéo, puis de créer ce que nous appelons un « classifieur », c'est-à-dire un système automatisé qui sert à repérer ces contenus sur une grande échelle.
    Si vous voyez des contenus de ce genre, vous avez l'occasion de les signaler directement sur la page de la vidéo de YouTube, que ce soit à partir de votre appareil mobile ou de l'écran de votre ordinateur. Nous utilisons cela comme un signal qui nous permet de reconnaître qu'un comportement ou un contenu doit être supprimé. Évidemment, nous ne voulons pas de ces vidéos dans notre système.
    D'accord. Donc, lorsque vous supprimez ces vidéos et ces sites Web qui expliquent comment faire fonction de proxénète, des renseignements sont-ils transmis, par exemple, aux services de police ou aux autorités locales? Si quelqu'un possède un guide complet sur la façon de pratiquer la traite des personnes, je pense qu'il participe à des activités criminelles. Signalez-vous son existence aux policiers de ce pays, par exemple, en leur disant que ce type est peut-être impliqué dans des activités criminelles et qu'ils devraient le surveiller, ou vous contentez-vous de supprimer la vidéo parce que ces vidéos sont toujours trop nombreuses et que vous n'avez pas le temps d'assurer un suivi à cet égard?
    Je ne suis pas sûr de ce qui se passe dans ce cas-là. Je peux m'informer et vous communiquez l'information plus tard.

[Français]

    D'accord.
    Par ailleurs, les mots clés en anglais sont bien faits, car c'est la langue que la majorité des gens utilisent. Par contre, qu'en est-il des algorithmes dans les autres langues qui sont peut-être moins utilisées, par exemple le français? Est-il plus facile de propager la haine si on utilise une autre langue que l'anglais, parce que les algorithmes relativement aux mots clés ne sont pas aussi développés?

[Traduction]

    Je pense que nous avons réglé ce problème en général, parce que nous nous soucions depuis longtemps d'offrir nos services dans de nombreuses langues. Nous avons en fait élaboré des systèmes de traduction fondés sur l'intelligence artificielle afin d'être en mesure de traduire plus de 200 langues. Nos systèmes ne sont pas uniquement axés sur les termes anglais et les difficultés de la langue anglaise. Ils sont plus généraux. Ils sont internationaux, et les équipes d'examen que j'ai décrites sont également internationales.
    L'équipe qui examine le contenu est composée de 10 000 personnes réparties dans le monde entier, de manière à ce qu'elles aient les connaissances linguistiques, culturelles et sociétales requises pour comprendre le contexte dans lequel elles observent les commentaires et les documents, et pour prendre des décisions à propos de la question de savoir si un certain contenu ou un certain compte doit être supprimé.
    Nous reconnaissons le défi que cela représente, et nous utilisons toujours une combinaison de processus automatisés qui ont recours à quelques-uns des meilleurs logiciels de traduction de la planète et à quelques-uns des meilleurs spécialistes de chaque langue à des fins de filtrage.
    À quelle vitesse êtes-vous en mesure de supprimer une vidéo qui avait déjà été supprimée auparavant et qui a été modifiée, par exemple, en accélérant sa bande sonore? C'est ce qu'ils font. Ma fille me l'a souvent montré. Des gens produisent une version plus rapide d'une vidéo « Pat' Patrouille » afin d'être en mesure de la publier sans que le système la reconnaisse.
    En ce qui concerne les vidéos haineuses, êtes-vous en mesure de supprimer rapidement une vidéo déjà supprimée qui a été modifiée pour éviter ces contrôles?
    Oui, nous le sommes.
    Je reconnais l'exemple que vous avez décrit. Je l'ai observé moi aussi. C'est l'une des difficultés que présente ce travail, en particulier immédiatement après une situation de crise. Nous remarquons que les auteurs des contenus téléversés les ont ajustés légèrement pour tenter de tromper nos systèmes.
    En particulier dans le cas de contenus haineux ou violents affichés en ligne, nous resserrerons les normes qui nous permettent d'identifier ces vidéos afin de pouvoir les supprimer encore plus rapidement.
    Même dans le contexte de « Pat' Patrouille », je pense que, si votre fille visite de nouveau le même canal deux semaines plus tard, elle découvrira probablement qu'il ne présente plus le contenu lié à « Pat' Patrouille », parce qu'il a été reconnu et supprimé.

[Français]

    Il vous reste une minute.

[Traduction]

    D'accord.
    J'aimerais en savoir un peu plus à propos du processus d'examen des vidéos signalées, et j'aimerais que vous m'expliquiez qui examine ces vidéos lorsque ce travail n'est pas automatisé.
    De plus, est-ce que les travailleurs qui examinent ces vidéos peuvent se prévaloir de certains services, étant donné que le visionnement constant de contenus de ce genre cause de la détresse aux gens? Quels services offrez-vous à ces travailleurs afin de vous assurer que le visionnement constant de toutes ces vidéos ne les rend pas fous?
    Commençons par discuter du processus même. Comme je l'ai mentionné, en particulier dans le contexte des contenus haineux, nous faisons face à une telle quantité de contenus que nous comptons sur l'apprentissage machine et sur les classifieurs d'images pour reconnaître les contenus. Si le contenu a été reconnu auparavant et que nous possédons un hachage numérique de ce contenu, il est supprimé automatiquement. Si le contenu a besoin d'être examiné, il est envoyé à notre équipe d'examinateurs.
    Ces examinateurs ont reçu une formation intensive. Ils ont accès à un soutien local, et ils reçoivent également l'aide de nos équipes mondiales, afin de faire en sorte qu'ils soient en mesure de gérer le contenu qu'ils visionnent ainsi que d'obtenir les services d'appui dont ils ont besoin. Leur milieu de travail et leur environnement social sont organisés ainsi, de manière à ce qu'ils ne subissent pas le même genre de pressions que vous décrivez, pendant qu'ils examinent jour après jour des contenus qui peuvent être horribles. Nous avons parfaitement conscience que leur travail est très difficile, non seulement parce qu'ils tentent de trouver un juste équilibre entre les droits de la personne, la liberté d'expression et ce que la société s'attend à trouver en ligne, mais aussi parce qu'ils ont la tâche difficile d'examiner des documents que personne d'autre ne souhaite examiner.
    Qu'ils travaillent dans un bureau ici ou ailleurs dans le monde, nous nous soucions de leur offrir la formation et le soutien nécessaires afin qu'ils puissent accomplir leur travail efficacement, tout en maintenant un équilibre entre leur vie professionnelle et leur vie personnelle.
(1635)
    Merci beaucoup.
    Madame Khalid, la parole est à vous.
    Je vous remercie, monsieur McKay, d'être venu nous rencontrer aujourd'hui.
    Je vais maintenant donner suite à la série de questions de Mme Moore.
    Combien d'examinateurs Google Canada emploie-t-il pour examiner précisément le contenu canadien?
    Nous avons une équipe mondiale qui traite le contenu sans tenir compte du pays ou de la région d'origine. Elle gère le flux de contenus en fonction de la nature du point de pression ou de la provenance de ce flux.
    Les membres de cette équipe acquièrent leurs perspectives et leurs compétences en partie au moyen des conseils qu'ils reçoivent de mon équipe et de mes collègues au service de Google Canada. De plus, nous disposons d'un mécanisme très élaboré qui garantit que le processus d'examen reconnaît le contexte culturel, social et politique dans lequel s'inscrit le contenu.
    Combien de temps faut-il pour supprimer un contenu une fois qu'il vous a été signalé? Quel est le délai particulier?
    Cela varie en fonction du contexte et de la gravité des documents.
    Nous avons déjà discuté aujourd'hui d'exemples où il faut déterminer s'il s'agit de commentaires, d'un reportage ou d'une vidéo qui présente une violente attaque. Dans le contexte de l'attaque de Christchurch, nous avons découvert qu'il y avait tellement de gens qui téléversaient rapidement des vidéos que nous avons été forcés d'accélérer notre examen fondé sur l'intelligence artificielle et de prendre des décisions à la hâte à propos de la suppression des vidéos, en fonction de leur ressemblance frappante avec des vidéos téléversées précédemment.
    Dans ce contexte, l'examen manuel a été radicalement abrégé parce que nous faisions face à une quantité... Dans les cas où il y a un contexte plus général à prendre en considération, nous nous engageons tout de même à examiner les contenus rapidement, mais nous avons besoin d'un processus de délibération.
    Dans votre exposé, vous avez indiqué que les divers pays sont dotés de lois différentes. Voilà des propos que notre comité a déjà entendus. On nous a affirmé que le gouvernement doit exiger que les fournisseurs de services comme vous retirent toutes les publications qui constitueraient un discours haineux. À défaut de s'exécuter promptement, ils devraient rendre des comptes ou ils s'exposeraient à des amendes salées.
    Pourriez-vous nous expliquer brièvement ce que font les autres pays? Comment gardez-vous votre équipe mondiale au fait des différentes lois adoptées dans les divers pays?
    Je vous l'expliquerai volontiers.
    D'abord, en ce qui concerne précisément l'Europe, qui a instauré un code de déontologie au sujet du discours haineux et qui impose des obligations très claires en matière de reddition de comptes, nous en sommes arrivés à un point auquel 83,8 % du contenu signalé aux fins d'examen est évalué en moins de 24 heures et 7,9 % l'est en moins de 48 heures.
    Voilà qui vous donne un aperçu du temps de traitement au cours duquel le contenu haineux peut être évalué adéquatement. De toute évidence, de notre côté, nous tentons d'améliorer le contrôle.
    Dans notre vaste organisation de 10 000 employés, nous effectuons un examen interne très strict et avons établi des lignes directrices à l'intention des équipes d'examen afin de préciser les attentes et les obligations de chaque pays, et les éléments qui sont explicitement illégaux et les propos que nous considérerions à la limite de l'illégalité qui exigent un certain degré d'intervention sur YouTube afin d'en restreindre l'accès.
    Au sein de l'entreprise, comme pour toute multinationale, une équipe est chargée de déterminer les différences et les similitudes, et d'assurer la conformité.
(1640)
    Dans le cadre du travail que vous effectuez dans les pays très différents où vous oeuvrez, avez-vous constaté que certains réussissent mieux que d'autres à contrer le discours haineux en ligne grâce à leurs lois?
    Je formule ici une observation à brûle-pourpoint à titre personnel. Je dirais que nous observons une variété d'efforts afin de lutter contre ce fléau. Ces efforts s'inscrivent, comme je l'ai souligné, dans le contexte social et politique de chaque pays, et le degré de rapidité et de sévérité des mesures dépend des facteurs locaux. La difficulté pour nous consiste encore à saisir les facteurs sociaux, économiques et politiques et le contexte au sein duquel nous pouvons les interpréter, utilisant nos systèmes pour offrir des résultats acceptables pour les pays, les gouvernements et les sociétés concernés. D'un pays à l'autre, nous avons constaté que si les efforts sont coordonnés et déployés en collaboration pour en arriver à des approches complémentaires et semblables, voire à des principes et à des lois communs, les démarches peuvent avoir un effet plus large et plus observable, particulièrement pour les utilisateurs.
    Je vous donnerai un exemple. Il existe une juxtaposition entre la Nouvelle-Zélande et l'Australie en réaction à l'attaque de Christchurch. La première ministre de la Nouvelle-Zélande a choisi de lancer un appel pour réunir toutes les parties prenantes afin d'élaborer une approche musclée pour s'attaquer au problème, sans toutefois adopter d'approche immédiate. L'Australie a plutôt mis en œuvre une loi qui, elle l'a pas tardé à s'en rendre compte, doit être examinée par le Parlement. Cela ne signifie pas que l'intention et l'exécution du processus législatif étaient erronées, mais simplement que la mesure nécessite encore des délibérations. Je pense que c'est là où se trouve le défi. Comme je l'ai fait remarquer, à l'heure actuelle, nous nous préoccupons tous de la situation et nous voulons tous agir à cet égard de manière à avoir un effet.
    Je vous remercie.
    Vous avez expliqué que vous disposez d'une équipe internationale et que vous la formez. Vous avez également indiqué qu'il est difficile de comprendre les facteurs sociaux et culturels de chaque pays. Pensez-vous que cela vous faciliterait la tâche si vous aviez, dans les pays où vous êtes actifs, des équipes qui comprennent parfaitement les facteurs sociaux et culturels qui y influencent le discours haineux?
    Je pense qu'il faut avant tout avoir une idée nette des limites de termes comme « discours haineux » et « contenu extrémiste violent », car notre entreprise tente encore de les interpréter et de définir sa perception de ce que la société et les législateurs du gouvernement jugent acceptable. Pour nous, la première étape consisterait à établir une définition claire afin de pouvoir agir en vertu de celle-ci, car c'est souvent à cet égard que nous avons des désaccords quant aux attentes exactes au sujet de l'effacement ou de la restriction de l'accès au contenu, particulièrement s'il s'agit plus de haine que d'extrémisme violent.
    Pensez-vous qu'il existe dans le monde une définition commune de discours haineux ou des tendances communes avec lesquelles nous pourrions travailler à l'échelle internationale?
    J'ai parlé de la définition que nous appliquons, qui est très large. Nous sommes d'avis qu'elle constitue une référence fiable dans le cadre de nos activités. C'est souvent dans les commentaires et les discours politiques qu'il est difficile de déterminer si une limite a été franchie. Il existe déjà des documents de base sur les droits de la personne et les obligations juridiques auxquelles nous nous référons certainement, et nous parlons régulièrement au gouvernement et aux législateurs, ainsi qu'aux organisations non gouvernementales pour être certains que nous suivons l'évolution de la conversation et que nous filtrons adéquatement l'information.
    Je vous remercie beaucoup.
    J'ai juste une question qui fait suite à celle de Mme Khalid et de Mme Moore. Des 10 000 préposés à la vérification, combien travaillent au Canada?
    Il y en a très peu.
(1645)
    Pourrait-il n'y en avoir aucun?
    Non, il y en a.
    En ce qui concerne l'autre question de Mme Moore sur la langue française, je crois comprendre que vous disposez d'un logiciel de traduction. Tout le monde a vu Google Traduction, un outil fort utile qui aide les gens à avoir un aperçu du sens, mais qui ne constitue manifestement pas un moyen efficace de comprendre la terminologie utilisée en ligne. Avez-vous à votre service des employés possédant des compétences linguistiques dans les multiples langues utilisées pour effectuer des recherches?
    Je ne peux dire avec certitude qu'il y en a pour chaque langue.
    Y en a-t-il en français?
    Oui.
    D'accord.
    Nous vous sommes reconnaissants de nous avoir aidés et nous nous réjouissons que Google soit disposé à collaborer de cette manière avec nous, monsieur McKay. Je tiens vraiment à vous remercier.
    Nous avons une autre séance, mais elle se déroulera à huis clos. Je proposerais que nous prenions une pause de cinq minutes, puis nous demanderons à toutes les personnes qui ne devraient pas être ici de quitter la pièce.

[Français]

     Merci beaucoup à tous.
     Nous suspendons la séance pour cinq minutes.

[Traduction]

    Merci beaucoup.
    La séance est levée.
Explorateur de la publication
Explorateur de la publication
ParlVU