Passer au contenu
;

FEWO Réunion de comité

Les Avis de convocation contiennent des renseignements sur le sujet, la date, l’heure et l’endroit de la réunion, ainsi qu’une liste des témoins qui doivent comparaître devant le comité. Les Témoignages sont le compte rendu transcrit, révisé et corrigé de tout ce qui a été dit pendant la séance. Les Procès-verbaux sont le compte rendu officiel des séances.

Pour faire une recherche avancée, utilisez l’outil Rechercher dans les publications.

Si vous avez des questions ou commentaires concernant l'accessibilité à cette publication, veuillez communiquer avec nous à accessible@parl.gc.ca.

Publication du jour précédent Publication du jour prochain
Passer à la navigation dans le document Passer au contenu du document






Emblème de la Chambre des communes

Comité permanent de la condition féminine


NUMÉRO 037 
l
1re SESSION 
l
42e LÉGISLATURE 

TÉMOIGNAGES

Le lundi 5 décembre 2016

[Enregistrement électronique]

(1530)

[Traduction]

    Je suis très contente de constater que Ruby Sahota est de retour.
    Bienvenue.
    Bryan, le Comité vous souhaite la bienvenue également.
    La séance d'aujourd'hui portera sur un sujet très intéressant.
    Nos premiers témoins seront Matthew Johnson, directeur de l'éducation au sein de l'organisme HabiloMédias, de même que Jane Bailey, professeure à la Faculté de droit de l'Université d'Ottawa. Nous commencerons par entendre leur déclaration préliminaire.
    Je vous remercie sincèrement de cette nouvelle invitation.
    Si j'ai bien compris, l'un des sujets à l'étude aujourd'hui sera la curation par algorithme. Je témoigne en tant que codirectrice de l'eQuality Project, une initiative axée sur l'environnement de mégadonnées et son incidence sur les conflits en ligne entre les jeunes. Je fais également partie du comité de direction de l'Association nationale Femmes et Droit.
    Les mégadonnées forment un environnement dans lequel nous transmettons nos données pour obtenir des services en ligne. Ce mécanisme trie les internautes, y compris les jeunes, par catégories afin de prédire leurs prochaines activités en fonction de celles qui ont précédé, mais aussi pour influencer leur comportement, notamment par le marketing, afin de les inciter à acheter certains biens ou à consommer de certaines manières.
    J'aimerais parler plus particulièrement de trois des sujets de préoccupation auxquels s'intéresse l'eQuality Project concernant le modèle des mégadonnées, et en particulier les algorithmes de tri.
    Le premier a trait au postulat voulant que le passé permette de prédire l'avenir. Si cette prophétie s'accomplit d'elle-même, c'est d'assez mauvais augure pour les jeunes. Le postulat veut que non seulement nos propres activités soient annonciatrices de ce que nous ferons à l'avenir, mais que ce que feront ou ont fait des personnes qui sont censées nous ressembler permette également de prédire nos prochaines activités à titre personnel.
    Je vais donner un exemple qui figurera dans le rapport annuel de l'eQuality Project qui sera publié bientôt, avec la permission de ma codirectrice, Valerie Steeves. L'exemple est lié à la publicité et au ciblage en ligne. Si vous êtes un homme d'une minorité visible et que l'algorithme de tri identifie ces personnes comme étant les plus susceptibles de commettre un crime, les annonces ciblant votre catégorie — celle des jeunes hommes racialisés — peuvent être celles d'avocats criminalistes et de services de vérification de dossiers criminels. Vous serez moins susceptibles de recevoir les annonces des facultés de droit, qui cibleront plutôt les jeunes personnes blanches de la classe moyenne. Latanya Sweeny a fait des recherches sur ce sujet.
    Notre expérience en ligne et l'information à laquelle nous avons accès selon la catégorie dans laquelle nous a rangés l'algorithme de tri peuvent en quelque sorte devenir une prophétie autoréalisatrice puisqu'il est tenu pour acquis qu'un certain type d'information est pertinent pour nous et c'est ce qui nous sera offert. Vous avez peut-être eu l'expérience de faire les mêmes recherches dans Google qu'une autre personne et d'obtenir des résultats différents. C'est le premier sujet de préoccupation. Le postulat comme quoi le passé prédit l'avenir pose des problèmes d'un point de vue très conservateur. Il est toujours inquiétant de constater que les personnes sont catégorisées à partir de critères discriminatoires.
    Le deuxième aspect préoccupant, de toute évidence, vient du fait que ce modèle limite la capacité de changement et la possibilité que tous aient des chances égales de participer et de s'épanouir. En ce qui a trait aux jeunes, nous nous inquiétons des influences qui peuvent les amener à intérioriser les stéréotypes inavoués qui sont véhiculés dans le cyberespace, de la manière dont cette intériorisation peut se répercuter sur l'image et leur conscience d'eux-mêmes, de même que sur leur compréhension de leurs possibilités d'épanouissement et de participation. Nous voulons comprendre comment ces facteurs créent un terreau fertile pour les conflits entre pairs et les jugements modelés par les normes stéréotypées du marketing qui sont la base du tri par algorithme dans un cyberenvironnement.
    Le troisième problème qui nous préoccupe concerne le manque de transparence flagrant du processus de tri par algorithme. Il est impossible de le remettre en question. La plupart d'entre nous, même parmi les programmeurs, ne comprennent pas bien les résultats de ce tri. Lorsque des décisions importantes modulent la vie des autres, notamment le type d'information auquel ils ont accès et les catégories dans lesquelles ils sont rangés, et qu'il est impossible de remettre le système en question parce que la transparence n'est pas exigée et que personne n'est tenu de nous expliquer comment nous aboutissons dans telle ou telle catégorie, les principes de la démocratie sont gravement ébranlés.
(1535)
    Comme je l'ai dit tantôt, l'eQuality Project s'intéresse aux répercussions sur les jeunes, et notamment ceux qui sont les plus vulnérables, dont les filles.
    Comment réagir?
    L'une des constatations importantes de mes travaux conjoints avec la professeure Steeves dans le cadre de l'eGirls Project est que le resserrement de la surveillance n'est pas la solution. Les algorithmes d'analyse des mégadonnées créent un environnement de surveillance. Il s'agit d'un environnement de surveillance par les entreprises, dont la collecte de données a évidemment des retombées sur le domaine public puisque les forces de l'ordre peuvent y avoir accès.
    À en croire les filles interrogées sur leurs expériences en ligne dans le cadre de l'eGirls Project, la surveillance est un problème, pas une solution. Les solutions de tri par algorithme qui catégorisent les jeunes en surveillant leurs données suscitent plus de méfiance chez les jeunes et chez les adultes, et les jeunes ont de plus tendance à perdre confiance dans les systèmes qu'ils utilisent.
    Il est primordial de revoir notre approche et de concentrer notre attention sur les méthodes des entreprises plutôt que d'enseigner aux enfants à accepter un modèle algorithmique et la catégorisation que le tri leur impose. Nous devrions prendre du recul et obliger les entreprises à nous expliquer leurs méthodes, et notamment le comment, le pourquoi et le quand. Si c'est nécessaire, nous devrions envisager une réglementation qui exigerait notamment que des explications soient fournies quand la curation et le tri par algorithme donnent lieu à des décisions qui déterminent les chances données à un jeune.
    Voilà, c'était l'essentiel de ce que je voulais vous communiquer en introduction.
    C'était fort intéressant. Merci.
    Monsieur Johnson.
    Je vous remercie d'avoir invité HabiloMédias à vous donner son point de vue sur le sujet à l'étude.
    Selon nos recherches, les jeunes ont une piètre compréhension des algorithmes et de la collecte des données sur lesquelles ils sont fondés. Seulement un jeune Canadien sur six pense que les exploitants de réseaux sociaux devraient avoir accès à l'information qu'ils publient, et seulement 1 sur 20 croit que les agences de publicité devraient avoir accès à cette information. Près de la moitié des jeunes ne semblent pas savoir que c'est justement de cette manière que la majorité de ces entreprises font leur argent.
    Avec la collaboration du Commissariat à la protection de la vie privée, nous avons créé du matériel qui sensibilise les jeunes à ce sujet et leur apprend comment mieux protéger leurs renseignements personnels dans le cyberespace.
    Les liens entre la curation de contenu par algorithme, la cyberviolence et les jeunes sont nombreux. Lorsque des algorithmes servent à définir le contenu accessible aux internautes, ils posent un problème sur le plan de la protection des renseignements personnels en ligne et de la réputation. Le caractère intrinsèquement opaque du mode d'opération des algorithmes nuit passablement à la capacité d'un internaute à protéger sa réputation s'il ne saisit pas pourquoi certains résultats lui sont toujours proposés en premier. La manière dont les algorithmes diffusent le contenu peut aussi être problématique parce qu'ils peuvent être empreints des préjugés et des partis pris, conscients ou non, de leurs créateurs.
    Je crois que Mme Chemaly est venue vous expliquer les différences entre les offres d'emploi proposées aux femmes et aux hommes. D'autres exemples ont un lien plus étroit avec la cyberviolence. Les programmes d'autocorrection qui ne complètent pas les mots « viol » ou « avortement », par exemple, ou les filtres de contenu Internet qui sont souvent utilisés dans les écoles peuvent empêcher les élèves d'accéder à de l'information valable sur la santé ou l'identité sexuelle.
    C'est pourquoi il est vital de mettre l'accent sur la littératie numérique et médiatique des jeunes. L'un des concepts fondamentaux de la littératie médiatique veut que tous les textes diffusés par les médias aient des répercussions sociales et politiques, même si le rédacteur n'avait pas cette intention. Ce concept s'applique entièrement aux algorithmes, et il peut être d'autant plus pertinent que nous en connaissons rarement le fonctionnement et l'incidence sur le contenu qui nous est proposé.
    Même si un algorithme a été conçu sans partis pris, il peut être le produit et l'incarnation de nos a priori inconscients. Par exemple, à cause d'un algorithme, il est arrivé qu'un service de livraison ne soit pas offert dans des quartiers de minorités visibles aux États-Unis. De même, des algorithmes conçus à l'origine pour résoudre des problèmes techniques, sans aucune considération pour les incidences sociales possibles, peuvent donner lieu à des résultats inégaux, voire néfastes, de manière totalement accidentelle.
    Par ailleurs, des personnes qui connaissent bien les algorithmes peuvent les modifier pour amplifier le harcèlement par une méthode appelée « embrigadement », qui consiste à renforcer le contenu néfaste pour que l'algorithme le juge plus pertinent et le place au haut des résultats de recherche. Ce faisant, ce contenu sera plus susceptible d'être présenté comme un sujet d'intérêt à différents publics. Ce phénomène a été mis en lumière lors de la dernière campagne à la présidence des États-Unis: différents groupes ont réussi à manipuler les algorithmes d'analyse de contenu de plusieurs réseaux sociaux afin de diffuser de fausses nouvelles. Ce procédé pourrait facilement servir à élargir considérablement la diffusion d'une photo embarrassante ou intime qui a été communiquée sans le consentement de l'intéressé.
    Des algorithmes peuvent aussi être manipulés pour bâillonner une victime de la cyberviolence, surtout sur les plateformes permettant de voter pour ou contre du contenu.
    Sur le plan de la littératie numérique, il est clair que les élèves doivent apprendre à reconnaître l'information tendancieuse ou fausse. Nos recherches ont montré que les jeunes sont moins enclins à vérifier la véracité de l'information transmise par les médias sociaux, qui sont évidemment leur principale source d'information. Il faut les sensibiliser au fait que les algorithmes déterminent quelle information leur sera transmise. Nous devons aussi promouvoir la citoyenneté numérique et l'utilisation du contre-discours pour contrer la haine et le harcèlement, et nous assurer qu'ils comprennent et exercent leurs droits de citoyens et de consommateurs. Dans de nombreux cas, l'action concertée des consommateurs a mené à la modification d'un algorithme qui était perçu comme valorisant des attitudes racistes ou sexistes.
    Merci.
(1540)
    C'était très édifiant. Nous allons entamer notre premier tour de questions.
    Madame Vandenbeld, à vous l'honneur. Vous avez sept minutes.
    Je vous remercie d'être venus de nouveau nous aider à approfondir notre analyse de certains sujets. J'aimerais tout d'abord obtenir quelques clarifications, puis je vous poserai des questions sur la réglementation des entreprises et les mesures à prendre pour accroître la transparence.
    Tout d'abord, c'est la première fois que j'entends parler d'« embrigadement » et de manipulation d'algorithmes, un phénomène alarmant, il va sans dire. Pourriez-vous nous en dire un peu plus à ce sujet, monsieur Johnson?
    Par ailleurs, madame Bailey, j'ai toujours pensé que les termes saisis dans le champ de recherche déterminaient les résultats obtenus. À vous entendre, c'est un peu plus compliqué, et c'est aussi plus prévisible. Tout dépend de la catégorie à laquelle une personne appartient. Je ne comprends pas vraiment comment la programmation est faite. Pourriez-vous tous les deux éclairer ma lanterne?
    J'aimerais ensuite que nous parlions un peu plus de la réglementation des entreprises.
    Monsieur Johnson.
    Je ne sais pas trop quoi ajouter à ce sujet. Nous avons observé différents cas où des personnes particulièrement habiles ou tout simplement tenaces ont réussi à manipuler des algorithmes pour mousser des sujets chauds, entre autres.
    Une étude sur les fausses nouvelles diffusées pendant la campagne électorale américaine a permis de remonter jusqu'à une équipe de rédacteurs de la Macédoine qui produisait du contenu et qui a réussi à atteindre un lectorat impressionnant après avoir décodé les interactions des lecteurs initiaux et l'influence de celles-ci sur la manière dont les plateformes promouvaient ce contenu. À ma connaissance, cette méthode n'a pas encore été utilisée à grande échelle pour harceler des personnes, mais ce ne serait certainement pas impossible.
    Vous avez suggéré qu'elle peut servir non seulement pour amplifier certaines nouvelles, mais également pour en étouffer d'autres. Quelle est la méthode utilisée?
    D'une part, c'est possible parce que chaque fois qu'un message est amplifié, d'autres sont minimisés. Un message sera moins susceptible de devenir le sujet de l'heure si un autre a déjà pris la place. Les places au soleil sont limitées.
    De plus, certaines plateformes sont dotées d'une fonction qui permet aux utilisateurs de voter pour ou contre une publication et donc de mousser un contenu, mais aussi de décréter qu'un autre est moins pertinent. Une équipe de petits futés qui décide d'amplifier un message de harcèlement peut aussi voter contre la réplique publiée par la victime ou ses défenseurs. Les harceleurs jouent donc sur les deux fronts. C'est ce qui s'est passé, dans une certaine mesure, lors de la controverse du « Gamergate », une histoire de harcèlement contre des femmes dans l'industrie des jeux. Certaines des méthodes appliquées étaient de la même nature, quoique beaucoup moins raffinées que ce que nous avons pu observer dans l'histoire des fausses nouvelles.
(1545)
    Essentiellement, ceux qui comprennent comment un algorithme fonctionne peuvent anticiper les comportements humains et faire des manipulations pour que certains éléments soient amplifiés. Si quelque chose est répété assez souvent, les gens croient que c'est vrai. Est-ce que j'ai bien compris? D'accord.
    Des voix: Oh, oh!
    Mme Anita Vandenbeld: J'aimerais maintenant m'adresser à Mme Bailey et explorer un peu la question de la transparence. Bien entendu, nous cherchons à déterminer comment le gouvernement fédéral pourrait intervenir sur cette question. Serait-il possible d'obliger les entreprises à être plus transparentes — si c'est la solution au problème — et, le cas échéant, comment devrions-nous procéder?
    Des modèles existent, dans l'Union européenne notamment. Les règlements européens en matière de protection des renseignements personnels accordent la priorité à la dimension humaine du processus décisionnel. Quand une décision se répercute sur les chances données à des personnes, par exemple, un élément humain quelconque doit intervenir dans la détermination du résultat.
    De toute évidence, ce procédé ajoute une dimension de responsabilité ou de transparence, dans la mesure où ni vous ni moi, ni même un ingénieur en informatique dans certains cas, ne pourrait expliquer comment un algorithme parvient à la conclusion qu'une personne appartient à un groupe donné, ou que certains renseignements devraient lui parvenir ou non. Nous disposerions ainsi d'autres moyens pour expliquer les paramètres pris en compte pour déterminer quel type de contenu nous est offert et pourquoi telle ou telle décision est prise à notre sujet. C'est de plus en plus crucial dans un contexte où les machines prendront un nombre croissant de décisions dans toutes sortes de domaines.
    Je crois que les gens et les pays commencent à réfléchir à des moyens d'inclure le public dans les valeurs publiques, et de faire en sorte que le public participe au processus décisionnel dans ce domaine qui, bien qu'il soit en grande partie contrôlé par des intérêts privés, repose dans la réalité sur une infrastructure publique. Il s'agit d'une infrastructure publique parce que les citoyens en ont de plus en plus besoin pour travailler, pour organiser leur vie sociale et pour leur éducation. Il faut réfléchir à des moyens de rétablir l'équilibre entre les décisions prises dans la perspective d'une entreprise privée — non pas pour des raisons viles, mais pour des raisons de rentabilité, l'objet même de toute entreprise — et la réintégration du discours citoyen, des points de vue du public sur tout ce qui se passe, la nature des décisions qui sont prises, le profilage des groupes et leur catégorisation. Je crois qu'il faut vraiment franchir ce premier jalon.
    Donc, si j'ai bien saisi, on parle d'un effet multiplicateur. C'est beaucoup plus qu'une caisse de résonance, où vos amis des réseaux sociaux indiquent qu'ils aiment ce que vous affichez et risquent donc de se voir proposer les mêmes choses que vous. C'est totalement différent du bon vieux temps, quand on tournait les pages d'un journal pour lire toutes sortes de nouvelles. De nos jours, c'est un algorithme qui décide du contenu et qui fait du renforcement. Est-ce que…
    C'est ce que certains font. Autrement dit, ils referment le cercle au lieu de l'ouvrir.
    Certains pourraient dire que c'est un avantage puisque les internautes qui ne veulent pas recevoir de contenu haineux peuvent le bloquer. Toutefois, si on prend l'exemple du bouton de blocage de comptes dans Twitter, je peux l'utiliser pour ne pas voir les cyberattaques d'un utilisateur contre moi, mais les attaques restent bien réelles, à la différence qu'elles se font à mon insu.
    La curation est faite de manière à nous ménager, du moins au début. Cependant, pour ce qui est de la violence, du harcèlement et de toutes questions auxquelles nous devons trouver des solutions, nous ne pourrons pas faire grand-chose si nous ne savons pas ce qui se passe.
(1550)
    Je suis désolée, mais votre temps est écoulé.
    Je donne maintenant la parole à Mme Vecchio. Vous avez sept minutes.
    Bonjour. Je vous remercie sincèrement d'être venus à notre rencontre.
    J'aimerais commencer par une anecdote personnelle. Vous pourrez peut-être m'expliquer ce qui s'est passé. Il est possible de dire que c'était la faute des algorithmes —ou j'ai peut-être des antécédents que je préfère oublier —, mais voici ce qui m'est arrivé. L'autre jour, j'ai pris l'avion et j'ai regardé deux vidéos sur YouTube, soit les première et deuxième parties d'un concours international de films publicitaires. Je ne cache pas que les annonces portaient sur des sous-vêtements masculins. C'était un clip amusant, très amusant en fait, sur deux testicules. Très drôle.
    Après les deux premières vidéos, une troisième a été lancée automatiquement. C'était de la pornographie, mettant en vedette un jeune homme et une jeune femme. Malheureusement, mon fils de 13 ans était avec moi, et je n'ai pas pu m'empêcher de dire: « Oh, mon Dieu! » Les films publicitaires que je regardais avec mon fils n'étaient pas trop inappropriés —un peu, mais pas tant que cela —, mais je peux vous affirmer que la troisième vidéo était totalement de mauvais goût.
    Était-ce la faute d'un algorithme? Était-ce dû à mon historique de recherche, même si je vous jure que je n'ai jamais fait de recherche de pornographie sur YouTube? D'où sortait cette vidéo? Pouvez-vous m'expliquer comment l'écoute de deux vidéos qui remportent un prix national de publicité peut mener à une troisième qui contient de la pornographie?
    Tout d'abord, j'aimerais faire valoir une clause de non-responsabilité. Je suis avocate, pas informaticienne, donc je ne peux pas vous dire exactement ce qui s'est produit. Les raisons peuvent être multiples. Ce pourrait être un exemple de ce dont Matthew a parlé concernant les algorithmes qui calculent ce que les gens qui regardent ces vidéos aiment en général. Ce pourrait être un reflet des préférences d'autres utilisateurs et de l'association de plusieurs paramètres. Ce pourrait aussi être le produit d'un algorithme moins évolué qui cherche un terme ou un contenu comme sous-vêtement, ou testicules, ou quelque chose comme ça. Des algorithmes font ce type d'agrégation de contenus semblables. Même si vous nous avez dit que ce n'était pas votre cas, ce pourrait être le résultat de votre historique de recherche.
    Mme Karen Vecchio: Je vous jure que ce n'est pas le cas.
    Des voix: Oh, oh!
    Mme Jane Bailey: Les algorithmes plus évolués devraient en principe prédire plus efficacement ce qui intéresse l'utilisateur. Si je prends l'exemple de mon propre historique de recherche sur Amazon, je dois constater que son algorithme le fait depuis assez longtemps. Comme j'ai acheté beaucoup de livres sur le féminisme, Amazon me propose constamment des annonces de livres qui traitent de près ou de loin des femmes, et surtout des livres de régime et d'exercice. À mon avis, leur algorithme est complètement à côté de la plaque. Une vieille féministe radicale comme moi ne cherche pas des livres de régime et d'exercice de Suzanne Somers. Ils sont complètement dans le champ!
    Des voix: Oh, oh!
    Mme Jane Bailey: Les algorithmes sont de plus en plus perfectionnés. Plus ils reçoivent de données, plus leur capacité de prédiction se raffine et plus ils peuvent reproduire nos comportements à partir de ce que nous avons déjà fait.
    D'accord. Cela me semble extrêmement… Franchement, j'étais loin de m'y attendre, et surtout pas après avoir visionné un documentaire de ce genre. Il y avait aussi des annonces publicitaires de Pampers, une association qui semble quand même assez étrange. J'ai été vraiment surprise.
    Ce sujet nous amène naturellement à la question des mesures de protection, selon moi. Pour éviter que deux simples annonces publicitaires mènent à ce genre de résultat, des mesures de protection sont-elles envisageables à long terme? Est-il possible de voter contre du contenu pornographique sur Internet? Existe-t-il d'autres moyens que la législation pour nous protéger? Dans l'affirmative, ce genre de modèles est-il utilisé au Canada?
    Oui, absolument.
    L'un des volets de l'éducation donnée aux jeunes a trait à la citoyenneté numérique: nous leur enseignons comment améliorer le cyberespace. Par exemple, nous leur apprenons que s'ils voient du contenu inapproprié en ligne, et surtout s'il s'agit de cyberintimidation ou de contenu haineux, beaucoup d'options s'offrent à eux. La grande majorité des plateformes, que ce soit les plateformes vidéo ou les réseaux sociaux, permettent de signaler ce type de contenu. Beaucoup d'entre elles ont aussi une fonction qui permet de voter contre. C'est l'une des raisons d'être de ce type de fonctions, même si elles peuvent être mal utilisées. Nous leur enseignons qu'ils ont une responsabilité à cet égard, et qu'ils ont le droit de naviguer en ligne sans être exposés au harcèlement et à la haine.
    Nous faisons également du travail de défense des droits, et nous offrons des ressources aux parents sur la manière d'aborder ces sujets avec leurs enfants, ainsi que des ressources pédagogiques sur ces différents thèmes à l'intention des enseignants. Nous savons que les enfants seront exposés à ce matériel, de manière intentionnelle ou non. C'est inévitable. Nous savons que même les meilleurs filtres ne bloquent pas tous ces contenus et que, souvent, ils sont plus ou moins efficaces pour ce qui est des contenus haineux et la cyberintimidation.
    Il est important de parler de ces questions. Un jeune informé qui tombe pour la première fois sur du contenu pornographique sait que ce n'est pas la réalité. Il sait qu'il ne s'agit pas d'une vision réaliste ou saine de la sexualité.
(1555)
    Excellent. Merci.
    Jane, avez-vous quelque chose à ajouter?
    Non.
    Je vais poursuivre avec mes questions.
    C'est ce qui m'inquiète particulièrement au sujet des algorithmes: que pourrions-nous faire de mieux?
    En matière d'éducation des enfants, des ressources comme HabiloMédias et d'autres nous donnent des conseils. Toutefois, est-ce que nous faisons d'autres efforts? Pouvez-vous nous donner des exemples de systèmes d'éducation ou de commissions scolaires qui intègrent ces pratiques à leur programme d'études? Que font les Canadiens pour éduquer les jeunes, mis à part ce qui se fait dans les familles, qui soit dit en passant se sentent souvent impuissantes?
    Partout au pays, les programmes d'enseignement accordent une place croissante à la littératie numérique. Entre autres activités, nous faisons un suivi des programmes d'études des provinces et des territoires, notamment pour nous assurer que nos ressources sont adéquates et que les enseignants peuvent les utiliser sans avoir à empiéter sur les matières obligatoires. Nous avons observé une hausse. La Colombie-Britannique, notamment, s'est dotée d'un programme de littératie numérique complet, et elle est beaucoup plus présente dans le programme de santé et de sciences sociales de l'Ontario.
    Les choses progressent. Nous n'avons pas encore atteint l'égalité entre la littératie numérique et la littératie médiatique, qui fait déjà partie du programme d'études de toutes les provinces et de tous les territoires, mais nous voyons des progrès. Il va sans dire que nous aidons les enseignants et les commissions scolaires à intégrer la littératie numérique dans les classes de la maternelle à la 12e année, car il est bien connu qu'il faut commencer la sensibilisation sur la plupart de ces questions aussitôt que les enfants utilisent Internet.
    Je suis tout à fait d'accord.
    Merci beaucoup.
    La prochaine période de sept minutes est allouée à Mme Malcolmson.
    Merci, madame la présidente.
    Merci aux témoins. Je suis contente de vous revoir.
    La dernière fois que nous avons discuté ensemble, madame Bailey, c'était en juin, au début de notre étude.
    Le mois dernier, le Comité des Nations unies pour l'élimination de la discrimination à l'égard des femmes a publié son rapport sur le Canada. Ce rapport quinquennal nous procure un bon état de la situation. Je vais citer un passage qui concerne l'un des sujets de préoccupation relevés par le Comité:
[Traduction] L'abrogation de l'article 13 de la Loi canadienne sur les droits de la personne, qui offrait un recours civil aux victimes de la cyberviolence, et l'entrée en vigueur de la Loi sur la protection des Canadiens contre la cybercriminalité (2015), pénalise la distribution non consensuelle d'images intimes, sans toutefois cerner toutes les situations qui étaient visées par l'article 13 de la [...] Loi sur les droits de la personne.
    Au paragraphe 25(g), le Comité formule la recommandation suivante au gouvernement fédéral:
[Traduction] Revoir et modifier la législation afin d'offrir un recours civil adéquat aux victimes de cyberviolence, et remettre en vigueur l'article 13 de la Loi canadienne sur les droits de la personne.
    Est-ce que l'un d'entre vous, à partir de son expérience professionnelle, a des conseils à donner au Comité relativement à une recommandation que nous pourrions formuler à cet égard?
    Pour ce qui concerne l'abrogation de l'article 13 de la Loi canadienne sur les droits de la personne sous le gouvernement précédent, j'ai déjà donné mon point de vue au Sénat. Cette abrogation, si je puis me permettre, était assez ironique du point de vue historique. Elle est survenue pile au moment où tout le monde parlait du problème du contenu haineux et du harcèlement dans Internet. Le Canada se distinguait par son régime législatif qui autorisait l'instruction des questions liées au contenu haineux et au harcèlement fondé sur l'identité dans Internet par un tribunal des droits de la personne plutôt que par une cour de justice. C'était un recours propre au Canada et nous en étions très fiers.
    Au moment même, si je puis m'exprimer ainsi, où ce recours prenait tout son sens, où la plupart des spécialistes affirmaient que le Code criminel n'offrait pas les meilleurs recours, mais qu'il fallait plutôt faire intervenir les dispositifs applicables aux questions de droits de la personne, le Canada a choisi d'abroger l'article 13. C'est à mon sens une décision fort regrettable. Elle a privé le Canada de mesures efficaces et variées pour contrer le contenu haineux et la persécution en ligne. Mais ce n'est pas tout. Cette abrogation a ébranlé la reconnaissance symbolique que ces attaques sont fondées sur le harcèlement, la discrimination et les préjugés liés à l'identité.
    Il est clair pour moi que l'article 13 de la Loi canadienne sur les droits de la personne doit être remis en vigueur parce que, très respectueusement, j'estime que son abrogation était totalement déraisonnable dans le contexte où elle s'est produite.
    Pour ce qui a trait aux recours civils, je crois que le Manitoba offre l'une des formules les plus intéressantes parmi celles que j'ai examinées dernièrement. La province a chargé l'organisme responsable de Cyberaide d'aider les personnes dont les images intimes sont affichées en ligne et de faire en sorte qu'elles soient retirées rapidement. Ce mécanisme de soutien m'apparaît très utile. Parmi tous les problèmes qui affligent les personnes dont les images intimes sont affichées sans leur consentement, l'un des plus pressants est justement qu'elles soient retirées le plus rapidement possible.
    Rien de cela ne minimise l'importance du Code criminel, mais tous ces recours font une différence. Je crois qu'il est très judicieux d'offrir un éventail de recours juridiques adaptés aux différentes victimes et à leur situation, et qui tiennent compte de leurs aptitudes et de leurs besoins.
(1600)
    Merci.
    Monsieur Johnson.
    L'organisme HabiloMédias a une vocation éducative. Il ne prend jamais position en matière législative, sauf si une question a un lien direct avec sa mission. Cela étant dit, l'un des volets de cette mission concerne la sensibilisation des adultes et des jeunes à l'égard de leurs droits juridiques et des recours qui leur sont offerts en cas de besoin. Nous leur enseignons aussi comment agir de manière positive, et surtout en ligne lorsque les médias sont en cause. Je dois dire que l'article 13, avant son abrogation, représentait l'un des principaux moyens présentés dans notre matériel pour lutter contre le contenu haineux en ligne. Malheureusement, l'abrogation de l'article 13 a laissé un énorme vide dans notre matériel, car nous n'avons pas trouvé de dispositif semblable pou le remplacer.
    Si l'article 13 était remis en vigueur, vous recommenceriez à l'inclure dans les recours à la disposition de vos clients?
    Nous les informerions certainement de son existence. Nous ne faisons pas de recommandations formelles mais, comme je l'ai déjà dit, nous prendrions soin de l'intégrer à toutes nos ressources, parce qu'il ferait partie des moyens de lutte contre le matériel haineux publié dans Internet ou d'autres médias.
    Merci.
    Il me reste seulement une minute. J'imagine que pour HabiloMédias, comme pour tous les autres organismes qui sont venus nous rencontrer, la campagne récente incitant les victimes à dénoncer et à demander de l'aide a eu pour conséquence de vous inonder de demandes. Est-ce que votre financement de fonctionnement est suffisant pour répondre à ces demandes et combler les besoins qui sont de votre ressort? Il est clair que si nous encourageons les gens à demander de l'aide, nous ne pouvons pas leur fermer la porte au nez lorsqu'ils le font.
    Nous n'avons pas vraiment de source stable de financement de fonctionnement. Nous recevons une aide incroyable de beaucoup de commanditaires, dont je vous épargnerai l'énumération parce que j'utiliserais tout le temps à notre disposition. Quand il est question de contenu haineux en ligne, nous avons beaucoup de difficulté à trouver des gens intéressés à consacrer leur temps ou leur argent. Notre dernier projet dans ce domaine remonte à 2011. Il est très ardu pour nous de nous attaquer aux problèmes qui nous sont rapportés, même s'ils sont urgents, si nous n'avons pas de budget réservé à cette fin.
    Merci pour le travail que vous faites.
    Madame Damoff, c'est votre tour. Vous avez sept minutes.
    Je vous remercie très sincèrement d'être revenus discuter avec nous. Vos témoignages précédents étaient remarquables, et vous avez encore une fois réussi à nous impressionner. Je vous dis donc merci à tous les deux pour votre travail et pour l'information que vous nous donnez.
    Le terme « algorithme » est revenu à plusieurs reprises. J'ai un peu de la peine à y croire. J'ai échangé quelques regards avec la présidente pendant que vous parliez. Je crois que toutes les deux, nous sommes un peu abasourdies par ce qui se trame à notre insu quand nous naviguons dans Internet.
    Vous avez évoqué les mesures législatives prises par l'Union européenne pour protéger les renseignements personnels. J'ai des questions à ce sujet. Beaucoup des entreprises en cause sont internationales. Si je prends l'exemple de Twitter, le siège social se trouve aux États-Unis, mais ses activités sont mondiales. C'est la même chose pour Facebook. Beaucoup de ces entreprises sont des multinationales. Par conséquent, est-ce que des mesures législatives adoptées au Canada pourraient réellement s'appliquer à leurs activités?
(1605)
    C'est une très bonne question. Beaucoup de ces sociétés semblent prendre plaisir à exploiter la zone grise créée par les régimes législatifs multiples, les difficultés de suivi… Cependant, si une société exerce ses activités dans un pays, elle devrait se conformer à ses lois, n'est-ce pas?
    D'une certaine manière, je dirais que c'est l'un des éléments étonnants du modèle européen. Essentiellement, ce modèle part du principe qu'il existe des valeurs et que, tout en permettant le développement et l'innovation, ces valeurs doivent prévaloir, et que les directives ainsi que la législation en vigueur doivent être respectées. Même si les sociétés se plaignent que c'est cher et complexe, elles n'ont pas le choix d'assumer leurs responsabilités.
    J'aimerais parler d'un exemple précis, si vous voulez bien. Vous avez évoqué les sites de fausses nouvelles, dont une bonne partie émanait de la Macédoine. Si des manipulations d'algorithmes sont faites dans un autre pays et que les répercussions touchent le Canada, est-ce que nos lois pourraient s'appliquer?
    C'est difficile à dire. Tout dépendrait du libellé des dispositions.
    Supposons qu'elles soient libellées comme celles de l'Union européenne.
    Je vais prendre l'exemple du « droit à l'oubli » prévu dans le régime européen. En Espagne, la société Google s'est insurgée contre l'application de la loi européenne à sa situation, alléguant que ses activités en Espagne ne justifiaient pas l'application de cette directive.
    En résumé, la question à trancher était de savoir si l'Espagne pouvait ordonner à Google de supprimer un résultat particulier obtenu dans son moteur de recherche, afin que la saisie du nom de la personne visée ne donne pas accès à l'information. La prémisse voulait que la plupart des internautes utilisent Google pour obtenir de l'information et que, même si une information existe quelque part dans un site Web, son accès est relativement limité si le résultat n'est pas affiché dans la première ou la deuxième page des résultats de recherche dans Google. Il a été ordonné à Google de supprimer ce résultat afin que la saisie du nom de la personne en question ne donne pas accès à de l'information sur une instance antérieure. L'idée est qu'à défaut d'une interdiction globale, il faut trouver un moyen de bloquer cette information pour que les résidents de l'Espagne ou d'un autre pays de l'Union européenne n'y aient pas accès à partir de leur moteur de recherche, conformément au droit de l'Union européenne selon lequel la personne en cause a le droit que d'autres personnes n'aient pas accès à son information.
    C'est donc possible.
    Mme Pam Damoff: D'accord.
    Mme Jane Bailey: Quant à l'autre question concernant un autre type de tri par algorithme, je vais m'en tenir à dire que je ne suis pas certaine. Tout dépendrait du contexte. Je ne dis pas que ce serait facile. Je dis que parfois, tout dépend de ce qui doit être offert en premier, et je pense que la société a tout intérêt à ce que ce soit offert en premier.
    Lors de votre dernier passage, vous avez évoqué l'importance de la littératie numérique. Vous en avez parlé de nouveau aujourd'hui. Bien entendu, une partie de cette responsabilité relève des provinces. Que peut faire le gouvernement fédéral pour promouvoir la littératie numérique? Avez-vous des suggestions?
    Voulez-vous commencer, Matthew?
    Selon moi, c'est une partie de la solution. Si les internautes comprennent ce qui se passe, ils aborderont différemment leur moteur de recherche ou leur fil d'actualité.
(1610)
    Le gouvernement fédéral pourrait faire plusieurs choses. Tout d'abord, il pourrait soutenir la conception de ressources de littératie numérique. La plupart des provinces qui ont intégré la littératie numérique dans leurs programmes d'études n'ont pas suffisamment de ressources pour les enseignants, et je suis certain qu'elles accueilleraient volontiers cette aide. Le fonctionnement en silo est l'un des grands risques en matière de sensibilisation à la littératie numérique. Il faut éviter le gaspillage d'efforts et d'énergie qui se produira inévitablement si la roue est réinventée 13 fois d'un bout à l'autre du pays. Le gouvernement fédéral pourrait certainement prendre des moyens pour éviter ce gaspillage.
    Il pourrait aussi faire de la sensibilisation auprès du grand public en ce qui concerne la littératie numérique et les compétences numériques comme faisant partie du bagage essentiel dont nous avons tous besoin, peu importe où nous en sommes dans notre vie. Il faut intégrer l'enseignement de ces compétences dans le programme d'éducation dès la petite enfance, soit aussitôt, comme je l'ai dit tantôt, que les enfants commencent à utiliser des dispositifs numériques.
    Merci.
    Jane.
    Il ne faut pas oublier le Commissariat à la protection de la vie privée du Canada, qui relève du fédéral. Il pourrait être indiqué d'élargir ses pouvoirs, et notamment de l'habiliter à faire appliquer la loi et à traiter des dossiers liés à la curation par algorithme. Si on la compare à d'autres lois en vigueur dans le monde, notre Loi sur la protection des renseignements personnels et les documents électroniques est une mesure législative importante pour assurer le contrôle de l'État sur les organismes privés et leur gestion des données. Le renforcement des pouvoirs et de la compétence du Commissariat fait certainement partie des pistes d'intervention qui s'offrent au gouvernement fédéral.
    Merci.
    Madame Harder, vous avez sept minutes. Mme Harder partagera son temps de parole avec Mme Vecchio.
    Merci énormément.
    Je suis désolée d'être arrivée après vos présentations. J'ai été retenue ailleurs. Je tiens à vous dire que je compte parmi les personnes qui ont le plus insisté pour vous inviter à comparaître devant le Comité, et je vous suis reconnaissante de nous consacrer du temps.
    Cela étant dit, j'ai quelques questions pour vous.
    Ma première question s'adresse à vous deux, si vous me le permettez. Existe-t-il des moyens pour empêcher que des images ou des vidéos pornographiques s'affichent sur mon fil d'actualité lorsque je fais des recherches? Mes nièces passent leur temps à faire des recherches sur des sujets anodins, et des images abracadabrantes surgissent à tout moment sur l'écran. Je sais que ma collègue Karen a posé le même genre de questions, mais pouvez-vous nous donner plus de précisions? Que pouvons-nous faire pour empêcher que ce genre de contenus parvienne à nos enfants?
    Sur le plan technique, quelques mesures faciles sont relativement efficaces.
    Si vous parlez d'une intervention individuelle, la plupart des moteurs de recherche offrent une fonctionnalité de recherche sécuritaire, appelée « SafeSearch ». Un filtre de contenu peut aussi être installé. La plupart des fournisseurs d'accès à Internet offrent ce genre de filtres, et il existe aussi des programmes de filtrage commerciaux. Toutefois, aucun de ces dispositifs n'offre une efficacité totale, surtout si vous élargissez la définition de contenu inapproprié au-delà de la simple nudité. Bref, il existe diverses solutions, et nous recommandons notamment celles qui sont gratuites, comme SafeSearch.
    C'est l'une des raisons pour lesquelles nous abordons la littératie numérique d'une manière globale. C'est pour cela également que des volets comme la vérification de la véracité et les compétences en recherche peuvent être utiles pour ce qui concerne le contenu. L'une des meilleures façons d'éviter ces contenus est de savoir comment configurer les paramètres de recherche pour obtenir seulement les résultats souhaités, et de saisir une séquence qui exclut les éléments indésirables.
    Il existe aussi des façons d'éviter que votre profil soit établi. Si vous regardez une vidéo qui, pour quelque raison, pourrait contenir du contenu relié par un algorithme à du contenu inapproprié et qu'aucun profil n'a été établi à votre égard, l'effet sera moindre. Vous pouvez par exemple utiliser des moteurs de recherche qui ne recueillent pas de données sur vous, une adresse IP de serveur mandataire ou, dans certains cas, activer le mode de navigation privée ou la fonction de blocage du pistage d'un moteur de recherche.
    Toutefois, je le répète, toutes ces mesures individuelles sont incomplètes, et c'est pourquoi nous répétons qu'il est impossible de mettre les jeunes totalement à l'abri. Il faut en parler avec eux. Toutes ces mesures sont efficaces pour réduire les risques que ce type de contenu soit affiché.
(1615)
    Jane, j'aimerais vous entendre aussi, brièvement si possible.
    Les mesures de contrôle des dommages, dont Matthew vient de nous faire un excellent résumé, ont d'autres répercussions, mais je n'irai pas dans le détail. Toutefois, je crois que la solution à tous ces problèmes, comme vous vous en souviendrez peut-être parce que je l'ai dit également lors de mon dernier passage, est de mettre fin au patriarcat. C'est le meilleur moyen pour que la pornographie cesse d'envahir nos écrans sans notre consentement. Il faut nous intéresser aux racines du problème. Nous pouvons et nous devons contrôler les dommages, parce que nous voulons éduquer et protéger nos enfants. Les enfants doivent savoir comment réagir devant ce contenu, et ils doivent développer leur esprit critique à ce sujet.
    Au bout du compte, si la pornographie violente pose un problème, il est de nature systémique. Il faut nous attaquer à la misogynie.
    À votre avis, est-ce qu'elle pose un problème?
    Vous me demandez si la pornographie violente pose un problème?
    Oui.
    De toute évidence.
    Quel est le problème au juste? Où se trouve le cœur du problème? Vous avez 30 secondes.
    La misogynie est au coeur du problème. Le problème vient de la représentation du viol ou de la violence sexuelle comme étant une forme de sexualité. Il ne faut pas nous méprendre, il est là le coeur du problème, mais il est occulté par un fatras de facteurs interdépendants comme le racisme, le classisme, le capacitisme. Tous ces facteurs se superposent au problème, mais si le moteur d'une industrie est de faire de l'argent en exploitant la violence sexuelle contre les femmes, nous avons de sérieuses questions à nous poser sur le genre de société dans laquelle nous vivons et le genre d'industries que nous autorisons.
    Très bien.
    Je donne la parole à Mme Sahota. Vous avez cinq minutes.
    J'aimerais avoir des précisions au sujet des fonctions de vote pour ou contre du contenu. Je ne suis pas très familière avec cette terminologie. Pourriez-vous me donner des détails en faisant des liens avec des sites populaires dans lesquels nous faisons des recherches et sur la manière dont ce processus fonctionne?
    J'utilise cette terminologie dans son sens générique. Par « voter pour », j'entends une action qui renforce un contenu, qui en favorise la diffusion, et plus particulièrement qui en augmente la pertinence pour un algorithme. Le fait de « voter contre » donne exactement le résultat contraire, en limitant la portée ou la pertinence d'un contenu.
    Chaque plateforme a son propre procédé de classement par vote. Un exemple facile serait la mention « j'aime » dans Facebook, qui est en fait la même chose que voter pour un contenu puisque, à l'avenir, les contenus « aimés » seront définis comme étant pertinents pour vous. Facebook sera plus susceptible d'afficher ce contenu pour vous que si vous avez sélectionné « Meilleurs commentaires » au lieu de « Plus récents ». Facebook vous donne l'option d'afficher les commentaires par ordre chronologique mais, dans la configuration par défaut, l'algorithme vous proposera ce qu'il estime être plus pertinent pour vous.
    La plateforme Reddit, notamment, offre une fonction de classement pur. Chaque utilisateur peut réellement renforcer un contenu en indiquant qu'il est le plus populaire, ou le minimiser en indiquant qu'il est le moins populaire. L'autre gros problème avec Reddit concerne l'affichage sur la première page du site, c'est-à-dire ce qui est affiché si vous entrez l'adresse reddit.com, et non celle de l'un des nombreux sous-reddits. Nous savons que les groupes haineux ont fait des manipulations dans ces sites. Ils ont réussi à convaincre suffisamment de personnes de voter en faveur de messages haineux afin qu'ils soient affichés sur la page d'accueil, et ils ont aussi mobilisé suffisamment de votes tactiques contre des contenus qui critiquaient leurs positions.
    J'ai entendu parler du problème que vous avez évoqué concernant l'absence de livraisons dans certaines régions des États-Unis, un dossier qui a fait les manchettes. J'ai été particulièrement troublée par la partie de votre présentation concernant les répercussions sur la vie personnelle, qui ne sont pas liées seulement aux contenus consultés à un moment précis par une personne, mais qui peuvent également se manifester à long terme.
    Pouvez-vous nous expliquer un peu plus en détail comment une personne peut consciemment voter pour ou contre un contenu pour qu'il disparaisse, alors que les utilisateurs agissent souvent inconsciemment, qu'ils n'utilisent pas vraiment leur ordinateur avec cette intention? J'ai beaucoup de mal à comprendre comment ces utilisateurs peuvent être ciblés, et surtout les plus jeunes. Vous avez dit que des utilisateurs peuvent recevoir des annonces de services de vérification du casier judiciaire au lieu d'annonces de facultés de droit. Comment cela est-il possible? Est-ce que les caractéristiques démographiques associées au lieu où une personne vit sont utilisées?
(1620)
    Oui, c'est le problème. On pourrait parler des effets tragiques de la propriété commune. Même si vous et moi prenons des décisions personnelles qui concernent notre situation personnelle, et que nous nous pensons en sécurité parce que nous sommes d'accord avec ce que nous avons fait, les répercussions de nos choix personnels peuvent contribuer à l'agrégation. C'est un type d'agrégation par algorithme.
    Je vais vous citer un exemple extrait des travaux de recherche de Latanya Sweeney. Elle a fait des recherches aux États-Unis qui montrent que les noms associés aux personnes noires étaient plus susceptibles que les noms associés aux personnes blanches de faire surgir des fenêtres-pubs annonçant des services de vérification de casier judiciaire. Les annonces elles-mêmes semblaient refléter des préjugés.
    La question s'est ensuite posée de savoir comment cela avait bien pu se produire. Les concepteurs du moteur de recherche se sont défendus d'avoir intégré des préjugés dans le programme. Selon eux, l'algorithme ne faisait que refléter un préjugé sociétal. Selon eux, l'explication la plus plausible est que dans les bases de données interrogées, plus de personnes dont le nom est associé aux personnes noires que de personnes portant un nom associé aux personnes blanches cherchent des services de vérification de casier judiciaire. La conclusion selon eux est que ces résultats correspondent au profil des consommateurs.
    Une partie de la réponse reste inexplicable, mais nous savons qu'il s'agit d'un puissant indicateur de la manière de ce qui peut se produire, peu importe si… La curation par algorithme organise l'agrégat de préjugés et de facteurs de discrimination, qui ont évidemment des incidences particulières pour les membres de groupes marginalisés, alors qu'ils passent inaperçus aux yeux de la population majoritaire. C'est complexe.
    Très bien. Votre temps de parole est écoulé.
    Je donne maintenant la parole à Mme Harder, pour cinq minutes.
    Je me demande s'il est possible de modifier les algorithmes pour qu'ils repèrent, en quelque sorte, les mots à la mode. Par exemple, dans Twitter, des mots qui peuvent avoir une connotation vulgaire ont été marqués comme étant négatifs chaque fois qu'ils étaient utilisés, mais il a été observé ensuite que les internautes ne les utilisaient pas dans leur sens négatif la plupart du temps, et l'algorithme a été modifié.
    En sachant cela, ma question est la suivante: s'il est possible de changer la manière dont les algorithmes guident les utilisateurs, serait-il possible de modifier les algorithmes pour faire en sorte que les internautes qui sont des mineurs n'aient pas accès à la pornographie?
    Cette question est assez technique et, si je peux parler au nom de Jane, nous ne sommes pas vraiment qualifiés pour y répondre.
    Je peux dire cependant que rien en ce monde, aucun moyen ne pourra empêcher des adolescents d'accéder à du contenu pornographique. Je sais que ce que je dis peut sembler désinvolte. Il existe des outils, et je sais qu'ils sont utilisés. C'est une question qui fait débat actuellement au Royaume-Uni. Je pense qu'une loi vient d'être adoptée à ce sujet. Le débat fait rage parmi les Britanniques quant à la sécurité dans Internet, aux mesures à prendre pour assurer cette sécurité et à leur efficacité.
    L'âge des utilisateurs peut être établi ou estimé par divers moyens. C'est une bonne partie de la tâche des algorithmes, puisque les profils sont tributaires de l'âge, mais les défis techniques sont très importants. Comme tout autre outil de blocage ou de filtrage, l'efficacité n'est jamais totale, et il y a de très fortes chances qu'ils donnent beaucoup de faux positifs. Au mieux, ces outils pourraient compléter une approche axée sur la littératie numérique ou médiatique en matière de pornographie.
(1625)
    J'aimerais intervenir. L'autre chose importante, et je crois que vous serez d'accord, est que nous ne voulons pas couper les enfants de tout le contenu sexuellement explicite. Il existe beaucoup de matériel que les enfants ont besoin de voir concernant les activités et la santé sexuelles, qu'il ne faut absolument pas confondre avec la pornographie violente. Je n'aime pas l'idée d'avoir à surveiller les enfants pour les empêcher d'avoir accès à du contenu portant sur la sexualité, que ce soit au moyen d'algorithmes de différenciation du contenu pornographique violent — qui selon moi est un problème autant pour les enfants que pour les adultes — et du matériel explicitement sexuel, auquel l'accès est important. C'est un autre problème.
    Souvent, les filtres filtrent trop. Ils interdisent l'accès à du matériel important du point de vue de la santé sexuelle, notamment, ou pour l'acquisition d'une curiosité saine à l'égard de la sexualité et de la définition de l'identité. Si je reviens au projet eGirls, les jeunes filles nous ont bel et bien dit que la surveillance était un problème, pas une solution. Je ne suis pas convaincue que les mécanismes de surveillance des enfants ou ceux qui les empêchent de voir certains contenus s'avèrent la bonne solution, même si les connaissances scientifiques nous permettraient de concevoir des algorithmes assez efficaces.
    J'ajouterai que la plupart des répercussions négatives bien documentées de la pornographie sont également causées par d'autres formes de médias présentant du contenu sexuel non explicite. La plupart des phénomènes que nous constatons chez les jeunes qui sont très probablement causés ou influencés par la pornographie sont aussi associés à des annonces, des clips musicaux et d'autre matériel à contenu sexuel. D'une certaine façon, la pornographie figure à l'extrémité du spectre, mais le fait d'en bloquer l'accès aura un effet très limité sur ces problèmes. Pour être efficaces, nous devons envisager les questions liées au genre et à la sexualité, et toutes les questions connexes dans le cadre plus large de la littératie médiatique.
    Cette séance a été extrêmement édifiante. J'aimerais remercier nos deux témoins de leur présence et de leurs éclairages. Je suis certaine que nous avons plus de questions qu'au début, mais nous n'avons plus de temps. Merci de vous être déplacés. Nous espérons avoir l'occasion de vous revoir bientôt.
    Je vais suspendre la séance le temps que le prochain groupe de témoins s'installe.

(1630)
    Nous allons reprendre nos travaux avec notre second groupe de témoins. Toutefois, j'ai des annonces à faire avant d'entamer notre prochaine discussion.
    Je voudrais rappeler aux membres du Comité que demain, c'est la Journée nationale de commémoration et d'action contre la violence faite aux femmes. Nous nous souvenons tous qu'il y a plusieurs années, l'École polytechnique a été le lieu de l'attaque la plus barbare et la plus violente jamais perpétrée au Canada, et que des étudiantes en génie, qui sont mes soeurs, ont été victimes d'horribles actes de violence sexiste. Je vous invite à vous en souvenir demain. Je sais que nous ne nous réunirons pas parce qu'il y aura des votes le soir, mais je suis certaine que d'autres activités de commémoration seront organisées.
    Je voulais également vous informer qu'aux fins de notre prochaine étude, le Comité avait l'intention de donner la parole en premier à des représentants de plusieurs réseaux de développement économique. Comme ils ont tous décliné notre invitation, ce qui est fantastique, nous aurons plutôt l'occasion de discuter avec des représentants d'Innovation, science et développement économique, d'Emploi et Développement social Canada, de Statistique Canada, ainsi que de Condition féminine Canada. Tout ce groupe pourra venir nous rencontrer durant la première heure. Au cours de la deuxième heure — les analystes ont accepté de nous transmettre notre plan de travail avant vendredi, pour que nous puissions commencer à en discuter et nous entendre au moins sur les dates des premières réunions de la prochaine année. Si personne ne s'y oppose, je suggère que nous procédions ainsi.
    Sans plus attendre, accueillons nos prochaines intervenantes. Je vous présente Sandra Robinson, chargée de cours à l'Université Carleton. J'aimerais préciser au passage que Sandra vous demande de parler fort et distinctement lorsque vous poserez vos questions pour qu'elle vous entende bien. Nous recevons également Corinne Charette, sous-ministre adjointe principale du secteur Spectre, technologies de l'information et télécommunications, du ministère de l'Industrie.
    Je vous souhaite la bienvenue, mesdames. Nous vous accordons sept minutes à chacune pour nous présenter vos déclarations préliminaires.
    Nous commencerons par vous, Sandra.
    Je vous remercie de m'avoir invitée à témoigner devant vous aujourd'hui. C'est un plaisir et un privilège de m'adresser à vous.
    Je suis membre à temps plein du corps professoral de l'Université Carleton, où j'enseigne dans le domaine des communications et des médias. Je donne des cours sur les médias et le genre, la communication et la culture juridiques, la culture algorithmique et l'analyse de données, qui sont des matières plus techniques. J'aimerais aujourd'hui vous faire part de certaines de mes préoccupations et réflexions concernant le rôle des algorithmes dans le contexte des communications électroniques, et notamment ceux qui sont utilisés par les médias sociaux et les moteurs de recherche. Je parlerai plus particulièrement du domaine plus global de la curation automatique de contenu par algorithme.
    Comme ces sujets ont déjà été discutés, je vais me concentrer sur trois aspects: la définition des algorithmes et leur fonctionnement; le compromis entre les interfaces utilisateur et la complexité croissante des logiciels et, enfin, les répercussions de la curation de contenu par algorithme.
    Je tiens à préciser d'emblée ce que j'entends par le terme « algorithme ». D'une manière très simple, dans le contexte des systèmes d'information et des communications électroniques, un algorithme peut être décrit comme une séquence d'étapes ou de procédures de calculs effectués à partir de données saisies afin d'obtenir un résultat précis. Par exemple, un terme d'interrogation saisi dans le moteur de recherche Google mènera à différents résultats de recherche.
    Par ailleurs, les algorithmes ne fonctionnent pas de manière autonome. Ils font partie d'un réseau complexe formé de dispositifs numériques, de personnes et de processus constamment à l'oeuvre dans notre environnement de communication moderne.
    Un système algorithmique est doté d'une capacité intégrée de contrôle des données qu'il analyse, dans la mesure où il assure la curation, ou l'organisation des résultats à partir de la multitude de facteurs ou de capacités que l'algorithme utilise pour générer des résultats. Si je reprends l'exemple du moteur de recherche Google, il repose sur une série d'algorithmes qui tiennent compte du terme d'interrogation, de l'historique de recherche personnel, des données historiques similaires agrégées, du lieu, de la popularité et de beaucoup d'autres facteurs pour générer un ensemble particulier de résultats filtrés selon l'utilisateur.
    L'une des choses étonnantes concernant les algorithmes intégrés à nos communications modernes est que ces systèmes de calcul en savent beaucoup plus sur nous que nous en savons sur eux. Ils sont souvent mystérieux et opaques, comme il a déjà été dit. En fait, ce sont des chambres noires où se trouvent les commandes qui régissent le domaine de l'information et qui sont constamment à l'oeuvre pour moduler les flux d'information, déterminer ce que nous voyons et dans quel ordre, et nous inciter à poser certaines actions en structurant nos choix.
    Les algorithmes contrôlent automatiquement le contenu, mais seulement parce qu'ils ont été conçus de cette manière. La capacité de curation ou de tri de l'information par les algorithmes a été conçue pour se déployer à l'arrière-plan de l'interface utilisateur des applications populaires de recherche et de médias sociaux. Nous n'interagissons jamais directement avec les algorithmes. La curation et le filtrage de l'information peuvent se dérouler sous nos yeux, mais il n'est jamais possible de comprendre ce qui se passe au juste. Par exemple, les interventions simplifiées se résument maintenant à des glissements, des touches, des clics sur les icônes de nos applications mobiles. La manipulation est extrêmement simple.
    La complexité inouïe des algorithmes qui font la curation automatique des contenus passe inaperçue derrière l'infrastructure logicielle et numérique à la base des communications en réseau. Il en découle un effet de distanciation entre les utilisateurs humains et la complexité des systèmes avec lesquels ils interagissent, dont Google Search n'est qu'un exemple. C'est pourquoi nous avons de la difficulté à faire des liens entre nos choix simples de boutons ou nos requêtes et la portée réelle de ces gestes. Il ne nous viendrait pas forcément à l'esprit que nos actions individuelles ont une incidence sur la hiérarchisation et le tri d'autres recherches d'information ou sur la popularité d'une nouvelle publiée sur un fil.
    Les exploitants de médias sociaux nous expliquent que les mentions « j'aime» ou les émoticônes d'appréciation ou de contestation nous permettent de donner des rétroactions aux autres utilisateurs, sur des histoires ou sur des articles, et nous permettent de tisser des liens avec des enjeux, des idées ou des personnes qui nous tiennent à coeur. Or, ces dispositifs servent plutôt à nous montrer comment saisir de l'information qui alimente l'algorithme afin qu'il puisse générer ses résultats, et notamment pour qu'il puisse hiérarchiser le contenu affiché et mis en commun à partir de ces paramètres.
    Dernièrement, il m'est arrivé quelque chose qui m'a rappelé la puissance des outils de curation par algorithme. En une semaine seulement, la publication de contenu original et offensant par un groupe d'utilisateurs de Facebook a rapidement dégénéré, et des centaines de réactions ou de clics sur les boutons « j'aime », « grrr » et « haha » ont contribué à accroître la visibilité de cet incident de cyberintimidation sur les fils de nouvelles. Pour paraphraser la déclaration du site Facebook sur le tri par pertinence des algorithmes d'un fil de nouvelles, toute réaction assimilable à une mention j'aime est interprétée comme voulant dire que l'utilisateur souhaite voir plus de contenu de ce genre. Ces actions très simples alimentent directement l'algorithme et contribuent à gonfler la popularité d'un enjeu.
    L'algorithme de saisie semi-automatique de Google me donne encore plus la chair de poule. Même si Google se tue à dire au grand public que son algorithme qui déroule un menu de suggestions quand vous saisissez votre requête est tout à fait objectif et qu'il ne peut associer des noms à des saisies semi-automatiques offensantes, du contenu douteux est tout de même affiché par l'intermédiaire du graphe de connaissance dynamique.
(1635)
    Le graphe de connaissance dynamique de Google combine les résultats de recherche en une page contenant des images, des liens à des sites, des histoires, etc., mais l'information combinée peut être douteuse. Par exemple, l'algorithme de saisie semi-automatique continue de révéler des détails des horribles événements vécus par la défunte Rehtaeh Parson, propagés par des trolls d'Internet. Ce contenu est encore accessible dans les suggestions d'images et d'autre contenu troublant au bas de la page des résultats dans Google.
    L'évolution récente des techniques de curation automatisée milite pour un renforcement des efforts en matière de littératie numérique, dont vous avez discuté tout à l'heure. Il est impératif que les jeunes puissent développer leur esprit critique et qu'ils abordent cet univers avec un sens éthique. J'ajouterai qu'un effort spécial doit être consacré à la sensibilisation des jeunes à l'existence des algorithmes. L'important n'est pas de les initier à leur complexité mathématique, mais de les amener à comprendre ce qui se cache derrière les gestes apparemment simples que les jeunes sont si prompts à poser.
    La visibilité, la publicité, le contenu partagé, les votes sur Snapchat ne sont qu'une partie des valeurs de comptabilité sociale que les jeunes embrassent aujourd'hui. Tout cela repose sur une infrastructure subtile, mais néanmoins complexe, un monde de communication et de contrôle dominé par des algorithmes qui laissent très peu de pouvoir aux utilisateurs.
    Les opérations de tri, de hiérarchisation et d'archivage par algorithme sont constantes et incessantes. C'est un travail qui se déroule sans relâche en arrière-plan lorsque les utilisateurs de réseaux sociaux et de moteurs de recherche naviguent dans Internet, font des clics, consultent du contenu, font des requêtes, publient, partagent du contenu, retweetent, inscrivent une mention (@), utilisent un mot-clic et réagissent. Aux yeux des utilisateurs, ces actions et leurs résultats immédiats sont symboles de dynamisme et de vitalité. Leur grand avantage est de simplifier nos recherches d'information et les communications, mais ils ont aussi le grand inconvénient d'amplifier certaines de nos manières les plus douteuses et discriminatoires de nous exprimer, d'agir et de nous manifester en ligne.
    Je vous remercie. Je me ferai un plaisir de répondre à vos questions.
(1640)
    C'était une excellente présentation.
    Corinne, vous avez sept minutes.
    Merci beaucoup, madame la présidente. Je vous remercie d'avoir invité Innovation, Sciences et Développement économique Canada à venir vous parler du domaine de l'analyse des mégadonnées et de ses applications à la création de contenu fondé sur des algorithmes, parfois au détriment des jeunes filles et des femmes.

[Français]

    C'est une question importante pour moi, non seulement parce qu'elle a des répercussions sur mon travail, mais aussi parce que je suis une femme ingénieure et que j'étais à Montréal lors des événements de Polytechnique, qui m'ont totalement anéantie.

[Traduction]

    Après avoir obtenu mon diplôme de génie électrique, j'ai eu l'immense chance d'occuper des fonctions extrêmement enrichissantes dans le domaine des technologies au sein d'organismes importants comme IBM, KPMG et le Centre d'analyse des opérations et déclarations financières du Canada, le CANAFE, chargé de détecter les opérations de blanchiment d'argent. J'étais dirigeante principale de l'information pour le gouvernement avant d'occuper mon poste actuel de sous-ministre adjointe principale du secteur du Spectre, technologies de l'information et télécommunications. Je travaille dans le secteur des technologies depuis 30 ans, et j'ai été un témoin privilégié de nombreux progrès marquants, y compris Internet et l'analyse des mégadonnées.

[Français]

    Maintenant, mon travail de sous-ministre adjointe consiste à utiliser les outils essentiels, c'est-à-dire les politiques, les programmes, les règlements et la recherche en télécommunications, pour que l'économie numérique canadienne profite à tous les citoyens du pays.

[Traduction]

    En résumé, mon secteur est responsable de nombreux programmes, dont celui du spectre des radiofréquences, en contribuant au maintien de la sécurité de notre infrastructure de télécommunications essentielle, ainsi qu'à l'instauration d'un climat de confiance dans l'économie numérique. Nous protégeons la vie privée des Canadiens en veillant à l'application de la Loi sur la protection des renseignements personnels et les documents électroniques, la LPRPDE, qui encadre la protection des renseignements personnels dans le secteur privé, ainsi que de la Loi canadienne anti-pourriel, la LCAP. En ma qualité, je peux affirmer que le gouvernement canadien est déterminé à exploiter les avantages de l'analyse des mégadonnées en favorisant la découverte, l'interprétation et la communication de tendances significatives dans les données, sans compromettre la protection des renseignements personnels des Canadiens.

[Français]

    Aujourd'hui, j'aimerais faire part au Comité de deux idées qui se complètent concernant la conservation du contenu fondée sur les analyses prévisionnelles et les algorithmes.

[Traduction]

    La première se rapporte à la gestion individuelle de nos données numériques, et la deuxième à l'engagement du gouvernement canadien à instaurer un climat de confiance dans l'économie.

[Français]

    J'aimerais dire d'abord que ce que les citoyens, les gens du milieu des affaires et ceux du gouvernement font en ligne tous les jours génère une quantité astronomique de données sur notre monde et sur nous en tant qu'individus.

[Traduction]

    Au quotidien, les entreprises et les consommateurs produisent des milliards de milliards de gigaoctets de données, structurés ou non, de textes, de vidéos et d'images. Des données sont recueillies chaque fois qu'une personne utilise un appareil mobile, un système de localisation GPS, fait un achat électronique, etc. Ces données peuvent fournir des connaissances très utiles pour le développement de produits et de services, la prédiction des préférences personnelles et l'orientation du marketing personnalisé.
    Ce domaine de connaissances ouvre des perspectives fabuleuses pour les innovations canadiennes. Selon International Data Corporation, la valeur du marché de l'analyse des mégadonnées devrait dépasser les 187 milliards de dollars en 2019. Le volume des données à analyser doublera rapidement et progressivement. En revanche, une grande inconnue inquiète de plus en plus: les avantages de l'analyse des mégadonnées parviendront-ils à compenser les dangers et les risques reliés?
    Un nombre grandissant d'études indiquent que des décisions et des résultats biaisés peuvent avoir des répercussions notamment sur l'accès à des études supérieures ou à des occasions d'emploi. Inutile de dire qu'il est primordial de bien comprendre l'origine des tendances défavorables à certaines personnes et comment les contrer. Ce phénomène s'explique en partie par la piètre conception des algorithmes — du point de vue des utilisateurs — ou par la piètre sélection des données, qui peut aussi être incorrecte ou peu représentative d'une population.

[Français]

    Il est facile de constater que les données irrégulières et les algorithmes de mauvaise qualité peuvent donner des analyses prévisionnelles médiocres, c'est-à-dire préjudiciables aux individus.

[Traduction]

    Je suis d'accord avec ma collègue sur le fait que l'atténuation des risques doit commencer par une meilleure littératie numérique des Canadiens. Cet outil est de plus en plus nécessaire pour comprendre quelles traces nous laissons en ligne. La littératie numérique procurera aux Canadiens les connaissances et les outils requis pour utiliser Internet et les technologies de manière efficace, en gardant un esprit critique et responsable.
    La gestion personnelle des renseignements personnels dans Internet peut aider les Canadiens, et particulièrement les jeunes femmes et les filles. Cependant, nous avons besoin d'appuis, ce qui m'amène à mon deuxième point. Nous avons besoin de cadres comme celui qui est offert par la LPRPDE pour protéger nos renseignements personnels. Cette loi fédérale sur la protection des renseignements personnels établit un cadre réglementaire souple, fondé sur des principes, de protection des renseignements personnels.
    Les principes établis par la LPRPDE, neutres sur le plan technologique, reposent sur le concept voulant que les particuliers devraient avoir un certain degré de contrôle sur les renseignements que les entreprises recueillent sur eux et la manière dont ils sont utilisés, sans égard aux circonstances.
(1645)
    Il est évident que certains renseignements, notamment les données démographiques, la situation géographique, etc., peuvent jouer un rôle déterminant pour la publicité ciblée. C'est ce genre de données que les algorithmes utilisent pour générer des recommandations, mais ils peuvent également avoir de sérieuses répercussions sur la protection des renseignements personnels. C'est d'autant plus inquiétant quand on pense au manque de transparence des politiques de nombreux sites Internet à cet égard, et à la méconnaissance de l'utilisation qui peut être faite des données personnelles que les jeunes, mais aussi des Canadiens plus âgés, fournissent volontiers.

[Français]

    Nous devons trouver le juste équilibre entre la vie privée et les possibilités économiques découlant de la cueillette de renseignements.

[Traduction]

    Pour conclure, Innovation, Sciences et Développement économique Canada

[Français]

oeuvre avec un certain nombre d'autres ministères à promouvoir l'utilisation de techniques prévisionnelles numériques au sein du gouvernement, mais également au sein du secteur privé.

[Traduction]

    Nous devons promouvoir une meilleure compréhension des possibilités et des risques qui sont rattachés à l'univers numérique, des utilisations qui peuvent être faites de nos données, ainsi que de l'obligation de ceux qui utilisent les analyses prévisionnelles d'assurer la protection des renseignements personnels. C'est essentiel pour que tous puissent tirer profit des avantages offerts, et particulièrement les jeunes femmes et les filles.
    Je vous remercie d'avoir inclus cette question dans le cadre de vos importants travaux.

[Français]

    Merci.
    Merci beaucoup.
    Nous allons commencer la période de questions et commentaires.
    La parole est à Mme Ludwig.

[Traduction]

    Vous avez sept minutes.
    Je vous remercie de nous avoir présenté vos remarques préliminaires.
    Je vais commencer par vous parler de mon expérience personnelle. Dans le cadre de mes travaux de doctorat en éducation, j'ai notamment étudié le volet de la technologie. J'ai aussi donné des cours à des enseignants sur la construction de programmes d'études. Dans les deux cas, j'ai constaté à quel point il pouvait être difficile de faire passer le message — cette remarque s'adresse à Mme Robinson — sur l'utilisation de la technologie en classe et sur ses répercussions, surtout si on considère que beaucoup d'enseignants de la maternelle à la 12e année n'ont jamais entendu parler de technologies dans le cadre de leur formation initiale en pédagogie. Un jour, les technologies sont parachutées dans leur classe, c'est tout.
    Quelle serait votre recommandation au Comité pour aider les enseignants à comprendre les répercussions des technologies dans le système d'éducation de la maternelle à la 12e année, notamment? Où recommandez-vous d'intégrer cette matière? Dans un cours d'éducation sexuelle ou dans un cours sur les répercussions générales des algorithmes?
    C'est une excellente question. Merci.
    C'est un sujet qui m'intéresse particulièrement parce que je suis en contact avec des jeunes qui en sont à leur première année d'université. Je crois donc avoir une bonne idée de l'absence de littératie numérique. Snapchat n'a aucun secret pour eux, mais ils ont de la peine à comprendre comment cette technologie fonctionne exactement.
    Je crois que nous devons coordonner nos efforts sur les enseignants des élèves qui s'apprêtent à faire une irruption fracassante dans le monde numérique. Ma première recommandation serait d'offrir une bonne formation aux enseignants. On pourrait même désigner des champions dans les écoles ou les programmes parmi les enseignants qui sont à l'aise avec les technologies, qui pourraient devenir des leaders et encourager leurs collègues. Les technologies font souvent peur, et la plupart des études révèlent que les femmes les craignent davantage. Il faut créer un environnement sûr et propice qui favorisera une bonne réflexion sur le genre de participation souhaité.
    Il ne faut pas se contenter d'aborder les applications logicielles de manière superficielle, se limiter aux modes d'emploi… Nous avons bouclé la boucle pour ce qui concerne Internet. Le temps est venu de revenir en arrière et de prendre un temps d'arrêt. Les interfaces utilisateur simplistes camouflent un écosystème logiciel extrêmement touffu, et nous ne pouvons pas faire l'économie de tenter de comprendre ce qui se passe et de partager ce que nous avons appris aux jeunes et à nos pairs, pour permettre à tous d'entrer de plain-pied dans le XXIe siècle. J'estime qu'il est absolument fondamental de donner cette formation aux élèves avant les niveaux supérieurs de leur scolarité, avant qu'ils arrivent au secondaire. À mon avis, il n'est jamais trop tôt, si l'on considère que les jeunes et même les enfants ont déjà des téléphones cellulaires.
    Merci.
    Madame Robinson, j'aimerais revenir sur votre suggestion de désigner des « champions » de la technologie. Vous connaissez sans doute les théories concernant l'adoption et l'intégration des technologies. Les premiers utilisateurs sont toujours les mieux récompensés, notamment dans le domaine de l'éducation. Ceux qui hésitent et qui se demandent pourquoi et ce que peuvent leur apporter les technologies sont appelés les résistants. Merci pour cette suggestion.
    Marshall McLuhan est réputé pour son aphorisme « le médium est le message ». Je n'ai pas pu m'empêcher de m'en souvenir en écoutant les exposés de nos témoins d'aujourd'hui. La manière dont un message est transmis peut l'emporter sur son contenu. Dans une très grande partie de ce que nous avons entendu au sujet de la cyberintimidation, il a été question d'agresseurs anonymes. Selon ce que j'ai appris aujourd'hui, le système même des algorithmes est conçu pour favoriser le marketing ciblé, comme Mme Charette l'a mentionné. À bien des égards, ces algorithmes créent un environnement qui facilite le ciblage des victimes. Est-ce que l'une d'entre vous est d'accord?
(1650)
    Je dirais que c'est le volume de données librement accessibles sur Internet, qu'il est facile d'agréger au moyen d'outils très simples comme les moteurs de recherche de toutes sortes, qui permettent à des internautes mal intentionnés d'exploiter des renseignements sur des personnes ou des groupes. Le problème ne vient pas toujours des algorithmes.
    Essentiellement, les algorithmes ont besoin de données accessibles en ligne pour fonctionner. Il est ahurissant de constater la quantité de données que la plupart des gens acceptent de fournir en ligne, tous les jours et de manière délibérée — et non délibérée la majorité du temps. Au fil du temps, ils laissent énormément de traces que les moteurs de recherche et d'autres outils récupèrent pour en faire l'agrégation.
    Si vous me le permettez, je vais me concentrer sur les traces que nous laissons, en prenant l'exemple d'une famille de cinq qui utilisent un seul et unique ordinateur. Un membre de la famille ouvre une session avec un code, ou même sans code. Bien entendu, les âges varient, et il est donc possible qu'un enfant qui utilise l'ordinateur pour faire ses devoirs — on peut penser que cet enfant, sans le vouloir, à cause de ses parents ou d'un autre membre de la maisonnée qui ont des intérêts différents, puisse être confronté à des images ou à des messages qui ne lui sont pas destinés? Est-ce que, à cause des traces qui sont laissées, un contenu pourrait être affiché même s'il n'est pas destiné à la personne qui utilise à ce moment l'ordinateur partagé?
    Il ne fait aucun doute que des gens malveillants peuvent infiltrer des réseaux, même les réseaux et les ordinateurs domestiques, et trouver le moyen d'atteindre les enfants ou les adultes qui les utilisent. De nos jours, la plupart des foyers disposent de plusieurs appareils connectés à Internet, soit au moins un téléphone cellulaire, souvent une tablette ou un ordinateur que les enfants utilisent pour faire leurs devoirs — dorénavant, les devoirs se font souvent en ligne. À ceux-là peuvent s'ajouter toutes sortes d'appareils commandés par Internet comme un thermostat, un téléviseur intelligent, et j'en passe. À toute heure du jour, des flux de données sont transmis par ces appareils domestiques, dont la nature varie selon les utilisateurs.
    Ma question suivante portera justement sur ce point. Comme les travaux du Comité portent entre autres sur la cyberintimidation et la violence envers les jeunes femmes et les filles, les membres ont à coup sûr fait leurs propres recherches dans Google. Est-ce que nous laissons aussi des traces sur la violence envers les femmes et les filles à cause de nos recherches dans certains sites? Est-ce que nos recherches laissent aussi des traces qui sont utilisées pour peaufiner notre profil?
    Je vais laisser Sandra répondre à cette question.
    Je suis contente que vous souleviez ce point parce que…
    Votre temps est écoulé, je suis désolée.
    Je dois donner la parole à Mme Harder. Vous avez sept minutes.
    Si vous pouvez nous faire un résumé d'une minute, je vous invite à compléter votre intervention.
    Oui, bien sûr. Même quand nous faisons des recherches avec la meilleure intention du monde, il y a escalade et nous contribuons à alimenter les algorithmes. C'est la réalité, malheureusement.
    D'accord.
    J'ai posé cette question aux témoins précédents, et je vous la repose parce que je veux savoir ce que vous en pensez. Concernant l'utilisation des algorithmes, vous utilisez le terme « curation ». C'est un terme que j'aime beaucoup, qui me semble très bien choisi. On parle aussi de contrôle du trafic, entre autres. Ma question aux autres témoins était la suivante: serait-il possible d'utiliser des algorithmes pour bloquer l'accès des mineurs à du contenu pornographique, un peu comme les algorithmes sont utilisés par des sites comme Twitter? Les algorithmes sont configurés pour détecter des mots vulgaires comme « putain » ou « chienne », n'est-ce pas? Serait-il possible de configurer des algorithmes pour qu'ils guident de manière positive les jeunes utilisateurs?
    Le problème est qu'Internet ne regroupe pas les internautes selon l'âge, sauf si un moteur de recherche exige qu'ils donnent leur âge. Des filtres parentaux intégrés à une connexion Internet peuvent bloquer l'accès de ces sites aux plus jeunes à partir de l'ordinateur à la maison, à l'instar des filtres installés par les entreprises ou les gouvernements pour empêcher les utilisateurs de consulter des sites malveillants, entre autres. Malheureusement, une recherche est générée par un utilisateur anonyme.
(1655)
    D'accord.
    Avez-vous quelque chose à ajouter?
    Je suis d'accord. J'ajouterais qu'à cause de la très grande quantité d'appareils mobiles en circulation — le problème avec ce genre de solutions uniques est que les plateformes fonctionnent assez différemment, c'est-à-dire les plateformes de technologie mobile et celles des navigateurs des ordinateurs de bureau ou portables. Il est donc difficile d'en faire un utilitaire général pour bloquer l'accès.
    Merci.
    J'ai une autre question, à laquelle vous pourrez répondre toutes les deux. J'imagine que la question fondamentale au sujet des algorithmes est celle de savoir si une mesure législative pourrait imposer des paramètres d'utilisation, notamment pour protéger nos jeunes? En fait, c'est ce qui m'intéresse le plus. Serait-ce possible?
    Je ne crois pas. Jusqu'ici, la réglementation ne nous a pas vraiment aidés dans nos efforts de balisage ou de contrôle des flux d'information. Ils parviennent toujours à passer à travers les frontières poreuses dans lesquelles nous tentons d'enfermer les communications. À mon avis, l'éducation est un outil beaucoup plus puissant.
    À l'heure actuelle, la législation sur les entreprises et les organismes privés est beaucoup plus délicate, notamment parce qu'il en existe de toutes sortes et que leurs méthodes de collation et de curation sont très diversifiées. Chaque algorithme est exclusif et protégé par le secret commercial. C'est comme la recette du poulet frit Kentucky: jamais elle ne sera divulguée.
    Des voix: Oh, oh!
    Dre Sandra Robinson: Corinne, voulez-vous répondre à la question?
    J'ajouterais qu'il ne faut pas oublier le concept d'un cyberespace libre et ouvert. En matière de censure, il peut être très difficile de trouver des solutions justes si on ne connaît pas l'utilisateur. Je ne suis pas convaincue que c'est la meilleure avenue pour atteindre notre objectif.
     Merci.
    De nouveau, j'aimerais vous entendre toutes les deux sur ma prochaine question. Comment pouvons-nous changer le discours public et faire en sorte de mieux sensibiliser les internautes à la manière dont les algorithmes influencent leur vie quotidienne? Comment y arriver? Comment pouvons-nous influencer le discours public?
    Nous pouvons commencer par expliquer ce qui se passe dans le cyberespace à tous les Canadiens ordinaires, qui ne sont pas forcément des spécialistes des technologies et qui sont donc moins susceptibles de comprendre ce qui se passe quand ils font des recherches, ou de connaître les rouages de chaque algorithme et de chaque fonction. Il faut éduquer les Canadiens ordinaires, les enseignants, les parents, les élèves du secondaire, et même ceux du primaire.
    Selon moi, dès le primaire, il faut expliquer ce qui se passe quand nous utilisons un navigateur et les conséquences de nos activités en ligne, en utilisant un langage courant. Par exemple, on peut demander aux élèves s'ils laisseraient une photo peu flatteuse d'eux-mêmes au milieu de la classe. La réponse sera probablement non, et ouvrira la porte à des questions comme celle de savoir pourquoi ils acceptent de les publier dans Internet, alors que beaucoup plus de gens pourront la voir.
    En tant que société, nous nous trouvons devant l'immense défi de faire en sorte que les concepts de plus en plus complexes du monde numérique deviennent « concrets » dans l'esprit de tous, en donnant aux enfants, aux adolescents et aux adultes des exemples concrets concernant leurs activités et les conséquences possibles. Selon moi, nous ne le faisons pas suffisamment, loin de là.
    Je suis d'accord. Je crois que la campagne électorale américaine a mis à l'avant-plan dans le discours public le thème des conséquences de ce qui est exprimé en ligne, des propos haineux, des longs débats sur ce que certaines personnes ont dit et leurs conséquences, et de l'incidence de nos idées lorsque nous naviguons dans Internet. L'autre aspect qui ressort est qu'il semble très difficile d'encadrer ce discours, n'est-ce pas?
    C'est une question complexe. Je pense que l'éducation est la clé, mais il faut aussi faire un lien avec les mécanismes outrancièrement simplissimes de téléchargement, de publication de contenu, de clics sur l'icône de coeur, etc. Il existe un gouffre immense entre le fait de poser ces gestes et la réalisation de leurs conséquences véritables. Chaque itération fait grimper la cote de popularité du contenu. Chaque fois qu'un utilisateur clique sur un bouton « j'aime » ou « je n'aime pas », ou sur une émoticône quelconque, il contribue à mousser la popularité d'un contenu. Peu importe qu'il soit horrible ou magnifique, il prend du galon.
(1700)
    Merci.
    Je donne maintenant un temps de parole de sept minutes à Mme Malcolmson.
    Merci, madame la présidente.
    Et merci à nos deux témoins.
    Pouvez-vous nous donner des exemples inspirants d'algorithmes qui ont été efficaces pour dépister, dénoncer ou prévenir et éliminer des activités de cyberviolence?
    Hélas, aucun exemple ne me vient à l'esprit. Je crois qu'il serait possible d'améliorer les mécanismes de traitement du langage naturel et d'apprentissage machine pour qu'ils nous aident à pister les propos entretenus dans la sphère Twitter et sur Facebook. Au fil du temps, ces mécanismes pourraient renforcer notre capacité à intercepter directement les activités discriminatoires, mais c'est extrêmement difficile. Les algorithmes ne peuvent pas être plus intelligents que les personnes qui les forment et que les données qui y sont versées. C'est assez compliqué.
    Mme Corinne Charette: C'est juste.
    Est-ce que je dois en conclure que la réponse est « non »?
    Je sais que de nombreux algorithmes en ligne offrent de multiples avantages, mais pas forcément dans le domaine de la lutte à la cybercriminalité. Par exemple, dans le domaine de la technologie médicale, il se fait beaucoup de travail sur les mégadonnées, notamment dans l'espoir de trouver des traitements pointus personnalisés et ce genre de choses. Les mégadonnées offrent énormément de possibilités extraordinaires, mais je n'en connais aucune pour ce qui concerne la lutte à la cybercriminalité.
    J'aimerais beaucoup avoir de bonnes nouvelles. Avez-vous de bons exemples d'outils utilisés par la communauté des internautes, selon une approche humaine, pour dépister la cyberviolence, la dénoncer et s'y attaquer?
    Oui. Il existe des exemples phares de cette approche dans Facebook. Des groupes de femmes se sont mobilisés pour concevoir une réponse au refus de Facebook de retirer des images et du contenu violents et sexistes. Il leur a fallu un peu de temps. Le mouvement a été initié au Royaume-Uni. Les femmes ont réussi à faire reculer Facebook.
    Je pense qu'un mouvement analogue a été lancé dans les quatre derniers mois sur Twitter. Une campagne bien orchestrée de réaction peut faire toute la différence. En plus de la mobilisation individuelle, la contribution de groupes de défense des intérêts peut augmenter la visibilité du mouvement en raison de leur capacité à exploiter diverses plateformes de médias sociaux.
    Bref, il existe des exemples inspirants, qui ne sont pas forcément liés à la cyberintimidation et au cyberharcèlement — il peut s'agir de femmes qui réagissent contre Instagram et Facebook par suite du retrait de leurs photos les montrant en train d'allaiter leur bébé, interceptées par des algorithmes de dépistage de la nudité.
    Les gens ont des moyens à leur disposition pour organiser une campagne de lutte contre la violence en ligne, les discours violents ou les propos haineux, des moyens qui ont porté leurs fruits.
    Comment faire pour que ces activités n'alimentent pas les trolls, ce qu'il faut éviter à tout prix?
    Par exemple, dans le cadre de ces campagnes, les groupes ont évité d'utiliser les mêmes mots-clics pour publier leurs réactions. Ils se sont adressés directement aux dirigeants de Facebook, aux responsables de Twitter, ou à ceux d'Instagram. Je pense que c'est la meilleure façon d'organiser la réplique: il faut répondre à ceux qui ont le pouvoir de changer la structuration de l'information publiée sur leurs plateformes de réseaux sociaux.
    Donc, pour ce qui a trait à notre rapport final, qui devrait être publié très bientôt, avez-vous des recommandations à formuler que vous seriez enchantées de lire dans le rapport? Quelles recommandations pourrions-nous faire au gouvernement fédéral qui vous rendraient particulièrement heureuses?
    Personnellement, je serais ravie si un engagement était pris de faire avancer ce dossier par le truchement de l'éducation, depuis l'école primaire jusqu'à l'école secondaire et même après. J'utilise le matériel d'HabiloMédias dans les cours que je donne aux universitaires de la 1re à la 4e année. Il est de très grande qualité. Les étudiants s'y retrouvent, ils se sentent concernés. Ils le consultent sans que j'aie à le demander. Je suis une éducatrice, et je suis intimement convaincue que c'est la voie à suivre.
(1705)
    Je suis tout à fait d'accord avec Sandra. J'estime que le gouvernement fédéral doit faire tout ce qu'il peut pour financer, promouvoir et encourager l'éducation des jeunes filles et des jeunes garçons, dès l'école primaire, une éducation qui sera fondée sur des méthodes, un vocabulaire et du matériel vulgarisé auxquels ils pourront s'identifier, et qui inclura aussi les parents. Je crois que l'opacité de cette question vient du fait qu'il est trop facile de faire des clics sans comprendre les ramifications des choix ou des recherches qui sont faits dans Internet.
    Les gens doivent comprendre ce qu'ils font, autant qu'ils doivent savoir conduire ou faire des opérations bancaires. Il est temps que notre société accorde l'importance voulue à cette réalité. Les progrès constants des capacités de traitement et du volume des données sont constants, et les connaissances des utilisateurs de ces technologies doivent évoluer au même rythme. Nous devons approfondir notre compréhension pour garder un regard critique sur nos activités en ligne, sur la manière de les faire, les outils à utiliser et ceux qu'il faut éviter.
    Merci, madame la présidente.
    C'est au tour de Mme Fraser. Vous avez sept minutes.

[Français]

    Merci, madame la présidente.
    Avant de poser des questions, je voudrais remercier les témoins de leur présence ici aujourd'hui.
    J'ai une question qui s'adresse à Mme Charette.

[Traduction]

    Vous avez effleuré le sujet des pratiques novatrices et de la panoplie d'applications extraordinaires qui sont offertes, mais aucune ne semble liée directement au domaine de la violence contre les femmes. Je suis emballée par les progrès annoncés au Canada concernant une expérience utilisateur personnalisée sur le Web. Je pense que nous avons à notre disposition beaucoup d'applications extraordinaires, autant du point de vue des consommateurs que de celui des entreprises.
    De toute évidence, je partage les préoccupations de mes collègues quant au fait qu'Internet semble avoir atteint des sommets dans sa capacité de nous montrer des résultats positifs, mais également des résultats moins appropriés, qu'on le veuille ou non.
    Pour ce qui est de la formulation de recommandations au gouvernement, votre message est on ne peut plus clair: nous devons placer l'éducation au haut de la liste. Selon vous, devrions-nous avoir certaines réserves pour ne pas entraver le développement de pratiques novatrices prometteuses par le secteur privé?
    À mon avis, peu importe le sujet, il faut tenir compte de tous les points de vue. Il faut éviter de ne voir que les aspects négatifs des mégadonnées et de leur analyse, et les sombres perspectives dans ce domaine. Nous devrions continuer de mettre l'accent sur les aspects positifs des mégadonnées, utilisées entre autres pour prédire les phénomènes météorologiques ou, par l'entremise des médias sociaux, pour mobiliser rapidement des communautés en cas d'urgence ou pour retrouver une personne disparue, par exemple.
    Il faut parvenir à un dialogue équilibré, qui met de l'avant les exemples inspirants d'utilisation de l'analyse des mégadonnées et les débouchés économiques extraordinaires des grandes innovations des entreprises qui développent ces outils, qui recueillent les mégadonnées et mettent des données ouvertes à notre disposition. Le gouvernement fédéral encourage énormément le domaine des données ouvertes par l'entremise de son portail. De nombreux ensembles de données ouvertes, dont un bon nombre dans le domaine géospatial, aident les Canadiens et les citoyens du monde à comprendre les différents éléments constitutifs du pays.
    C'est très bien.
    Madame Robinson, voulez-vous ajouter quelque chose? Je veux m'assurer que nous avons envisagé tous les dangers potentiels avant de nous engager sur cette voie.
    Sur la question de la cyberviolence et de la cyberintimidation, je pense qu'il sera difficile pour les entreprises canadiennes de ne pas faire cause commune. Par conséquent, les mesures de lutte qui seront prises ne devraient pas nuire aux mécanismes de collecte des données qui sont essentiels à quiconque veut faire des affaires de nos jours. Je crois qu'il faut éviter toute forme de contrainte dans ce domaine. Ce ne serait pas réaliste dans le contexte actuel.
    Cela étant dit, la question est loin de se limiter aux endroits où les données sont recueillies ou à la manière dont elles le sont, parce qu'il est absolument hors de question de revenir en arrière. Il faut plutôt nous préoccuper des conséquences dans cet environnement interconnecté, social et communicatif dans lequel les gens, et particulièrement les jeunes, s'investissent avec tant d'enthousiasme. Je crois qu'il y a une bonne différence entre les objectifs d'une entreprise et ce niveau de communication, et que nous devrions trouver un terrain d'entente.
(1710)
    Concernant les espaces sociaux auxquels vous faites allusion… Vous avez parlé assez longuement du gouffre énorme qui existe entre la simplicité des interfaces utilisateur et les algorithmes en arrière-plan. Même s'il était possible de dévoiler ce qui se cache derrière une interface utilisateur et d'exposer au grand jour la complexité des dispositifs, je ne vois vraiment pas à quoi toute cette nouvelle information pourrait servir. Si nous dévoilons toute cette mécanique obscure, comment le gouvernement fédéral pourra-t-il utiliser cette information pour garantir la sécurité de l'espace social pour les jeunes femmes et les filles?
    Je ne vois qu'une façon d'ouvrir la boîte noire mystérieuse où toutes ces opérations se trament, et c'est par l'ingénierie inverse, par l'étude de leur fonctionnement. Il faut se rendre à l'évidence, les entreprises qui ont la propriété exclusive des plateformes des algorithmes ne voudront pas dévoiler leur fonctionnement, pour protéger leurs secrets commerciaux et pour des raisons de concurrence. D'ailleurs, je ne crois pas que nous devrions exiger qu'elles nous livrent leurs secrets, mais nous pourrions amener les internautes à comprendre ce qui se passe vraiment après qu'ils ont cliqué sur un bouton. Quels sont les principes à l'oeuvre pour que des contenus publiés dans Twitter deviennent populaires? Quels types de choix les internautes font-ils, et quels sont les liens entre leur décision de cliquer sur un bouton de réaction dans Facebook et les conséquences concrètes de cette action?
    Selon moi, pour lever le voile, il faut expliquer qu'une action aussi immatérielle qu'un clic a des conséquences concrètes, notamment quand il est question de cyberintimidation et que l'effet est réel pour les jeunes femmes qui sont victimes de ces pratiques en ligne.
    Il faut faire en sorte que l'utilisateur final du produit prenne des décisions éclairées quand il clique sur le bouton « j'aime » ou un autre. C'est ce que vous dites?
    Oui, c'est ainsi que je vois les choses.
    D'accord. Merci beaucoup.
    Les témoins précédents nous ont parlé du concept d'embrigadement et, plus particulièrement, de la capacité de groupes qui ont de vils desseins à envahir une plateforme et à en prendre le contrôle. À votre connaissance, existe-t-il un outil ou une stratégie technique pour prévenir ce genre de mainmise sur une plateforme sociale par ailleurs tout à fait utile?
    Pas vraiment. Google et d'autres font actuellement des pieds et des mains pour anticiper ce genre d'activités. En fait, Google a apporté des modifications assez efficaces à son algorithme afin de garder une longueur d'avance non pas sur les optimisations du moteur de recherche axées sur le marketing, mais plutôt sur les optimisations malveillantes du moteur de recherche par des pirates et des groupes susceptibles de faire ces manipulations.
    Je pense que l'accroissement de la capacité d'apprentissage machine et de dépistage des méthodes malveillantes permettra éventuellement de régler ce problème. Il est à peu près certain que des solutions seront trouvées — peut-être pas assez rapidement — pour contrer ce genre d'influence.
    Permettez-moi de vous interrompre. Il me reste à peine 30 secondes. Tout à l'heure, nous avons parlé d'éducation. Devrions-nous cibler toute la population, depuis les élèves du primaire aux personnes âgées, de même que les milieux des affaires? Quels autres groupes faut-il inclure dans notre initiative d'éducation?
    L'éducation sur la littératie numérique n'est jamais superflue, mais elle est particulièrement importante pour les jeunes.
    Merci beaucoup. C'est très intéressant.
    Madame Vecchio, vous avez cinq minutes.
    Merci.
    Vous avez parlé de pirates, ou ce sujet a été soulevé. Je suis assez néophyte dans le domaine des ordinateurs. Je ne comprends pas grand-chose à cette science. Nous avons parlé de pirates. Comment se fait-il qu'ils peuvent aussi exploiter les traces que nous laissons, dont vous avez parlé quand vous nous avez expliqué ce que sont les algorithmes? Comment arrivent-ils à nous diriger vers les sites malveillants?
    Les pirates utilisent une panoplie d'outils. Le plus simple est le hameçonnage. Nous tous ici recevons régulièrement des courriels d'hameçonnage. Depuis peu, le hameçonnage se fait par voie de messages textes qui nous invitent à « cliquer sur le lien ». Si vous cliquez, vous êtes cuits: un visiteur importun s'installe dans votre appareil et il y reste; souvent, il recueille de l'information sur vos activités routinières en ligne, à votre insu, jusqu'à ce que l'information ait de la valeur, pour une quelconque fin.
    L'hameçonnage et l'infestation des appareils avec des programmes malveillants sont très courants. Les pirates sont aux premières loges pour recueillir des renseignements personnels et de l'information comme votre numéro de compte bancaire, votre mot de passe, etc. Ils utilisent ensuite ces données pour se connecter en usurpant votre identité à un autre endroit et à un autre moment, afin de transférer tous vos fonds dans un autre compte.
    L'hameçonnage est la tactique la plus fréquente, mais vous avez peut-être entendu parler il y a quelques semaines d'une attaque par déni de service assez réussie qui a été générée par l'Internet des objets et qui touchait des choses aussi simples qu'un thermostat installé dans une maison. Ces appareils connectés à Internet sont souvent livrés avec un mot de passe préétabli. L'utilisateur ne sait pas toujours quel est le mot de passe standard, ni même comment le changer, mais les pirates le savent. Ils peuvent de cette façon s'infiltrer dans votre réseau domestique et y rester cachés aussi longtemps qu'ils en ont besoin pour commettre leurs méfaits.
    Malheureusement, la complexité des technologies utilisées dans nos maisons et dans les entreprises… Dans les entreprises, des administrateurs de réseau et des technologues veillent sur les appareils des employés mais, à la maison, nous n'avons pas le choix d'avoir des connaissances de base pour protéger nos technologies.
(1715)
    Je comprends. Merci beaucoup.
    Tantôt, Sheila vous a demandé s'il y avait des aspects positifs. Pouvez-vous nous donner des exemples de leadership responsable de la part de fournisseurs de services et des plateformes courantes? Vous avez parlé de Google. Quelles mesures précises ont été prises pour nous aider à protéger nos enfants contre la cyberintimidation et d'autres menaces courantes de nos jours?
    Google fait parfois bien, parfois moins bien au chapitre du leadership. Des événements survenus dans la dernière année ont forcé d'autres sociétés, comme Twitter, à lutter de manière plus proactive contre le discours haineux.
    À bien y penser, nous nous trouvons dans une situation étrange. Ces sociétés sont américaines, leurs serveurs résident aux États-Unis, et c'est le premier amendement qui régit la propagande agressive ou le discours haineux. Leur réaction n'est pas aussi viscérale que la nôtre, loin de là. Même à l'échelon des entreprises, je crois, il est difficile de mobiliser les efforts, sauf s'il y a beaucoup de publicité. Il faut parfois un événement très grave pour faire basculer les choses, comme ce fut le cas lorsque l'actrice Leslie Jones a été la cible de propos haineux racistes, sexistes et misogynes sur Twitter.
    Cependant, certaines sociétés semblent avoir entendu le message. Plus particulièrement, une société comme Twitter, même si elle vaut des milliards, doit mettre de l'ordre dans ses affaires, car elle a actuellement de la difficulté à élargir sa base et sa plateforme. Elle semble bien motivée. Elle opère dans un régime capitaliste. Il s'agit d'une société privée, alors je crois que nous pouvons lui donner notre approbation et la forcer…
    C'est très bien.
    Nous avons aussi parlé de la législation et de ce que notre gouvernement pourrait faire. Souvent, quand nous parlons du gouvernement, il est question de législation et de réglementation. Cependant, dans un cas comme celui-ci, je ne vois pas en quoi la législation serait efficace, car le problème dépasse largement ce qui est du ressort du gouvernement. Quelles sont les techniques à notre disposition? Ou que pouvons-nous faire comme citoyens canadiens?
    Votre temps de parole est écoulé.
    Je donne la parole à Mme Damoff, pour cinq minutes.
    Merci à vous deux de vos témoignages et de nous éclairer un peu.
    Il ressort de vos témoignages et de ceux des témoins précédents qu'il faut tabler avant tout sur la littératie numérique et l'éducation. Mme Malcolmson a posé une question au sujet du financement. Condition féminine a très peu de marge de manoeuvre pour financer ses propres programmes et, de toute manière, j'estime que c'est un dossier qui concerne également d'autres ministères.
    Ma question est en deux volets. Tout d'abord, d'où provient le financement? Dans cette industrie multimilliardaire qui traite des mégadonnées, le gouvernement devrait-il assumer seul le coût de l'éducation ou l'industrie ne devrait-elle pas aider elle aussi des groupes comme HabiloMédias pour la production de matériel?
    Le financement est toujours problématique, et notamment la source du financement. Évidemment, l'éducation est de compétence provinciale, mais le gouvernement fédéral peut se faire un point d'honneur de susciter un intérêt autour de cette question et de faire reconnaître la nécessité d'améliorer la littératie numérique. Sécurité publique Canada déploie énormément d'efforts pour assurer la sécurité du cyberespace. Une foule de programmes sont mis en oeuvre à l'échelle des ministères fédéraux pour atteindre cet objectif et protéger les consommateurs, notamment.
    Si nous voulons que cette matière soit intégrée aux programmes d'études, le secteur privé doit certainement être de la partie, mais le secteur des organismes sans but lucratif est également concerné. Je pense que les entreprises peuvent faire leur part. Actuellement, il y a un énorme engouement autour de l'enseignement des méthodes de codage aux femmes et de leur accession aux domaines des sciences, de la technologie, du génie et des mathématiques. C'est fantastique, parce qu'elles sont de moins en moins nombreuses à choisir ces domaines d'études. Certains de ces programmes s'adressent aux fillettes du primaire, et d'autres aux élèves du secondaire ou aux jeunes femmes d'âge universitaire.
    Selon moi, les organismes sans but lucratif font des miracles avec très peu. Par ailleurs, il est évident que les provinces jouent un rôle pivot dans la construction des programmes d'études, mais le gouvernement fédéral peut jouer un rôle de chef de file en ralliant les parties à l'idée que le besoin est d'envergure nationale et que tous les joueurs au Canada doivent faire leur part dans la recherche de solutions.
(1720)
    Un témoin nous a parlé de la nécessité d'augmenter le nombre de femmes dans les domaines du codage et de la création des algorithmes. Évidemment, nous ne pouvons pas réglementer ce domaine, mais si plus de femmes faisaient du développement d'algorithmes, est-ce qu'elles auraient une incidence sur le harcèlement, et notamment dans les médias sociaux?
    Oui, elles feraient une différence. Je suis passée de l'industrie privée du logiciel à l'enseignement, et j'estime que les femmes peuvent réellement changer les choses. On ne peut pas devenir ce que l'on n'a jamais vu. Si les femmes investissent le monde du développement de logiciels et contribuent à leur conception et à leur mise au point, comment feront-elles une différence? La parité fait une différence dans toutes les facettes de la culture, ce qui veut dire que des femmes participent à toutes sortes d'activités, de toutes sortes de façons. Je pense que la contribution des femmes favorise des prises de conscience qui reposent sur leurs expériences personnelles.
    Si vous suivez des initiatives comme Hollaback!, vous savez que les jeunes femmes qui subissent du harcèlement sont très nombreuses. Ces gestes font l'objet d'un suivi, grâce aux mégadonnées, aux appariements, etc. Je crois que ce genre d'expérience à un stade de développement précoce des filles peut être un moteur de changement et d'éveil des consciences.
    Si vous entrez l'acronyme « PDG » dans la fonction images de Google, vous obtiendrez une avalanche de visages masculins. Nous savons pourtant que notre monde est plus diversifié. C'est à cause des données d'apprentissage utilisées pour instruire l'algorithme des images Google.
    Il me reste 30 secondes seulement. Si le gouvernement fédéral devait prendre une seule mesure en particulier, quelle mesure devrait-il choisir?
    J'inviterais les Microsoft, Google et Twitter de ce monde à nous aider à combattre la cyberintimidation, parce que ces sociétés ont la puissance et les fonds pour le faire.
    Avez-vous quelque chose à ajouter, madame Charette?
    Je suis d'accord. Je crois que les sociétés avec lesquelles nous faisons affaire font de leur mieux pour être de bonnes citoyennes, et qu'elles mettent tout en oeuvre pour collaborer avec le gouvernement sur les questions d'importance. Nous aurions tout intérêt à tirer profit de cette volonté et à mettre l'accent sur cette collaboration à l'avenir.
    Merci.
    C'était très édifiant.
    Je m'apprête à poser un geste rarissime. Je vais poser mes propres questions.
    Je n'ai pas encore renoncé à l'idée d'une réglementation quelconque. Selon nos témoins précédents, il existe des règlements en Espagne et dans l'Union européenne, auxquels même des plateformes internationales comme Google doivent se conformer.
    Je serais ravie si une réglementation quelconque interdisait le téléchargement de contenu qui hypersexualise les femmes et qui reflète une bonne partie des aspects de la culture du viol dont nous avons beaucoup entendu parler, y compris le blâme public, les insultes et d'autres types de manifestations. La diversité des équipes de conception devrait être exigée.
    J'aimerais vous entendre toutes les deux sur la question de la réglementation et de la conception.
    Dans l'Union européenne, la réglementation du droit à la vie privée est extrêmement sévère. Par exemple, il y existe un droit à l'oubli, ou une proposition a été faite en ce sens. Au Canada, la législation dans ce domaine est aussi stricte, mais elle ne va pas aussi loin, même si je précise que cette mesure législative est encore à l'état de projet dans l'Union européenne.
    La réglementation est une arme à deux tranchants. En réalité, il est très difficile de concevoir une réglementation équitable, qui ne brime ni le gouvernement ni l'industrie privée. Cet équilibre subtil est difficile à atteindre. De plus, l'application requiert des efforts. Et comme aucun effort n'est gratuit, je crois que nos capacités et nos ressources seraient investies de manière plus profitable dans l'amélioration de la littératie que dans la réglementation. Il faut maintenir un équilibre constant.
(1725)
    Je suis du même avis. Je ne sais pas pour ce qui est de la législation, mais je sais que la régulation peut se faire au niveau du code. Si de très importants fournisseurs privés ont les pouvoirs requis pour écrire le code et le contrôler, comme c'est le cas actuellement, ils peuvent déjà filtrer le code à l'étape du téléchargement. C'est tout à fait possible.
    Bien entendu, ce procédé est appelé « censure » aux États-Unis, ce qui coupe l'herbe sous le pied à toute tentative puisque c'est contre le principe de la liberté d'expression. Ce n'est pas simple. Au Canada, il serait facile d'instaurer un système de filtres qui analyserait ou lirait le code — que ce soit des images, des textes, des vidéos — pendant le téléchargement. Le codage est fondé sur une échelle, qui doit être établie. Il pourrait y avoir une interface avec un système axé sur l'âge, à l'instar de ce qui se fait pour les jeux vidéo dans ces sites. Il pourrait aussi y avoir un contrôle si l'âge de la personne qui fait le travail est accessible, ce qui voudrait dire qu'une autre information serait divulguée que l'âge fictif entré par l'utilisateur. Un type quelconque de métadonnée de confirmation de l'âge de l'utilisateur serait donc accessible. Ce sont toutes des opérations possibles actuellement.
    Il me reste du temps. Ma question suivante a trait à la nature binaire de certains algorithmes utilisés. Lorsqu'il est question du sexe et d'une autre manière de le définir que dans une optique binaire, qu'est-ce qui pourrait être fait selon vous pour prévenir la discrimination fondée sur le sexe?
    Je pense que vous avez déjà reçu ma collègue Rena Bivens, qui vous a parlé de cette question. De nouveau, il existe de nombreuses solutions liées aux codes. Même une entreprise aussi bien établie et aussi prospère que Facebook a choisi, de manière superficielle — au niveau de l'interface utilisateur qui permet d'interagir avec Facebook —, de donner 50 choix pour s'autoidentifier, en donnant son sexe ou non, mais en arrière-plan, le système de Facebook continue de lire les données selon une approche binaire.
    La manière de faire est de surveiller les activités des utilisateurs lorsqu'ils quittent le site. Les algorithmes cherchent des tendances qui indiquent si une personne est un homme ou une femme, homosexuelle ou hétérosexuelle. Il existe beaucoup d'autres endroits et d'activités qui permettent de faire ces constatations et ces déductions. Il est très difficile de construire un système qui est réellement ouvert et qui encourage véritablement ce genre d'autoidentification. Une personne peut encore être victime de discrimination si d'autres personnes font les mêmes déductions.
    C'est tout le temps que nous avions aujourd'hui.
    Merci énormément à nos deux témoins. Vous avez fait un excellent travail.
    Je remercie aussi mes collègues d'avoir posé des questions extrêmement intéressantes. J'ai beaucoup apprécié cette séance.
    Nous nous revoyons mercredi. La séance est levée.
Explorateur de la publication
Explorateur de la publication
ParlVU