:
Je vous remercie sincèrement de cette nouvelle invitation.
Si j'ai bien compris, l'un des sujets à l'étude aujourd'hui sera la curation par algorithme. Je témoigne en tant que codirectrice de l'eQuality Project, une initiative axée sur l'environnement de mégadonnées et son incidence sur les conflits en ligne entre les jeunes. Je fais également partie du comité de direction de l'Association nationale Femmes et Droit.
Les mégadonnées forment un environnement dans lequel nous transmettons nos données pour obtenir des services en ligne. Ce mécanisme trie les internautes, y compris les jeunes, par catégories afin de prédire leurs prochaines activités en fonction de celles qui ont précédé, mais aussi pour influencer leur comportement, notamment par le marketing, afin de les inciter à acheter certains biens ou à consommer de certaines manières.
J'aimerais parler plus particulièrement de trois des sujets de préoccupation auxquels s'intéresse l'eQuality Project concernant le modèle des mégadonnées, et en particulier les algorithmes de tri.
Le premier a trait au postulat voulant que le passé permette de prédire l'avenir. Si cette prophétie s'accomplit d'elle-même, c'est d'assez mauvais augure pour les jeunes. Le postulat veut que non seulement nos propres activités soient annonciatrices de ce que nous ferons à l'avenir, mais que ce que feront ou ont fait des personnes qui sont censées nous ressembler permette également de prédire nos prochaines activités à titre personnel.
Je vais donner un exemple qui figurera dans le rapport annuel de l'eQuality Project qui sera publié bientôt, avec la permission de ma codirectrice, Valerie Steeves. L'exemple est lié à la publicité et au ciblage en ligne. Si vous êtes un homme d'une minorité visible et que l'algorithme de tri identifie ces personnes comme étant les plus susceptibles de commettre un crime, les annonces ciblant votre catégorie — celle des jeunes hommes racialisés — peuvent être celles d'avocats criminalistes et de services de vérification de dossiers criminels. Vous serez moins susceptibles de recevoir les annonces des facultés de droit, qui cibleront plutôt les jeunes personnes blanches de la classe moyenne. Latanya Sweeny a fait des recherches sur ce sujet.
Notre expérience en ligne et l'information à laquelle nous avons accès selon la catégorie dans laquelle nous a rangés l'algorithme de tri peuvent en quelque sorte devenir une prophétie autoréalisatrice puisqu'il est tenu pour acquis qu'un certain type d'information est pertinent pour nous et c'est ce qui nous sera offert. Vous avez peut-être eu l'expérience de faire les mêmes recherches dans Google qu'une autre personne et d'obtenir des résultats différents. C'est le premier sujet de préoccupation. Le postulat comme quoi le passé prédit l'avenir pose des problèmes d'un point de vue très conservateur. Il est toujours inquiétant de constater que les personnes sont catégorisées à partir de critères discriminatoires.
Le deuxième aspect préoccupant, de toute évidence, vient du fait que ce modèle limite la capacité de changement et la possibilité que tous aient des chances égales de participer et de s'épanouir. En ce qui a trait aux jeunes, nous nous inquiétons des influences qui peuvent les amener à intérioriser les stéréotypes inavoués qui sont véhiculés dans le cyberespace, de la manière dont cette intériorisation peut se répercuter sur l'image et leur conscience d'eux-mêmes, de même que sur leur compréhension de leurs possibilités d'épanouissement et de participation. Nous voulons comprendre comment ces facteurs créent un terreau fertile pour les conflits entre pairs et les jugements modelés par les normes stéréotypées du marketing qui sont la base du tri par algorithme dans un cyberenvironnement.
Le troisième problème qui nous préoccupe concerne le manque de transparence flagrant du processus de tri par algorithme. Il est impossible de le remettre en question. La plupart d'entre nous, même parmi les programmeurs, ne comprennent pas bien les résultats de ce tri. Lorsque des décisions importantes modulent la vie des autres, notamment le type d'information auquel ils ont accès et les catégories dans lesquelles ils sont rangés, et qu'il est impossible de remettre le système en question parce que la transparence n'est pas exigée et que personne n'est tenu de nous expliquer comment nous aboutissons dans telle ou telle catégorie, les principes de la démocratie sont gravement ébranlés.
Comme je l'ai dit tantôt, l'eQuality Project s'intéresse aux répercussions sur les jeunes, et notamment ceux qui sont les plus vulnérables, dont les filles.
Comment réagir?
L'une des constatations importantes de mes travaux conjoints avec la professeure Steeves dans le cadre de l'eGirls Project est que le resserrement de la surveillance n'est pas la solution. Les algorithmes d'analyse des mégadonnées créent un environnement de surveillance. Il s'agit d'un environnement de surveillance par les entreprises, dont la collecte de données a évidemment des retombées sur le domaine public puisque les forces de l'ordre peuvent y avoir accès.
À en croire les filles interrogées sur leurs expériences en ligne dans le cadre de l'eGirls Project, la surveillance est un problème, pas une solution. Les solutions de tri par algorithme qui catégorisent les jeunes en surveillant leurs données suscitent plus de méfiance chez les jeunes et chez les adultes, et les jeunes ont de plus tendance à perdre confiance dans les systèmes qu'ils utilisent.
Il est primordial de revoir notre approche et de concentrer notre attention sur les méthodes des entreprises plutôt que d'enseigner aux enfants à accepter un modèle algorithmique et la catégorisation que le tri leur impose. Nous devrions prendre du recul et obliger les entreprises à nous expliquer leurs méthodes, et notamment le comment, le pourquoi et le quand. Si c'est nécessaire, nous devrions envisager une réglementation qui exigerait notamment que des explications soient fournies quand la curation et le tri par algorithme donnent lieu à des décisions qui déterminent les chances données à un jeune.
Voilà, c'était l'essentiel de ce que je voulais vous communiquer en introduction.
:
Je vous remercie d'avoir invité HabiloMédias à vous donner son point de vue sur le sujet à l'étude.
Selon nos recherches, les jeunes ont une piètre compréhension des algorithmes et de la collecte des données sur lesquelles ils sont fondés. Seulement un jeune Canadien sur six pense que les exploitants de réseaux sociaux devraient avoir accès à l'information qu'ils publient, et seulement 1 sur 20 croit que les agences de publicité devraient avoir accès à cette information. Près de la moitié des jeunes ne semblent pas savoir que c'est justement de cette manière que la majorité de ces entreprises font leur argent.
Avec la collaboration du Commissariat à la protection de la vie privée, nous avons créé du matériel qui sensibilise les jeunes à ce sujet et leur apprend comment mieux protéger leurs renseignements personnels dans le cyberespace.
Les liens entre la curation de contenu par algorithme, la cyberviolence et les jeunes sont nombreux. Lorsque des algorithmes servent à définir le contenu accessible aux internautes, ils posent un problème sur le plan de la protection des renseignements personnels en ligne et de la réputation. Le caractère intrinsèquement opaque du mode d'opération des algorithmes nuit passablement à la capacité d'un internaute à protéger sa réputation s'il ne saisit pas pourquoi certains résultats lui sont toujours proposés en premier. La manière dont les algorithmes diffusent le contenu peut aussi être problématique parce qu'ils peuvent être empreints des préjugés et des partis pris, conscients ou non, de leurs créateurs.
Je crois que Mme Chemaly est venue vous expliquer les différences entre les offres d'emploi proposées aux femmes et aux hommes. D'autres exemples ont un lien plus étroit avec la cyberviolence. Les programmes d'autocorrection qui ne complètent pas les mots « viol » ou « avortement », par exemple, ou les filtres de contenu Internet qui sont souvent utilisés dans les écoles peuvent empêcher les élèves d'accéder à de l'information valable sur la santé ou l'identité sexuelle.
C'est pourquoi il est vital de mettre l'accent sur la littératie numérique et médiatique des jeunes. L'un des concepts fondamentaux de la littératie médiatique veut que tous les textes diffusés par les médias aient des répercussions sociales et politiques, même si le rédacteur n'avait pas cette intention. Ce concept s'applique entièrement aux algorithmes, et il peut être d'autant plus pertinent que nous en connaissons rarement le fonctionnement et l'incidence sur le contenu qui nous est proposé.
Même si un algorithme a été conçu sans partis pris, il peut être le produit et l'incarnation de nos a priori inconscients. Par exemple, à cause d'un algorithme, il est arrivé qu'un service de livraison ne soit pas offert dans des quartiers de minorités visibles aux États-Unis. De même, des algorithmes conçus à l'origine pour résoudre des problèmes techniques, sans aucune considération pour les incidences sociales possibles, peuvent donner lieu à des résultats inégaux, voire néfastes, de manière totalement accidentelle.
Par ailleurs, des personnes qui connaissent bien les algorithmes peuvent les modifier pour amplifier le harcèlement par une méthode appelée « embrigadement », qui consiste à renforcer le contenu néfaste pour que l'algorithme le juge plus pertinent et le place au haut des résultats de recherche. Ce faisant, ce contenu sera plus susceptible d'être présenté comme un sujet d'intérêt à différents publics. Ce phénomène a été mis en lumière lors de la dernière campagne à la présidence des États-Unis: différents groupes ont réussi à manipuler les algorithmes d'analyse de contenu de plusieurs réseaux sociaux afin de diffuser de fausses nouvelles. Ce procédé pourrait facilement servir à élargir considérablement la diffusion d'une photo embarrassante ou intime qui a été communiquée sans le consentement de l'intéressé.
Des algorithmes peuvent aussi être manipulés pour bâillonner une victime de la cyberviolence, surtout sur les plateformes permettant de voter pour ou contre du contenu.
Sur le plan de la littératie numérique, il est clair que les élèves doivent apprendre à reconnaître l'information tendancieuse ou fausse. Nos recherches ont montré que les jeunes sont moins enclins à vérifier la véracité de l'information transmise par les médias sociaux, qui sont évidemment leur principale source d'information. Il faut les sensibiliser au fait que les algorithmes déterminent quelle information leur sera transmise. Nous devons aussi promouvoir la citoyenneté numérique et l'utilisation du contre-discours pour contrer la haine et le harcèlement, et nous assurer qu'ils comprennent et exercent leurs droits de citoyens et de consommateurs. Dans de nombreux cas, l'action concertée des consommateurs a mené à la modification d'un algorithme qui était perçu comme valorisant des attitudes racistes ou sexistes.
Merci.
Je vous remercie d'être venus de nouveau nous aider à approfondir notre analyse de certains sujets. J'aimerais tout d'abord obtenir quelques clarifications, puis je vous poserai des questions sur la réglementation des entreprises et les mesures à prendre pour accroître la transparence.
Tout d'abord, c'est la première fois que j'entends parler d'« embrigadement » et de manipulation d'algorithmes, un phénomène alarmant, il va sans dire. Pourriez-vous nous en dire un peu plus à ce sujet, monsieur Johnson?
Par ailleurs, madame Bailey, j'ai toujours pensé que les termes saisis dans le champ de recherche déterminaient les résultats obtenus. À vous entendre, c'est un peu plus compliqué, et c'est aussi plus prévisible. Tout dépend de la catégorie à laquelle une personne appartient. Je ne comprends pas vraiment comment la programmation est faite. Pourriez-vous tous les deux éclairer ma lanterne?
J'aimerais ensuite que nous parlions un peu plus de la réglementation des entreprises.
Monsieur Johnson.
:
Des modèles existent, dans l'Union européenne notamment. Les règlements européens en matière de protection des renseignements personnels accordent la priorité à la dimension humaine du processus décisionnel. Quand une décision se répercute sur les chances données à des personnes, par exemple, un élément humain quelconque doit intervenir dans la détermination du résultat.
De toute évidence, ce procédé ajoute une dimension de responsabilité ou de transparence, dans la mesure où ni vous ni moi, ni même un ingénieur en informatique dans certains cas, ne pourrait expliquer comment un algorithme parvient à la conclusion qu'une personne appartient à un groupe donné, ou que certains renseignements devraient lui parvenir ou non. Nous disposerions ainsi d'autres moyens pour expliquer les paramètres pris en compte pour déterminer quel type de contenu nous est offert et pourquoi telle ou telle décision est prise à notre sujet. C'est de plus en plus crucial dans un contexte où les machines prendront un nombre croissant de décisions dans toutes sortes de domaines.
Je crois que les gens et les pays commencent à réfléchir à des moyens d'inclure le public dans les valeurs publiques, et de faire en sorte que le public participe au processus décisionnel dans ce domaine qui, bien qu'il soit en grande partie contrôlé par des intérêts privés, repose dans la réalité sur une infrastructure publique. Il s'agit d'une infrastructure publique parce que les citoyens en ont de plus en plus besoin pour travailler, pour organiser leur vie sociale et pour leur éducation. Il faut réfléchir à des moyens de rétablir l'équilibre entre les décisions prises dans la perspective d'une entreprise privée — non pas pour des raisons viles, mais pour des raisons de rentabilité, l'objet même de toute entreprise — et la réintégration du discours citoyen, des points de vue du public sur tout ce qui se passe, la nature des décisions qui sont prises, le profilage des groupes et leur catégorisation. Je crois qu'il faut vraiment franchir ce premier jalon.
Bonjour. Je vous remercie sincèrement d'être venus à notre rencontre.
J'aimerais commencer par une anecdote personnelle. Vous pourrez peut-être m'expliquer ce qui s'est passé. Il est possible de dire que c'était la faute des algorithmes —ou j'ai peut-être des antécédents que je préfère oublier —, mais voici ce qui m'est arrivé. L'autre jour, j'ai pris l'avion et j'ai regardé deux vidéos sur YouTube, soit les première et deuxième parties d'un concours international de films publicitaires. Je ne cache pas que les annonces portaient sur des sous-vêtements masculins. C'était un clip amusant, très amusant en fait, sur deux testicules. Très drôle.
Après les deux premières vidéos, une troisième a été lancée automatiquement. C'était de la pornographie, mettant en vedette un jeune homme et une jeune femme. Malheureusement, mon fils de 13 ans était avec moi, et je n'ai pas pu m'empêcher de dire: « Oh, mon Dieu! » Les films publicitaires que je regardais avec mon fils n'étaient pas trop inappropriés —un peu, mais pas tant que cela —, mais je peux vous affirmer que la troisième vidéo était totalement de mauvais goût.
Était-ce la faute d'un algorithme? Était-ce dû à mon historique de recherche, même si je vous jure que je n'ai jamais fait de recherche de pornographie sur YouTube? D'où sortait cette vidéo? Pouvez-vous m'expliquer comment l'écoute de deux vidéos qui remportent un prix national de publicité peut mener à une troisième qui contient de la pornographie?
L'un des volets de l'éducation donnée aux jeunes a trait à la citoyenneté numérique: nous leur enseignons comment améliorer le cyberespace. Par exemple, nous leur apprenons que s'ils voient du contenu inapproprié en ligne, et surtout s'il s'agit de cyberintimidation ou de contenu haineux, beaucoup d'options s'offrent à eux. La grande majorité des plateformes, que ce soit les plateformes vidéo ou les réseaux sociaux, permettent de signaler ce type de contenu. Beaucoup d'entre elles ont aussi une fonction qui permet de voter contre. C'est l'une des raisons d'être de ce type de fonctions, même si elles peuvent être mal utilisées. Nous leur enseignons qu'ils ont une responsabilité à cet égard, et qu'ils ont le droit de naviguer en ligne sans être exposés au harcèlement et à la haine.
Nous faisons également du travail de défense des droits, et nous offrons des ressources aux parents sur la manière d'aborder ces sujets avec leurs enfants, ainsi que des ressources pédagogiques sur ces différents thèmes à l'intention des enseignants. Nous savons que les enfants seront exposés à ce matériel, de manière intentionnelle ou non. C'est inévitable. Nous savons que même les meilleurs filtres ne bloquent pas tous ces contenus et que, souvent, ils sont plus ou moins efficaces pour ce qui est des contenus haineux et la cyberintimidation.
Il est important de parler de ces questions. Un jeune informé qui tombe pour la première fois sur du contenu pornographique sait que ce n'est pas la réalité. Il sait qu'il ne s'agit pas d'une vision réaliste ou saine de la sexualité.
:
Merci, madame la présidente.
Merci aux témoins. Je suis contente de vous revoir.
La dernière fois que nous avons discuté ensemble, madame Bailey, c'était en juin, au début de notre étude.
Le mois dernier, le Comité des Nations unies pour l'élimination de la discrimination à l'égard des femmes a publié son rapport sur le Canada. Ce rapport quinquennal nous procure un bon état de la situation. Je vais citer un passage qui concerne l'un des sujets de préoccupation relevés par le Comité:
[Traduction] L'abrogation de l'article 13 de la Loi canadienne sur les droits de la personne, qui offrait un recours civil aux victimes de la cyberviolence, et l'entrée en vigueur de la Loi sur la protection des Canadiens contre la cybercriminalité (2015), pénalise la distribution non consensuelle d'images intimes, sans toutefois cerner toutes les situations qui étaient visées par l'article 13 de la [...] Loi sur les droits de la personne.
Au paragraphe 25(g), le Comité formule la recommandation suivante au gouvernement fédéral:
[Traduction] Revoir et modifier la législation afin d'offrir un recours civil adéquat aux victimes de cyberviolence, et remettre en vigueur l'article 13 de la Loi canadienne sur les droits de la personne.
Est-ce que l'un d'entre vous, à partir de son expérience professionnelle, a des conseils à donner au Comité relativement à une recommandation que nous pourrions formuler à cet égard?
:
Pour ce qui concerne l'abrogation de l'article 13 de la Loi canadienne sur les droits de la personne sous le gouvernement précédent, j'ai déjà donné mon point de vue au Sénat. Cette abrogation, si je puis me permettre, était assez ironique du point de vue historique. Elle est survenue pile au moment où tout le monde parlait du problème du contenu haineux et du harcèlement dans Internet. Le Canada se distinguait par son régime législatif qui autorisait l'instruction des questions liées au contenu haineux et au harcèlement fondé sur l'identité dans Internet par un tribunal des droits de la personne plutôt que par une cour de justice. C'était un recours propre au Canada et nous en étions très fiers.
Au moment même, si je puis m'exprimer ainsi, où ce recours prenait tout son sens, où la plupart des spécialistes affirmaient que le Code criminel n'offrait pas les meilleurs recours, mais qu'il fallait plutôt faire intervenir les dispositifs applicables aux questions de droits de la personne, le Canada a choisi d'abroger l'article 13. C'est à mon sens une décision fort regrettable. Elle a privé le Canada de mesures efficaces et variées pour contrer le contenu haineux et la persécution en ligne. Mais ce n'est pas tout. Cette abrogation a ébranlé la reconnaissance symbolique que ces attaques sont fondées sur le harcèlement, la discrimination et les préjugés liés à l'identité.
Il est clair pour moi que l'article 13 de la Loi canadienne sur les droits de la personne doit être remis en vigueur parce que, très respectueusement, j'estime que son abrogation était totalement déraisonnable dans le contexte où elle s'est produite.
Pour ce qui a trait aux recours civils, je crois que le Manitoba offre l'une des formules les plus intéressantes parmi celles que j'ai examinées dernièrement. La province a chargé l'organisme responsable de Cyberaide d'aider les personnes dont les images intimes sont affichées en ligne et de faire en sorte qu'elles soient retirées rapidement. Ce mécanisme de soutien m'apparaît très utile. Parmi tous les problèmes qui affligent les personnes dont les images intimes sont affichées sans leur consentement, l'un des plus pressants est justement qu'elles soient retirées le plus rapidement possible.
Rien de cela ne minimise l'importance du Code criminel, mais tous ces recours font une différence. Je crois qu'il est très judicieux d'offrir un éventail de recours juridiques adaptés aux différentes victimes et à leur situation, et qui tiennent compte de leurs aptitudes et de leurs besoins.
:
Sur le plan technique, quelques mesures faciles sont relativement efficaces.
Si vous parlez d'une intervention individuelle, la plupart des moteurs de recherche offrent une fonctionnalité de recherche sécuritaire, appelée « SafeSearch ». Un filtre de contenu peut aussi être installé. La plupart des fournisseurs d'accès à Internet offrent ce genre de filtres, et il existe aussi des programmes de filtrage commerciaux. Toutefois, aucun de ces dispositifs n'offre une efficacité totale, surtout si vous élargissez la définition de contenu inapproprié au-delà de la simple nudité. Bref, il existe diverses solutions, et nous recommandons notamment celles qui sont gratuites, comme SafeSearch.
C'est l'une des raisons pour lesquelles nous abordons la littératie numérique d'une manière globale. C'est pour cela également que des volets comme la vérification de la véracité et les compétences en recherche peuvent être utiles pour ce qui concerne le contenu. L'une des meilleures façons d'éviter ces contenus est de savoir comment configurer les paramètres de recherche pour obtenir seulement les résultats souhaités, et de saisir une séquence qui exclut les éléments indésirables.
Il existe aussi des façons d'éviter que votre profil soit établi. Si vous regardez une vidéo qui, pour quelque raison, pourrait contenir du contenu relié par un algorithme à du contenu inapproprié et qu'aucun profil n'a été établi à votre égard, l'effet sera moindre. Vous pouvez par exemple utiliser des moteurs de recherche qui ne recueillent pas de données sur vous, une adresse IP de serveur mandataire ou, dans certains cas, activer le mode de navigation privée ou la fonction de blocage du pistage d'un moteur de recherche.
Toutefois, je le répète, toutes ces mesures individuelles sont incomplètes, et c'est pourquoi nous répétons qu'il est impossible de mettre les jeunes totalement à l'abri. Il faut en parler avec eux. Toutes ces mesures sont efficaces pour réduire les risques que ce type de contenu soit affiché.
:
Nous allons reprendre nos travaux avec notre second groupe de témoins. Toutefois, j'ai des annonces à faire avant d'entamer notre prochaine discussion.
Je voudrais rappeler aux membres du Comité que demain, c'est la Journée nationale de commémoration et d'action contre la violence faite aux femmes. Nous nous souvenons tous qu'il y a plusieurs années, l'École polytechnique a été le lieu de l'attaque la plus barbare et la plus violente jamais perpétrée au Canada, et que des étudiantes en génie, qui sont mes soeurs, ont été victimes d'horribles actes de violence sexiste. Je vous invite à vous en souvenir demain. Je sais que nous ne nous réunirons pas parce qu'il y aura des votes le soir, mais je suis certaine que d'autres activités de commémoration seront organisées.
Je voulais également vous informer qu'aux fins de notre prochaine étude, le Comité avait l'intention de donner la parole en premier à des représentants de plusieurs réseaux de développement économique. Comme ils ont tous décliné notre invitation, ce qui est fantastique, nous aurons plutôt l'occasion de discuter avec des représentants d'Innovation, science et développement économique, d'Emploi et Développement social Canada, de Statistique Canada, ainsi que de Condition féminine Canada. Tout ce groupe pourra venir nous rencontrer durant la première heure. Au cours de la deuxième heure — les analystes ont accepté de nous transmettre notre plan de travail avant vendredi, pour que nous puissions commencer à en discuter et nous entendre au moins sur les dates des premières réunions de la prochaine année. Si personne ne s'y oppose, je suggère que nous procédions ainsi.
Sans plus attendre, accueillons nos prochaines intervenantes. Je vous présente Sandra Robinson, chargée de cours à l'Université Carleton. J'aimerais préciser au passage que Sandra vous demande de parler fort et distinctement lorsque vous poserez vos questions pour qu'elle vous entende bien. Nous recevons également Corinne Charette, sous-ministre adjointe principale du secteur Spectre, technologies de l'information et télécommunications, du ministère de l'Industrie.
Je vous souhaite la bienvenue, mesdames. Nous vous accordons sept minutes à chacune pour nous présenter vos déclarations préliminaires.
Nous commencerons par vous, Sandra.
:
Je vous remercie de m'avoir invitée à témoigner devant vous aujourd'hui. C'est un plaisir et un privilège de m'adresser à vous.
Je suis membre à temps plein du corps professoral de l'Université Carleton, où j'enseigne dans le domaine des communications et des médias. Je donne des cours sur les médias et le genre, la communication et la culture juridiques, la culture algorithmique et l'analyse de données, qui sont des matières plus techniques. J'aimerais aujourd'hui vous faire part de certaines de mes préoccupations et réflexions concernant le rôle des algorithmes dans le contexte des communications électroniques, et notamment ceux qui sont utilisés par les médias sociaux et les moteurs de recherche. Je parlerai plus particulièrement du domaine plus global de la curation automatique de contenu par algorithme.
Comme ces sujets ont déjà été discutés, je vais me concentrer sur trois aspects: la définition des algorithmes et leur fonctionnement; le compromis entre les interfaces utilisateur et la complexité croissante des logiciels et, enfin, les répercussions de la curation de contenu par algorithme.
Je tiens à préciser d'emblée ce que j'entends par le terme « algorithme ». D'une manière très simple, dans le contexte des systèmes d'information et des communications électroniques, un algorithme peut être décrit comme une séquence d'étapes ou de procédures de calculs effectués à partir de données saisies afin d'obtenir un résultat précis. Par exemple, un terme d'interrogation saisi dans le moteur de recherche Google mènera à différents résultats de recherche.
Par ailleurs, les algorithmes ne fonctionnent pas de manière autonome. Ils font partie d'un réseau complexe formé de dispositifs numériques, de personnes et de processus constamment à l'oeuvre dans notre environnement de communication moderne.
Un système algorithmique est doté d'une capacité intégrée de contrôle des données qu'il analyse, dans la mesure où il assure la curation, ou l'organisation des résultats à partir de la multitude de facteurs ou de capacités que l'algorithme utilise pour générer des résultats. Si je reprends l'exemple du moteur de recherche Google, il repose sur une série d'algorithmes qui tiennent compte du terme d'interrogation, de l'historique de recherche personnel, des données historiques similaires agrégées, du lieu, de la popularité et de beaucoup d'autres facteurs pour générer un ensemble particulier de résultats filtrés selon l'utilisateur.
L'une des choses étonnantes concernant les algorithmes intégrés à nos communications modernes est que ces systèmes de calcul en savent beaucoup plus sur nous que nous en savons sur eux. Ils sont souvent mystérieux et opaques, comme il a déjà été dit. En fait, ce sont des chambres noires où se trouvent les commandes qui régissent le domaine de l'information et qui sont constamment à l'oeuvre pour moduler les flux d'information, déterminer ce que nous voyons et dans quel ordre, et nous inciter à poser certaines actions en structurant nos choix.
Les algorithmes contrôlent automatiquement le contenu, mais seulement parce qu'ils ont été conçus de cette manière. La capacité de curation ou de tri de l'information par les algorithmes a été conçue pour se déployer à l'arrière-plan de l'interface utilisateur des applications populaires de recherche et de médias sociaux. Nous n'interagissons jamais directement avec les algorithmes. La curation et le filtrage de l'information peuvent se dérouler sous nos yeux, mais il n'est jamais possible de comprendre ce qui se passe au juste. Par exemple, les interventions simplifiées se résument maintenant à des glissements, des touches, des clics sur les icônes de nos applications mobiles. La manipulation est extrêmement simple.
La complexité inouïe des algorithmes qui font la curation automatique des contenus passe inaperçue derrière l'infrastructure logicielle et numérique à la base des communications en réseau. Il en découle un effet de distanciation entre les utilisateurs humains et la complexité des systèmes avec lesquels ils interagissent, dont Google Search n'est qu'un exemple. C'est pourquoi nous avons de la difficulté à faire des liens entre nos choix simples de boutons ou nos requêtes et la portée réelle de ces gestes. Il ne nous viendrait pas forcément à l'esprit que nos actions individuelles ont une incidence sur la hiérarchisation et le tri d'autres recherches d'information ou sur la popularité d'une nouvelle publiée sur un fil.
Les exploitants de médias sociaux nous expliquent que les mentions « j'aime» ou les émoticônes d'appréciation ou de contestation nous permettent de donner des rétroactions aux autres utilisateurs, sur des histoires ou sur des articles, et nous permettent de tisser des liens avec des enjeux, des idées ou des personnes qui nous tiennent à coeur. Or, ces dispositifs servent plutôt à nous montrer comment saisir de l'information qui alimente l'algorithme afin qu'il puisse générer ses résultats, et notamment pour qu'il puisse hiérarchiser le contenu affiché et mis en commun à partir de ces paramètres.
Dernièrement, il m'est arrivé quelque chose qui m'a rappelé la puissance des outils de curation par algorithme. En une semaine seulement, la publication de contenu original et offensant par un groupe d'utilisateurs de Facebook a rapidement dégénéré, et des centaines de réactions ou de clics sur les boutons « j'aime », « grrr » et « haha » ont contribué à accroître la visibilité de cet incident de cyberintimidation sur les fils de nouvelles. Pour paraphraser la déclaration du site Facebook sur le tri par pertinence des algorithmes d'un fil de nouvelles, toute réaction assimilable à une mention j'aime est interprétée comme voulant dire que l'utilisateur souhaite voir plus de contenu de ce genre. Ces actions très simples alimentent directement l'algorithme et contribuent à gonfler la popularité d'un enjeu.
L'algorithme de saisie semi-automatique de Google me donne encore plus la chair de poule. Même si Google se tue à dire au grand public que son algorithme qui déroule un menu de suggestions quand vous saisissez votre requête est tout à fait objectif et qu'il ne peut associer des noms à des saisies semi-automatiques offensantes, du contenu douteux est tout de même affiché par l'intermédiaire du graphe de connaissance dynamique.
Le graphe de connaissance dynamique de Google combine les résultats de recherche en une page contenant des images, des liens à des sites, des histoires, etc., mais l'information combinée peut être douteuse. Par exemple, l'algorithme de saisie semi-automatique continue de révéler des détails des horribles événements vécus par la défunte Rehtaeh Parson, propagés par des trolls d'Internet. Ce contenu est encore accessible dans les suggestions d'images et d'autre contenu troublant au bas de la page des résultats dans Google.
L'évolution récente des techniques de curation automatisée milite pour un renforcement des efforts en matière de littératie numérique, dont vous avez discuté tout à l'heure. Il est impératif que les jeunes puissent développer leur esprit critique et qu'ils abordent cet univers avec un sens éthique. J'ajouterai qu'un effort spécial doit être consacré à la sensibilisation des jeunes à l'existence des algorithmes. L'important n'est pas de les initier à leur complexité mathématique, mais de les amener à comprendre ce qui se cache derrière les gestes apparemment simples que les jeunes sont si prompts à poser.
La visibilité, la publicité, le contenu partagé, les votes sur Snapchat ne sont qu'une partie des valeurs de comptabilité sociale que les jeunes embrassent aujourd'hui. Tout cela repose sur une infrastructure subtile, mais néanmoins complexe, un monde de communication et de contrôle dominé par des algorithmes qui laissent très peu de pouvoir aux utilisateurs.
Les opérations de tri, de hiérarchisation et d'archivage par algorithme sont constantes et incessantes. C'est un travail qui se déroule sans relâche en arrière-plan lorsque les utilisateurs de réseaux sociaux et de moteurs de recherche naviguent dans Internet, font des clics, consultent du contenu, font des requêtes, publient, partagent du contenu, retweetent, inscrivent une mention (@), utilisent un mot-clic et réagissent. Aux yeux des utilisateurs, ces actions et leurs résultats immédiats sont symboles de dynamisme et de vitalité. Leur grand avantage est de simplifier nos recherches d'information et les communications, mais ils ont aussi le grand inconvénient d'amplifier certaines de nos manières les plus douteuses et discriminatoires de nous exprimer, d'agir et de nous manifester en ligne.
Je vous remercie. Je me ferai un plaisir de répondre à vos questions.
:
Merci beaucoup, madame la présidente. Je vous remercie d'avoir invité Innovation, Sciences et Développement économique Canada à venir vous parler du domaine de l'analyse des mégadonnées et de ses applications à la création de contenu fondé sur des algorithmes, parfois au détriment des jeunes filles et des femmes.
[Français]
C'est une question importante pour moi, non seulement parce qu'elle a des répercussions sur mon travail, mais aussi parce que je suis une femme ingénieure et que j'étais à Montréal lors des événements de Polytechnique, qui m'ont totalement anéantie.
[Traduction]
Après avoir obtenu mon diplôme de génie électrique, j'ai eu l'immense chance d'occuper des fonctions extrêmement enrichissantes dans le domaine des technologies au sein d'organismes importants comme IBM, KPMG et le Centre d'analyse des opérations et déclarations financières du Canada, le CANAFE, chargé de détecter les opérations de blanchiment d'argent. J'étais dirigeante principale de l'information pour le gouvernement avant d'occuper mon poste actuel de sous-ministre adjointe principale du secteur du Spectre, technologies de l'information et télécommunications. Je travaille dans le secteur des technologies depuis 30 ans, et j'ai été un témoin privilégié de nombreux progrès marquants, y compris Internet et l'analyse des mégadonnées.
[Français]
Maintenant, mon travail de sous-ministre adjointe consiste à utiliser les outils essentiels, c'est-à-dire les politiques, les programmes, les règlements et la recherche en télécommunications, pour que l'économie numérique canadienne profite à tous les citoyens du pays.
[Traduction]
En résumé, mon secteur est responsable de nombreux programmes, dont celui du spectre des radiofréquences, en contribuant au maintien de la sécurité de notre infrastructure de télécommunications essentielle, ainsi qu'à l'instauration d'un climat de confiance dans l'économie numérique. Nous protégeons la vie privée des Canadiens en veillant à l'application de la Loi sur la protection des renseignements personnels et les documents électroniques, la LPRPDE, qui encadre la protection des renseignements personnels dans le secteur privé, ainsi que de la Loi canadienne anti-pourriel, la LCAP. En ma qualité, je peux affirmer que le gouvernement canadien est déterminé à exploiter les avantages de l'analyse des mégadonnées en favorisant la découverte, l'interprétation et la communication de tendances significatives dans les données, sans compromettre la protection des renseignements personnels des Canadiens.
[Français]
Aujourd'hui, j'aimerais faire part au Comité de deux idées qui se complètent concernant la conservation du contenu fondée sur les analyses prévisionnelles et les algorithmes.
[Traduction]
La première se rapporte à la gestion individuelle de nos données numériques, et la deuxième à l'engagement du gouvernement canadien à instaurer un climat de confiance dans l'économie.
[Français]
J'aimerais dire d'abord que ce que les citoyens, les gens du milieu des affaires et ceux du gouvernement font en ligne tous les jours génère une quantité astronomique de données sur notre monde et sur nous en tant qu'individus.
[Traduction]
Au quotidien, les entreprises et les consommateurs produisent des milliards de milliards de gigaoctets de données, structurés ou non, de textes, de vidéos et d'images. Des données sont recueillies chaque fois qu'une personne utilise un appareil mobile, un système de localisation GPS, fait un achat électronique, etc. Ces données peuvent fournir des connaissances très utiles pour le développement de produits et de services, la prédiction des préférences personnelles et l'orientation du marketing personnalisé.
Ce domaine de connaissances ouvre des perspectives fabuleuses pour les innovations canadiennes. Selon International Data Corporation, la valeur du marché de l'analyse des mégadonnées devrait dépasser les 187 milliards de dollars en 2019. Le volume des données à analyser doublera rapidement et progressivement. En revanche, une grande inconnue inquiète de plus en plus: les avantages de l'analyse des mégadonnées parviendront-ils à compenser les dangers et les risques reliés?
Un nombre grandissant d'études indiquent que des décisions et des résultats biaisés peuvent avoir des répercussions notamment sur l'accès à des études supérieures ou à des occasions d'emploi. Inutile de dire qu'il est primordial de bien comprendre l'origine des tendances défavorables à certaines personnes et comment les contrer. Ce phénomène s'explique en partie par la piètre conception des algorithmes — du point de vue des utilisateurs — ou par la piètre sélection des données, qui peut aussi être incorrecte ou peu représentative d'une population.
[Français]
Il est facile de constater que les données irrégulières et les algorithmes de mauvaise qualité peuvent donner des analyses prévisionnelles médiocres, c'est-à-dire préjudiciables aux individus.
[Traduction]
Je suis d'accord avec ma collègue sur le fait que l'atténuation des risques doit commencer par une meilleure littératie numérique des Canadiens. Cet outil est de plus en plus nécessaire pour comprendre quelles traces nous laissons en ligne. La littératie numérique procurera aux Canadiens les connaissances et les outils requis pour utiliser Internet et les technologies de manière efficace, en gardant un esprit critique et responsable.
La gestion personnelle des renseignements personnels dans Internet peut aider les Canadiens, et particulièrement les jeunes femmes et les filles. Cependant, nous avons besoin d'appuis, ce qui m'amène à mon deuxième point. Nous avons besoin de cadres comme celui qui est offert par la LPRPDE pour protéger nos renseignements personnels. Cette loi fédérale sur la protection des renseignements personnels établit un cadre réglementaire souple, fondé sur des principes, de protection des renseignements personnels.
Les principes établis par la LPRPDE, neutres sur le plan technologique, reposent sur le concept voulant que les particuliers devraient avoir un certain degré de contrôle sur les renseignements que les entreprises recueillent sur eux et la manière dont ils sont utilisés, sans égard aux circonstances.
Il est évident que certains renseignements, notamment les données démographiques, la situation géographique, etc., peuvent jouer un rôle déterminant pour la publicité ciblée. C'est ce genre de données que les algorithmes utilisent pour générer des recommandations, mais ils peuvent également avoir de sérieuses répercussions sur la protection des renseignements personnels. C'est d'autant plus inquiétant quand on pense au manque de transparence des politiques de nombreux sites Internet à cet égard, et à la méconnaissance de l'utilisation qui peut être faite des données personnelles que les jeunes, mais aussi des Canadiens plus âgés, fournissent volontiers.
[Français]
Nous devons trouver le juste équilibre entre la vie privée et les possibilités économiques découlant de la cueillette de renseignements.
[Traduction]
Pour conclure, Innovation, Sciences et Développement économique Canada
[Français]
oeuvre avec un certain nombre d'autres ministères à promouvoir l'utilisation de techniques prévisionnelles numériques au sein du gouvernement, mais également au sein du secteur privé.
[Traduction]
Nous devons promouvoir une meilleure compréhension des possibilités et des risques qui sont rattachés à l'univers numérique, des utilisations qui peuvent être faites de nos données, ainsi que de l'obligation de ceux qui utilisent les analyses prévisionnelles d'assurer la protection des renseignements personnels. C'est essentiel pour que tous puissent tirer profit des avantages offerts, et particulièrement les jeunes femmes et les filles.
Je vous remercie d'avoir inclus cette question dans le cadre de vos importants travaux.
[Français]
Merci.
:
C'est une excellente question. Merci.
C'est un sujet qui m'intéresse particulièrement parce que je suis en contact avec des jeunes qui en sont à leur première année d'université. Je crois donc avoir une bonne idée de l'absence de littératie numérique. Snapchat n'a aucun secret pour eux, mais ils ont de la peine à comprendre comment cette technologie fonctionne exactement.
Je crois que nous devons coordonner nos efforts sur les enseignants des élèves qui s'apprêtent à faire une irruption fracassante dans le monde numérique. Ma première recommandation serait d'offrir une bonne formation aux enseignants. On pourrait même désigner des champions dans les écoles ou les programmes parmi les enseignants qui sont à l'aise avec les technologies, qui pourraient devenir des leaders et encourager leurs collègues. Les technologies font souvent peur, et la plupart des études révèlent que les femmes les craignent davantage. Il faut créer un environnement sûr et propice qui favorisera une bonne réflexion sur le genre de participation souhaité.
Il ne faut pas se contenter d'aborder les applications logicielles de manière superficielle, se limiter aux modes d'emploi… Nous avons bouclé la boucle pour ce qui concerne Internet. Le temps est venu de revenir en arrière et de prendre un temps d'arrêt. Les interfaces utilisateur simplistes camouflent un écosystème logiciel extrêmement touffu, et nous ne pouvons pas faire l'économie de tenter de comprendre ce qui se passe et de partager ce que nous avons appris aux jeunes et à nos pairs, pour permettre à tous d'entrer de plain-pied dans le XXIe siècle. J'estime qu'il est absolument fondamental de donner cette formation aux élèves avant les niveaux supérieurs de leur scolarité, avant qu'ils arrivent au secondaire. À mon avis, il n'est jamais trop tôt, si l'on considère que les jeunes et même les enfants ont déjà des téléphones cellulaires.
:
Merci, madame la présidente.
Avant de poser des questions, je voudrais remercier les témoins de leur présence ici aujourd'hui.
J'ai une question qui s'adresse à Mme Charette.
[Traduction]
Vous avez effleuré le sujet des pratiques novatrices et de la panoplie d'applications extraordinaires qui sont offertes, mais aucune ne semble liée directement au domaine de la violence contre les femmes. Je suis emballée par les progrès annoncés au Canada concernant une expérience utilisateur personnalisée sur le Web. Je pense que nous avons à notre disposition beaucoup d'applications extraordinaires, autant du point de vue des consommateurs que de celui des entreprises.
De toute évidence, je partage les préoccupations de mes collègues quant au fait qu'Internet semble avoir atteint des sommets dans sa capacité de nous montrer des résultats positifs, mais également des résultats moins appropriés, qu'on le veuille ou non.
Pour ce qui est de la formulation de recommandations au gouvernement, votre message est on ne peut plus clair: nous devons placer l'éducation au haut de la liste. Selon vous, devrions-nous avoir certaines réserves pour ne pas entraver le développement de pratiques novatrices prometteuses par le secteur privé?
:
Les pirates utilisent une panoplie d'outils. Le plus simple est le hameçonnage. Nous tous ici recevons régulièrement des courriels d'hameçonnage. Depuis peu, le hameçonnage se fait par voie de messages textes qui nous invitent à « cliquer sur le lien ». Si vous cliquez, vous êtes cuits: un visiteur importun s'installe dans votre appareil et il y reste; souvent, il recueille de l'information sur vos activités routinières en ligne, à votre insu, jusqu'à ce que l'information ait de la valeur, pour une quelconque fin.
L'hameçonnage et l'infestation des appareils avec des programmes malveillants sont très courants. Les pirates sont aux premières loges pour recueillir des renseignements personnels et de l'information comme votre numéro de compte bancaire, votre mot de passe, etc. Ils utilisent ensuite ces données pour se connecter en usurpant votre identité à un autre endroit et à un autre moment, afin de transférer tous vos fonds dans un autre compte.
L'hameçonnage est la tactique la plus fréquente, mais vous avez peut-être entendu parler il y a quelques semaines d'une attaque par déni de service assez réussie qui a été générée par l'Internet des objets et qui touchait des choses aussi simples qu'un thermostat installé dans une maison. Ces appareils connectés à Internet sont souvent livrés avec un mot de passe préétabli. L'utilisateur ne sait pas toujours quel est le mot de passe standard, ni même comment le changer, mais les pirates le savent. Ils peuvent de cette façon s'infiltrer dans votre réseau domestique et y rester cachés aussi longtemps qu'ils en ont besoin pour commettre leurs méfaits.
Malheureusement, la complexité des technologies utilisées dans nos maisons et dans les entreprises… Dans les entreprises, des administrateurs de réseau et des technologues veillent sur les appareils des employés mais, à la maison, nous n'avons pas le choix d'avoir des connaissances de base pour protéger nos technologies.
:
Google fait parfois bien, parfois moins bien au chapitre du leadership. Des événements survenus dans la dernière année ont forcé d'autres sociétés, comme Twitter, à lutter de manière plus proactive contre le discours haineux.
À bien y penser, nous nous trouvons dans une situation étrange. Ces sociétés sont américaines, leurs serveurs résident aux États-Unis, et c'est le premier amendement qui régit la propagande agressive ou le discours haineux. Leur réaction n'est pas aussi viscérale que la nôtre, loin de là. Même à l'échelon des entreprises, je crois, il est difficile de mobiliser les efforts, sauf s'il y a beaucoup de publicité. Il faut parfois un événement très grave pour faire basculer les choses, comme ce fut le cas lorsque l'actrice Leslie Jones a été la cible de propos haineux racistes, sexistes et misogynes sur Twitter.
Cependant, certaines sociétés semblent avoir entendu le message. Plus particulièrement, une société comme Twitter, même si elle vaut des milliards, doit mettre de l'ordre dans ses affaires, car elle a actuellement de la difficulté à élargir sa base et sa plateforme. Elle semble bien motivée. Elle opère dans un régime capitaliste. Il s'agit d'une société privée, alors je crois que nous pouvons lui donner notre approbation et la forcer…