Bienvenue à la 95e réunion du Comité permanent de l'accès à l'information, de la protection des renseignements personnels et de l'éthique de la Chambre des communes.
Conformément à l'article 108(3)h) du Règlement et à la motion adoptée par le Comité le mardi 31 janvier 2023, le Comité reprend son étude sur l'utilisation des plateformes de médias sociaux pour la collecte de données et le partage non éthique ou illicite de renseignements personnels avec des entités étrangères.
[Français]
La réunion d'aujourd'hui se déroule sous forme hybride, conformément au Règlement de la Chambre. Les députés peuvent y participer en personne ou au moyen de l'application Zoom.
[Traduction]
Je tiens à tous les membres du Comité de ne pas placer leurs oreillettes près des microphones, car cela pourrait causer de graves blessures à nos interprètes.
Je vais maintenant vous présenter les témoins qui se joignent à nous pour la première heure de séance. Nous accueillons M. Brett Caraway, professeur agrégé d'économie des médias à l'Université de Toronto, et Mme Emily Laidlaw, professeure agrégée et titulaire de la Chaire de recherche du Canada en droit de la cybersécurité à l'Université de Calgary, qui témoignent à titre personnel.
Avant de commencer, la sonnerie se fait entendre. J'ai obtenu le consentement unanime du Comité pour commencer la réunion pour entendre les déclarations préliminaires avant les votes. Je remercie les membres du Comité de leur indulgence afin que nous puissions entendre nos témoins.
Monsieur Caraway, vous avez cinq minutes, puis ce sera au tour de Mme Laidlaw.
:
Je tiens à remercier les membres du Comité de me donner l'occasion de prendre la parole aujourd'hui.
Je suis professeur agrégé de l'économie des médias à l'Université de Toronto. Je comparais aujourd'hui à titre personnel; les points de vue que j'exprime sont donc strictement personnels.
Je veux parler des risques que pose la structure incitative sous-jacente des plateformes de médias sociaux. J'espère ainsi vous donner une idée des changements qui se sont produits dans notre paysage médiatique et des raisons pour lesquelles il y a, trop souvent, des divergences entre intérêt public et intérêts privés.
Les plateformes numériques sont des éléments importants de l'économie de l'information en raison de leur capacité de réduire les frictions sur le marché et les coûts de transaction. Pour comprendre ce dont je parle, imaginez l'utilité d'une application de médias sociaux comme Instagram pour rendre accessible un groupe d'utilisateurs donné, par exemple les photographes amateurs ou les passionnés de voyage, à des annonceurs qui veulent leur envoyer de la publicité ciblée.
Dans ce scénario, il y a en fait trois acteurs du marché: les utilisateurs, les annonceurs et l'exploitant de la plateforme, qui ont chacun leur propre ensemble d'incitatifs. Instagram a pour incitatif financier de maximiser le nombre d’utilisateurs et leur niveau de participation, ce qui rend la plateforme plus attrayante pour les annonceurs. De leur côté, les annonceurs veulent le plus de renseignements possible sur les utilisateurs de la plateforme afin de minimiser l'incertitude, tandis que les utilisateurs veulent simplement profiter des fonctionnalités de la plateforme avec le moins de perturbations possible.
Les marchés multilatéraux de ce genre n'ont rien de nouveau. Il s'agit d'une caractéristique des systèmes de communication de masse depuis le début de la vente d'espaces publicitaires dans les premiers bulletins d'information, dans les années 1600. Cependant, des termes comme « marketing de créneaux » et « publicité ciblée » sont loin d'être représentatifs de ce qui se passe réellement chaque fois que vous faites une recherche sur Google, que vous regardez une vidéo sur TikTok, que vous aimez la publication de quelqu'un sur Facebook ou que vous partagez un gazouillis. L'information est collectée, il y a des enchères et des messages commerciaux sont livrés.
Mes préoccupations ne sont pas principalement liées à l'escalade des tensions géopolitiques ou aux auteurs étrangers de menaces, bien que l'ingérence étrangère, la mésinformation, la désinformation et la radicalisation soient toutes de légitimes préoccupations. Ce qui me préoccupe, c'est que ces plateformes, même lorsqu'elles fonctionnent exactement comme prévu, ont des répercussions négatives sur la sphère publique. Ce qui me préoccupe, c'est que les aspects économiques des plateformes garantissent pratiquement la propagation de la désinformation, les efforts pour influencer les comportements et l'érosion de la vie privée de la personne.
Mes préoccupations découlent du constat suivant: dans l'économie des plateformes, il n'existe aucune réelle limite supérieure à l'exploitation de l'attention humaine. Le mot « attention » renvoie peut-être à la capacité de se concentrer sur quelque chose, mais d'un point de vue sociétal, il renvoie à notre capacité collective de reconnaître les problèmes et les possibilités; à l’horizon de notre imagination et de notre créativité; à notre capacité d'être à la hauteur pour nous attaquer aux problèmes les plus criants du monde. L'attention est une ressource renouvelable, mais n'est pas comme toute autre ressource, en ce sens qu'on ne peut la stocker comme un métal précieux. On peut seulement l'orienter vers quelque chose. En fait, c'est la fonction économique de la publicité: accaparer l'attention limitée au détriment d'intérêts concurrents. La façon dont nous choisissons d'accorder notre attention est importante, tant pour les particuliers que pour la société. Notre attention façonne notre identité, qui nous pourrions devenir et où nous pourrions aller.
Les économistes parlent souvent de « la tragédie des biens communs ». L'origine du concept pose problème, mais comme métaphore, cela peut être très utile. Cela met en lumière notre propension, lorsque nous permettons l'accès sans entrave aux ressources limitées, à la surutilisation et à l'exploitation de ces ressources. Les plateformes numériques ne cherchent pas uniquement à mesurer l'attention, mais aussi à la modifier pour qu'elle se plie aux impératifs commerciaux. De nos jours, l'économie de l'attention ressemble moins à Mad Men, du réseau AMC et davantage aux transactions à vitesse vertigineuse sur les marchés financiers. Les principes économiques fondamentaux de ce système sont incompatibles avec des mesures rigoureuses de protection de la vie privée.
L'impératif économique primordial est la maximisation de la collecte de données, pas seulement pour la République populaire de Chine ou la Russie, mais aussi pour des entreprises américaines comme Alphabet, Meta, Amazon et une multitude de courtiers en données dont vous n'avez jamais entendu parler. Par conséquent, notre attention est épuisée, et sa qualité est réduite.
Nous avons des mesures de protection pour protéger d'autres ressources, notamment l'eau, l'air et l'habitat. Nous devons également gérer cette ressource renouvelable de la même manière, de manière durable, comme nous le ferions pour l'air, l'habitat et l'eau.
Le Canada est à un point d'inflexion. J'espère que nous pourrons prendre des mesures concrètes pour habiliter les Canadiens grâce à la création d'un cadre de réglementation exhaustif pour l'ensemble des plateformes numériques.
Merci.
:
Monsieur le président, je vous remercie de m'avoir invitée à prendre la parole devant le Comité.
Je suis honorée de vous parler depuis Calgary et le territoire traditionnel des peuples du Traité no 7 et de la nation métisse de l'Alberta.
J'ai eu l'occasion d'écouter certains témoins et les discussions précédant ma comparution. Pendant le temps qui m'est imparti, j'aimerais revenir en arrière pour examiner les questions juridiques plus générales qui sont en jeu.
Mon message fondamental, c'est que ce n'est pas seulement une question de protection de la vie privée. La protection de la vie privée est une partie de l'équation. Par exemple, Discord n'utilise pas d'outils pour détecter le contenu montrant l'exploitation sexuelle d'enfants, ne surveille pas le contenu diffusé en direct et n'offre pas d'outils pour faire des signalements. C'est courir au désastre. C'est un problème de conception de la sécurité et non seulement un problème de protection de la vie privée.
C'est une question de réglementation des plateformes. La santé de notre écosystème de l'information dépend de plateformes privées et des choix que font ces entreprises quant à la conception de leurs produits, à la gouvernance d'entreprise, à la culture et aux systèmes de modération de contenu. Bref, les plateformes ont un pouvoir énorme.
Le Canada est actuellement à la traîne sur le plan de la réglementation des plateformes. Une loi sur les méfaits en ligne, que nous n’avons pas encore au Canada, réglerait bon nombre des aspects dont le Comité a discuté. L'Europe, le Royaume-Uni et l'Australie ont tous des lois pour lutter contre ces problèmes. Dans certains cas, ces lois en sont à leur deuxième ou troisième version. Le Canada n'a aucune loi fédérale visant la réglementation des plateformes. Nous pouvons tirer des leçons des avantages et désavantages de ces autres lois, mais il est temps d'agir maintenant.
De quoi avons-nous besoin et quels aspects exigent la prudence?
Premièrement, la réglementation des plateformes comporte des similitudes avec la protection de l'environnement, en ce sens que de nombreux domaines du droit doivent se conjuguer pour protéger notre sécurité et nos droits. En particulier, les lois sur la protection des renseignements personnels et les lois sur les méfaits en ligne se renforcent mutuellement. Nous avons donc besoin des deux. Par exemple, les algorithmes qui poussent du contenu préjudiciable le font grâce à la collecte de renseignements permettant d'identifier une personne, ce qui relève du droit relatif au respect de la vie privée. Toutefois, l'algorithme peut aussi utiliser des données agrégées anonymisées, ce qui ne relève pas du droit relatif au respect de la vie privée.
Les lois sur les méfaits en ligne permettent de mieux cibler les choix des plateformes en matière de conception de produits et de systèmes de modération de contenu. Les médias sociaux exploitent les données pour déterminer les préférences et les intérêts. Or il s'agit d'un aspect auquel les lois sur les méfaits en ligne peuvent remédier. On pense au fait que Meta amplifie le contenu émotif et toxique sur Facebook en accordant cinq fois plus de valeur aux réactions « colère » et « j'adore » qu'aux « j'aime ». Cela a alimenté la propagation de la désinformation et de la mésinformation.
Deuxièmement, les plateformes font partie de la solution. Elles peuvent être d'importants collaborateurs et innovateurs dans la résolution de problèmes. Toutefois, il y a une friction lorsque leur rôle s'apparente à celui d'un État. Certaines ont leurs propres équipes de sécurité nationale qui, essentiellement, établissent des politiques en matière de sécurité nationale.
Nous dépendons également des plateformes pour aller au‑delà de la loi dans la lutte contre le contenu haineux, la désinformation et l'extrémisme violent, qui ne sont pas nécessairement illégaux. Toutefois, cela ne remplace pas une loi pour établir les normes de l'industrie. Les normes sont nécessaires. J'ai donné comme exemples des plateformes qui ont des structures de gouvernance relativement perfectionnées, mais il existe de nombreuses plateformes populaires qui font le minimum pour gérer les risques associés à leurs produits.
Troisièmement, lorsqu'il est question des risques de préjudice, il convient de préciser que les risques ne sont pas tous les mêmes. La protection des enfants, la propagande haineuse et terroriste, la désinformation et la violence ont chacune leur propre dynamique et ne devraient pas être regroupées sous une seule règle de droit, sauf l'idée fondamentale de la diligence raisonnable des entreprises.
En outre, toujours pour ce qui est des risques de préjudice, il faut savoir que cela comprend les risques pour les droits fondamentaux: le droit à la liberté d'expression, le droit à la vie privée et le droit à l'égalité. Toute analyse de solutions sur les plans du droit ou de la gouvernance doit être axée sur la protection et la promotion des droits. C'est un exercice particulièrement difficile lorsqu'il s'agit de s'attaquer à la mésinformation et la désinformation, puisqu'il est légal — sauf dans des cas très précis — de croire et de diffuser de fausses informations.
Cela dit, j'aimerais vous laisser sur cette note: quels sont les éléments de base nécessaires à l'élaboration d'une loi sur les méfaits en ligne?
Les plateformes devraient avoir l'obligation de gérer les risques de préjudices de leurs produits et de protéger les droits fondamentaux. Il devrait y avoir des obligations en matière de transparence assorties d'un mécanisme d'évaluation de cette transparence au moyen de vérifications et d'un accès aux données par des chercheurs approuvés. Il faut créer un organisme de réglementation chargé d'enquêter sur les entreprises et d'éduquer le public. En outre, les victimes devraient avoir accès à des recours, car le préjudice est à la fois collectif et individuel.
Merci. Je suis prête à répondre à vos questions.
:
Merci beaucoup, monsieur le président, et merci à nos témoins.
Je vous suis également reconnaissant d'avoir formulé un certain nombre de suggestions pratiques dans vos déclarations. Comme toujours, si vous avez des choses à ajouter, n'hésitez pas à nous les transmettre.
Monsieur Caraway, j'ai trouvé fort intéressants certains de vos travaux, car l'économie des médias sociaux est sans aucun doute un sujet fascinant. C'est l'équilibre entre un service perçu comme gratuit et le coût associé à une chose dont les coûts d'exploitation sont très élevés, comme une plateforme de médias sociaux. Sur les plans de la réglementation et de la gestion, comment peut‑on établir un équilibre entre le désir du consommateur, qui est d'avoir un service gratuit, et les exigences associées à l'exploitation d'une énorme plateforme Web?
:
C'est une excellente question.
Ce que je dis toujours à mes étudiants, c'est que rien n'est gratuit. Même si vous semblez obtenir ces services gratuitement, s'il s'agit d'un modèle financé par la publicité, vous payez pour ce service plus tard lorsque vous achetez des biens ou des services.
La plupart des plateformes du monde des médias sociaux dont nous parlons sont exploitées comme des marchés multilatéraux. Il est assez difficile de satisfaire tout le monde. Comme je l'ai évoqué, on tente de satisfaire les annonceurs, mais ils veulent le plus d'informations possible sur les utilisateurs. Les utilisateurs veulent simplement qu'on les laisse utiliser la plateforme librement sans vouloir nécessairement payer pour cela non plus. Ce n'est jamais populaire, sauf dans certains contextes, peut-être, notamment les services de diffusion en continu en ligne comme Spotify ou Netflix. Cependant, même dans les modèles par abonnement, une entreprise comme Netflix, qui ne collecte pas nécessairement le même genre de données que des entreprises comme Meta ou Alphabet, collecte aussi des données sur la façon dont les abonnés utilisent la plateforme et déploient l'intelligence artificielle pour les systèmes de recommandation, etc.
Du côté des annonceurs, il y a toujours un impératif économique pour demander plus de données et, par conséquent, les exploitants de plateformes collecteront plus de données. Je pense que cela témoigne de la nécessité d'une intervention du gouvernement pour dire: « Eh bien, voici les droits énumérés dont nous tenons compte, notamment la protection de la vie privée des citoyens ». Je ne parle pas uniquement de les inclure dans un préambule, mais de les inscrire dans des critères juridiques, donc...
:
Merci beaucoup. Je souligne simplement que la formulation « aider les parents » est très bien choisie.
Madame Laidlaw, nous parlons de la protection des jeunes. Les médias sociaux regorgent de préjudices: de l'intimidation aux types d'exploitation les plus odieux, comme les crimes associés à la traite de personnes, au matériel d'exploitation des enfants, par exemple.
Dans le contexte des médias sociaux et des jeunes, en quoi consiste le rôle du gouvernement pour l'élaboration de la réglementation? Quel est le rôle des plateformes de médias sociaux pour tenter de créer des cadres remédiant aux innombrables défis potentiels?
Il reste un peu plus d'une minute, et je sais que c'est une question complexe. J'espère que vous avez suffisamment de temps pour faire part de vos commentaires au Comité.
C'est une question énorme, mais c'est la question qui vaut cher.
Je serai concise et je dirai qu'il est essentiel que le gouvernement joue un rôle, parce que jusqu'à maintenant, nous nous sommes surtout fiés à l'autogouvernance des entreprises, qui ne fonctionne pas. Toutes sortes de méfaits sont commis en ligne.
Ce dont nous avons besoin, c'est d'un organisme de réglementation, qui pourrait intervenir avec plus d'agilité. Il est trop lourd de porter certaines de ces préoccupations devant les tribunaux. Nous avons besoin d'aide pour établir des pratiques. Chaque plateforme est différente, alors elles doivent vraiment trouver des solutions pour leurs sites. Or, il doit y avoir une procédure pour leur demander des comptes. Elles doivent démontrer à un organisme de réglementation les mesures qu'elles prennent pour protéger les enfants.
Je pense que nous devons départager les préjudices. Pensons aux mesures pour protéger les enfants. Le visionnement d'images d'exploitation sexuelle d'enfants et d'abus intimes ainsi que la traite de personnes constituent des crimes. Puis, il y a les principaux acteurs qui, dans la mesure où ils peuvent être trouvés et poursuivis, devraient être les cibles. Cependant, les plateformes devraient avoir une responsabilité distincte et des obligations uniques.
En ce qui concerne les enfants...
Premièrement, il s'agit d'une question juridique, et le gouvernement doit adopter une loi sur les préjudices en ligne, parce qu'il doit établir les obligations des entreprises. Essentiellement, il doit établir des normes minimales. Les entreprises elles-mêmes, cependant, peuvent commencer à prendre plus au sérieux la protection des enfants.
Je pense que l'un des problèmes, c'est qu'une grande partie de la transparence que nous voyons actuellement a tendance à être davantage un exercice de marketing. Je pense que les compagnies ne sont pas aussi franches au sujet de certaines pratiques. C'est un aspect clé, bien sûr, dont M. Caraway a parlé: l'économie de l'attention.
En ce qui concerne les enfants en particulier, je pense que nous devons considérer ces pratiques comme de la manipulation des esprits. Par le passé, le milieu publicitaire recourait à des interventions pour protéger les enfants contre la manipulation de l'esprit. Certaines publicités n'étaient pas diffusées à certains moments de la journée ou pendant les émissions pour enfants. La même chose se passe sur les médias sociaux: on promeut le contenu suicidaire, le contenu sur les troubles de l'alimentation et ainsi de suite.
Il est essentiel que ces plateformes, par leur conception... Il faut se demander comment une plateforme est conçue. Comment les algorithmes promeuvent-ils le contenu? Comment encourage-t‑on certains comportements? Les plateformes doivent se pencher sur ces réalités et rendre des comptes, alors je pense qu'on devrait leur imposer des responsabilités particulières entourant les enfants.
:
Un élément qui, selon moi, est vraiment important... en fait, il y en a deux, en quelque sorte.
Je pense que nous devons nous pencher très attentivement sur ce qui constitue un consentement éclairé. Ce qui me pose problème, c'est que non seulement les enfants, mais aussi les utilisateurs moyens doivent composer avec des contrats de licence d'utilisateur final tellement alambiqués que quelqu'un comme Mme Laidlaw doit les débroussailler. Ils nécessitent énormément d'expertise et peuvent changer presque quotidiennement. Je pense qu'il importe de revoir ce qui représente vraiment du consentement dans ce contexte.
Puis, il y a la transparence et la façon dont les données sont utilisées. C'est un enjeu pour lequel il faut pouvoir compter sur un intervenant comme un commissaire à la protection de la vie privée, qui peut envoyer un vérificateur indépendant pour voir ce qui se passe réellement en coulisses.
Enfin, je dirais que les pénalités doivent avoir un effet. Oui, 25 millions de dollars semblent représenter une grande somme, mais ce n'est peut-être pas extraordinaire pour Meta ou Alphabet, alors que 5 % des revenus mondiaux sembleraient plus sérieux. J'appuie aussi ce genre d'approche.
:
Justement, les pénalités dont on parlait un peu plus tôt devraient être un pourcentage des revenus plutôt qu'une amende de 25 000 $, qui est insignifiante dans les circonstances.
Vous avez beaucoup parlé d'éducation également. Tous les témoins que nous avons entendus, y compris les représentants de la police, ont parlé d'éducation. Cependant, au bout du compte, personne ne nous dit qui devrait éduquer qui. Peut-être ce nouvel organisme de réglementation pourrait-il avoir pour mission cette éducation, qui pourrait être faite à l'école même, puisqu'on parle de jeunes.
Comment voyez-vous cette éducation, que tout le monde favoris, sans toutefois trouver de solution, pour l'instant?
:
Merci beaucoup, monsieur le président.
J'aimerais revenir sur certains points, surtout à propos du projet de loi . Personnellement, je pense qu'il aurait mieux valu aborder cette partie du projet de loi dans un cadre éthique plutôt que dans un cadre de l'industrie.
Madame Laidlaw, pouvez-vous nous parler de l'aspect éthique entourant l'intelligence artificielle, ou IA? Pour quelle raison, du point de vue juridique, les considérations sur la légitimité de la démocratie et sur les façons dont l'IA mine la société devraient-elles probablement être abordées dans un texte distinct, comme vous venez de le suggérer?
:
C'est une excellente question. Merci.
Je pense que nous avons vu, au cours de la dernière année, les transformations sociales que peut entraîner l'IA, et ce n'est que le début. Le problème avec la Loi sur l’intelligence artificielle et les données, dans sa forme actuelle, c’est qu’elle n’est pas suffisamment étoffée pour nous permettre de faire face aux différents problèmes qui nous attendent. Elle doit être séparée du reste afin que nous puissions avoir une discussion réfléchie sur les façons d'utiliser l’IA qui peuvent perturber fondamentalement la démocratie, miner notre capacité de prendre des décisions et créer des risques physiques pour nous, individuellement ou collectivement.
Nous devons dresser la liste de ces divers risques et possibilités et rédiger un projet de loi en conséquence. Je pense que le modèle européen peut nous aider. Toutefois, dans sa forme actuelle, la Loi sur l’intelligence artificielle et les données doit être modifiée.
:
Je veux entrer dans les détails.
Vous avez parlé de l'affaiblissement de la démocratie. Je vais parler du cas de Cambridge Analytica, dans lequel nous savons que Facebook n’a pas effectué une surveillance suffisante pour s’assurer que l’utilisation des données était conforme à ses propres conditions de service.
Je crois vous avoir entendu dire dans votre témoignage que l'autoréglementation de l'industrie est un problème, mais qu'elle pourrait être en mesure de présenter certaines solutions.
Dans quelle mesure avons-nous la certitude que les entreprises de médias sociaux comprennent parfaitement comment leurs données sont utilisées et qu'elles sont adéquatement protégées? De plus, pensez-vous qu'elles savent que les données sont détournées et qu'elles permettent cette mauvaise utilisation, tout simplement?
:
Je pense que c'est un peu des deux. Selon moi, elles ne donnent pas un portrait complet de la situation. Elles ne savent pas tout ce qui se passe.
Par exemple, un de mes collègues, Joel Reardon, a fait l'ingénierie inverse de diverses applications qui sont censées être dotées de toutes les mesures de protection de l'enfance. La conclusion est que de nombreuses applications n'offrent pas de telles mesures.
Essentiellement, nous attendons que les problèmes soient révélés au grand jour, puis qu'un scandale éclate. C'est tout simplement nettement insuffisant. La transparence à elle seule ne change absolument rien. Nous avons besoin d'un mécanisme pour enquêter et vérifier ces entreprises, pour lever le voile sur elles. Autrement, nous nous retrouvons avec une crise comme celle de Cambridge Analytica.
:
Merci, monsieur Green. Je suis ravi que vous ayez surveillé le temps, car nous avons appuyé sur le mauvais bouton sur le téléphone et nous avons perdu le compte. Vous auriez pu avoir deux minutes de plus si vous l'aviez voulu.
Tout d'abord, je tiens à remercier nos invités d'être venus aujourd'hui. Comme je l'ai mentionné plus tôt, si vous souhaitez soumettre d'autres renseignements au Comité dans le cadre de l'étude du rapport, veuillez les faire parvenir à la greffière.
Je tiens avant tout à m'excuser pour les perturbations d'aujourd'hui et de la semaine dernière. Je ne me sentais pas très bien. Je vous suis reconnaissant de la patience dont vous avez fait preuve en revenant au Comité cette semaine et en nous communiquant les renseignements que vous avez fournis.
Merci, madame Laidlaw et monsieur Caraway.
Nous allons suspendre la séance quelques minutes. Nous reviendrons avec le nouveau groupe de témoins pour entendre leurs déclarations liminaires. Nous avons un peu de temps pour cela, alors suspendons nos travaux une minute ou deux.
Merci.
:
Nous allons reprendre la séance. J'aimerais souhaiter un bon retour à tout le monde.
J'aimerais maintenant souhaiter la bienvenue aux témoins pour la deuxième partie de notre réunion d'aujourd'hui.
À titre personnel, nous recevons M. Matt Malone, professeur adjoint à la Thompson Rivers University. Bienvenue, monsieur Malone. De l'organisation The Dais, nous accueillons Sam Andrey, directeur général, et Joe Masoodi, analyste principal des politiques.
Je vous informe que des votes auront lieu. Nous disposons d'environ 27 minutes, alors nous allons commencer avec les déclarations liminaires. Nous suspendrons la séance, puis nous reviendrons pour les questions et réponses. Je vous remercie de votre patience à cet égard.
Monsieur Malone, vous avez au plus cinq minutes pour faire votre exposé au Comité.
Allez‑y, monsieur, s'il vous plaît.
:
Merci, monsieur le président.
Je suis Matt Malone, et je suis un professeur adjoint à la faculté de droit de la Thompson Rivers University à Kamloops. J'assiste aujourd'hui à la réunion à titre personnel.
Je vais utiliser mes remarques liminaires pour vous faire part de mes réflexions à l'aide d'une étude de cas, qui concerne plus précisément l'interdiction sélective de TikTok sur les appareils émis par le gouvernement qui a été annoncée en février 2023. Comme le Comité s'en souvient peut-être, cette interdiction sélective était accompagnée d'une déclaration sur les préoccupations relatives à la protection de la vie privée et à la sécurité.
Ces préoccupations déclarées n'expliquent pas plusieurs choses. Tout d'abord, elles n'expliquent pas pourquoi le gouvernement a attendu cinq mois pour intervenir en ce qui concerne la note d'information sous-jacente qui mettait en garde contre les pratiques de TikTok. Ensuite, elles n'expliquent pas pourquoi le gouvernement continue d'acheter de la publicité sur TikTok. Enfin, elles n'expliquent pas pourquoi le gouvernement a ignoré que TikTok n'est pas la seule application qui conserve les données de ses utilisateurs dans les instances étrangères et les divulgue potentiellement à des régimes étrangers.
Comme le Secrétariat du Conseil du Trésor me l'a confirmé quelques jours avant cette audience, aucune des applications suivantes n'est interdite de téléchargement et d'utilisation sur les appareils émis par le gouvernement: l'application de médias sociaux VKontakte affiliée à la Russie, l'application Yandex associée à la Russie, l'application Mail.ru, ainsi que d'autres applications de médias sociaux comme Facebook, Instagram, Tinder, Snapchat, Bumble, Grindr, Truth Social, Gab et Discord, qui ont été impliquées dans les fuites du Pentagone de 2022‑2023 et qui, selon Mme Laidlaw, ne disposent pas de mesures de protection de la sécurité des enfants.
Comme je l'ai recommandé dans un article publié récemment — et je vais profiter de l'occasion pour le recommander à nouveau au président du Conseil du Trésor —, je pense qu'une meilleure protection de la vie privée et de la sécurité consisterait à ce que le gouvernement interdise toutes les applications de médias sociaux sur les appareils fournis par le gouvernement, à moins qu'il n'y ait une justification commerciale solide. Je trouve incroyable que les applications que je viens d'énumérer ne soient pas interdites sur les appareils fournis par le gouvernement. Je pense également que le gouvernement devrait cesser d'acheter des publicités sur tous les services de médias sociaux.
Même avec de telles interdictions en place, il convient de noter que la loi fédérale en matière de protection de la vie privée n'impose aucune contrainte significative sur les transferts de données vers des pays tels que la Russie et la Chine. Une note interne du gouvernement que j'ai obtenue grâce à la Loi sur l'accès à l'information fait état que le projet de loi et la loi sur la protection des renseignements personnels dont le Parlement est actuellement saisi évitaient d'intégrer dans ce projet de loi de nouvelles restrictions ou des restrictions de type européen sur le transfert transfrontalier de renseignements personnels, surtout par respect pour les intérêts commerciaux. Il est très révélateur que le projet de loi sur la vie privée dont le Parlement est saisi soit géré par le portefeuille de l'industrie au sein du cabinet, et non par un portefeuille des droits de la personne, de la sécurité publique ou de la sécurité nationale.
Comme de nombreuses applications de médias sociaux, TikTok mérite l'opprobre pour ses violations de la vie privée, de ses pratiques de collecte de données et de contrôle du discours, et pour avoir donné l'accès à des données malgré avoir fourni des assurances. Comme d'autres applications de médias sociaux, TikTok est un vecteur de préjudice en ligne pour les jeunes. Son modèle économique est axé sur la publicité ciblée qui porte atteinte à la vie privée et exacerbe la crise de la santé mentale qui touche les jeunes. Les fonctions de sécurité de l'application pour les enfants sont toutes faciles à contourner.
Par l'entremise de diverses demandes d'accès à l'information, j'ai vu plusieurs séances d'information internes où les acteurs du gouvernement canadien ont relevé ces problèmes à maintes reprises. Je serais heureux d'en parler.
Toutefois, il est important de noter que le vrai coupable ici est la loi canadienne, car elle n'empêche pas ces pratiques pour TikTok ou tout autre service de médias sociaux. Comme l'ont souligné à plusieurs reprises les lobbyistes de TikTok qui ont comparu devant ce comité, le traitement par TikTok des données des utilisateurs canadiens est régi par le droit canadien. Et c'est là où le bât blesse. Les lois canadiennes sur la protection des renseignements personnels ne respectent pas les droits et les intérêts des individus et des collectivités à l'ère numérique. L'application de ces lois est pratiquement inexistante. Au niveau fédéral, le Commissariat à la protection de la vie privée est devenu habile à annoncer en fanfare ses enquêtes, mais il est très lent à enquêter, comme je l'ai appris dans ma propre plainte concernant l'application ArriveCAN, qui a finalement été retenue.
Les forces de l'ordre ont également eu du mal à s'adapter au nouveau paysage numérique. Le système national de signalement de la cybercriminalité et de la fraude de la GRC, dont ce comité a récemment entendu parler en termes élogieux dans le cadre de cette étude, a en fait deux ans de retard et est toujours à l'étape des essais bêta. Son site Web indique qu'il n'accepte que 25 plaintes par jour dans tout le pays.
Pour donner aux députés un autre exemple, comme je l'ai appris lors d'une récente demande d'accès à l'information, l'équipe d'enquête sur la cybercriminalité de la GRC ne compte que huit employés pour l'ensemble de l'Alberta. En Colombie-Britannique, où s'est déroulée récemment une tragique affaire d'extorsion sexuelle d'un jeune sur les médias sociaux, l'équipe d'enquête sur la cybercriminalité ne compte que quatre employés pour l'ensemble de la province. Il n'y en a aucun en Saskatchewan, au Manitoba ou dans les provinces maritimes.
Avec une loi sur la protection de la vie privée et des données qui prive les citoyens d'une protection significative, des priorités de financement du gouvernement en profond décalage avec les valeurs déclarées et les besoins réels, et des lacunes dans la loi et la politique que le gouvernement ne montre aucune urgence à combler, les politiques et les pratiques du gouvernement fédéral posent des défis importants pour répondre aux types réels de préjudices que nous voyons se perpétuer ces jours‑ci sur les médias sociaux.
Pour conclure, je tiens à remercier le Comité de son invitation inattendue.
Je tiens également à remercier tout particulièrement la députée de Mississauga—Erin Mills du leadership dont elle a fait preuve dans ce dossier très important. J'ai été très impressionné par son travail dans ce dossier.
Je me ferai un plaisir de répondre, du mieux que je peux, à toutes les questions que les membres du Comité pourraient avoir.
Merci.
Merci de l'invitation à vous faire part de nos points de vue sur cette importante question.
Bonsoir. Je suis Sam Andrey, directeur général de l'organisation The Dais, un groupe de réflexion politique de la Toronto Metropolitan University. Nous travaillons à former les gens et à façonner les idées dont nous avons besoin pour faire progresser une économie, une démocratie et un système d'éducation inclusifs et novateurs pour le Canada.
Je suis accompagné de mon collègue, Joe Masoodi. Avec notre ancien collègue, Yuan Stevens, nous avons publié il y a trois ans un rapport intitulé « Home Ice Advantage », qui se penchait sur le sujet dont le Comité est saisi aujourd'hui, à savoir la sécurité transfrontalière des données des plateformes de médias sociaux. Bien que beaucoup ait changé au cours des trois dernières années, le problème fondamental de la protection inadéquate des Canadiens persiste.
:
Dans notre enquête annuelle sur les préjudices en ligne, nous avons constaté que les Canadiens font très peu confiance aux plateformes de médias sociaux, tant pour assurer la sécurité de leurs données que pour agir dans l'intérêt du public, se classant bien en dessous d'autres entreprises technologiques et d'autres organisations de divers types. En fait, la confiance dans TikTok, plus particulièrement, a chuté considérablement l'année dernière, pour se classer au dernier rang. Seulement 7 % des Canadiens disent qu'ils ont très confiance dans la plateforme, malgré sa croissance rapide avec près de 30 % des Canadiens qui l'utilisent.
TikTok a fait l'objet d'un examen particulier, compte tenu de sa structure d'entreprises. Comme on l'a souligné plus tôt au Comité, avant 2019, la politique de confidentialité de TikTok était transparente en déclarant qu'elle communiquait les renseignements des gens « avec tout membre ou associé de [son] groupe » en Chine. Cette ligne a ensuite été mise à jour pour supprimer cette référence à un lieu précis, mais la disposition relative à la divulgation demeure. Cette même disposition figure aussi dans la politique de protection de la vie privée de l'application WeChat, qui est utilisée par 6 % des Canadiens. Comme l'a souligné notre collègue, M. Malone, c'est également le cas pour beaucoup d'autres.
La loi actuelle sur la protection des renseignements personnels du Canada n'interdit pas aux entreprises de transférer des données personnelles à des tierces parties ou à l'extérieur du Canada de cette manière. Nous estimons que les parlementaires ont la possibilité de répondre à ces risques par l'entremise du projet de loi proposé. Toutefois, dans sa forme actuelle, le projet de loi C‑27 permettrait, d'une certaine manière, un échange encore plus facile des données entre les entreprises en érodant les dispositions limitées qui existent en matière de consentement. L'article 18 proposé de la Loi sur la protection de la vie privée des consommateurs crée de nouvelles exceptions importantes qui permettent aux entreprises de divulguer des données à l'insu de la personne ou sans son consentement, en incluant des expressions telles que « activités commerciales » et « intérêt légitime ».
Nous ne pensons pas qu'il incombe exclusivement aux Canadiens de s'éduquer et de se protéger en ligne. Nous proposons que des exigences plus précises soient ajoutées au projet de loi afin de garantir des niveaux de protection équivalents pour les données lorsqu'elles sont transférées à l'extérieur du Canada. Nous suggérons également des exigences qui sont comparables au RGPD de l'Union européenne, afin d'obtenir le consentement explicite et éclairé des Canadiens pour le transfert de leurs données personnelles vers des pays qui n'offrent pas des niveaux de protection équivalents, en fournissant des renseignements à la fois sur les pays précis concernés et sur les données précises. Bien que de nombreuses personnes aient fait remarquer à ce comité qu'il y a une lassitude à l'égard du consentement, nous pensons à tout le moins qu'il est important de faire preuve de transparence en ce qui concerne les données qui sont transférées vers des pays étrangers.
Nous allons conclure en disant que les Canadiens appuient sans réserve un tel changement. Une enquête représentative que nous avons menée a révélé que 86 % des Canadiens sont favorables à l'obligation de conserver les données des Canadiens au pays, contre seulement 3 % qui n'y sont pas favorables.
Merci du temps que vous nous avez consacré. Nous serons heureux de répondre à vos questions.
:
Je me ferai un plaisir d'intervenir.
Je crois que l'un des problèmes auxquels le Canada est confronté est que nous ne sommes pas une grande puissance et que nous sommes coincés entre des approches diamétralement opposées en matière de protection des renseignements personnels et des données parmi les grandes puissances. Si nous n'agissons pas rapidement, nous nous enfermerons dans l'une de ces approches. Les Européens ont adopté une approche plus restrictive. Depuis l'élaboration, l'adoption et la mise en œuvre du RGPD, nous avons assisté à une série de mesures restrictives, qui mènent à des choses comme la localisation des données, des exigences plus strictes concernant les transferts de données et un test d'équivalence solide.
Les États‑Unis adoptent une approche diamétralement opposée avec leur cadre de réglementation, dans lequel ils n'ont pas mis à jour leur loi en matière de protection de la vie privée, et il n'y a pas de loi uniforme sur la protection des renseignements personnels aux États‑Unis. Parallèlement, les États‑Unis exportent, par l'entremise de traités commerciaux et d'organismes de gouvernance dans le monde entier, une vision de la gouvernance des données et de la protection de la vie privée qui encadre ce que le Canada peut faire.
Les discussions sur les transferts de données doivent tenir compte du fait que l'accord Canada-États‑Unis-Mexique interdit de restreindre les flux de données transfrontaliers et qu'il comporte d'autres restrictions pertinentes. Le PTPGP prévoit des restrictions semblables.
L'un des problèmes de l'inaction du Canada est que nous nous enfermons dans l'une de ces approches. Malheureusement, nous ne montrons aucune urgence d'agir. La Loi sur la protection des renseignements personnels, qui régit la conduite des gouvernements, n'a pas été mise à jour depuis plus de 40 ans. La LPRPDE a besoin d'une mise à jour importante, et non pas de simples ajustements. Personnellement, je ne crois pas que le projet de loi soit le moyen approprié pour y parvenir.
Je vais laisser les autres témoins intervenir.
:
Quand on examine les ressources qui sont disponibles, elles ne répondent pas à la demande. En 2018, quand Sécurité publique a procédé à une mise à jour de la cybersécurité et a injecté beaucoup d'argent dans la GRC pour qu'elle s'attaque plus sérieusement à la cybercriminalité, c'est à ce moment‑là qu'a été annoncée la création du GNC3, le centre national de coordination contre la cybercriminalité.
J'ai écrit à ce sujet il y a trois ans et j'ai dit que nous attendions déjà depuis longtemps ce déploiement, mais trois ans plus tard, ce système de signalement a deux ans de retard. Si vous visitez le site Web en ce moment, vous y apprendrez qu'il est encore à l'étape des essais bêta et qu'il n'accepte que 25 plaintes concernant la cybercriminalité par jour pour l'ensemble du pays, ce qui est vraiment très peu. Dans une série de demandes d'accès à l'information concernant le nombre de ressources consacrées pour le personnel, j'ai découvert que plusieurs provinces n'ont pas d'enquêteurs en cybercriminalité, ce qui est une statistique vraiment choquante. Ici, en Colombie‑Britannique, la troisième plus grande province du pays, nous n'avons que quatre personnes à temps plein dans l'équipe de lutte contre la cybercriminalité.
Je crois que ces outils seront déployés plus rapidement. Il devrait y avoir une plus grande transparence en ce qui les concerne, et la loi devrait être rédigée en fonction de ce que nous constatons, car ces outils nous permettent de comprendre quels types de préjudices sont perpétrés. Il y a toutes sortes d'analyses que vous pouvez mener à partir des données reçues, et le GNC3 révèle que plus de la moitié des signalements qui lui sont transmis concernent des rançongiciels. Il est très intéressant de constater que la loi canadienne ignore les rançongiciels, qui représentent la plus grande menace cybercriminelle à laquelle nous sommes confrontés.
Lorsque nous discutons du projet de loi , il est intéressant de prendre en considération également le projet de loi , qui réglemente les rançongiciels pour les industries essentielles.
:
Je vous remercie pour votre question.
Je pense qu'il est vraiment important d'identifier les représentants de TikTok qui se sont exprimés en tant que lobbyistes. Ils sont enregistrés à ce titre et font du travail de lobbyisme. Je pense qu'il est important de souligner que bon nombre de leurs affirmations étaient trompeuses. Il est possible de contourner facilement bon nombre des contrôles de sécurité pour les enfants dont ils ont vanté les mérites.
Pour répondre de façon plus directe à votre question, TikTok s'est fait prendre à utiliser toutes sortes de méthodes inquiétantes en ce qui concerne les données des utilisateurs. On a rapporté publiquement que TikTok accédait à l'emplacement physique de journalistes qui utilisent l'application, afin de retrouver leurs sources. C'est du domaine public. On a aussi rapporté que TikTok transférait les données des utilisateurs des États-Unis vers la Chine, alors que la société garantissait qu'elle ne le faisait pas, et il y a une foule d'autres rapports en ce sens.
Certains rapports internes du gouvernement canadien émanant notamment du Secrétariat de l'évaluation du renseignement du Bureau du Conseil privé cernent toutes sortes d'autres problèmes liés au type de données et à la collecte persistante de données qui se fait au moyen de l'application. J'ai également vu des documents provenant de l'unité du renseignement sur les cybermenaces du Commandement du renseignement des Forces canadiennes, au ministère de la Défense nationale, qui ciblent une série de problèmes préoccupants liés à la censure et à d'autres enjeux.
Ce qui rend la situation difficile ici, c'est que la loi canadienne est très permissive en ce qui concerne le transfert de données. En effet, même dans le projet de loi , qui porte sur la protection des renseignements personnels, il n'y a rien qui empêcherait les transferts de données à l'extérieur du Canada. Dans son avis de confidentialité, TikTok indique qu'en utilisant l'application, vous acceptez les conditions voulant que la filiale puisse partager ces données avec sa société mère, ByteDance, et la loi canadienne lui permet de le faire. Même la mesure législative proposée le permettrait. L'article 19 et le paragraphe 11(1) du projet de loi permettent précisément ce type de transfert de données.
La loi canadienne sur le transfert des données repose essentiellement sur l'idée que les organisations peuvent transmettre des données à d'autres administrations si elles jugent que les protections sont suffisantes ou adéquates, comme ce serait le cas au Canada. Cette approche est très différente de l'approche européenne, qui se fonde sur la compétence... D'un pays à l'autre. On ne peut pas transférer de données vers un autre pays à moins d'être convaincu que les protections y sont équivalentes. Il y a une très grande différence entre la loi canadienne et la loi européenne dans ce domaine. Une fois que les données sortent du Canada, on ne sait pas vraiment ce qu'il en advient. Les autres ne prennent pas les mêmes mesures de protection que vous.
Pour la réunion d'aujourd'hui, j'ai demandé au dirigeant principal de l'information de la Chambre des communes où les données de l'application Zoom, que j'utilise, étaient localisées et traitées. On m'a répondu — et j'en suis très heureux et impressionné — que les données étaient traitées au Canada. Vos séances à huis clos sont encore mieux sécurisées; c'est tant mieux pour vous. Ce n'est pas le cas pour les utilisateurs de TikTok.
:
Bien sûr, avec plaisir.
Mon collègue pourra intervenir à tout moment s'il le souhaite.
Nous effectuons un sondage annuel auprès d'un groupe représentatif de Canadiens pour faire le suivi des expériences en ligne des Canadiens avec du contenu préjudiciable illégal. Nous commençons par les discours haineux: 40 % des Canadiens disent qu’ils voient des discours haineux au moins une fois par mois, et environ 10 % des Canadiens disent qu’ils ont été personnellement ciblés par des discours haineux en ligne. C'est environ le double ou le triple de ce taux pour diverses communautés marginalisées et racisées. Ce serait environ le double pour les Canadiens 2SLGBTQ, et 30 %, disent qu'ils ont été la cible de discours haineux. Nous effectuons un suivi à cet égard.
Nous suivons également l'exposition à la mésinformation et à la désinformation et les croyances à cet égard. Nous réalisons un jeu-questionnaire, qui présente une série de déclarations vraies et fausses. Environ 15 % des Canadiens qui y participent montrent une croyance importante à l'égard de la mésinformation. Ces Canadiens sont plus susceptibles de dire qu'ils consomment leurs nouvelles sur les médias sociaux et qu'ils font moins confiance aux médias grand public.
:
Je pense que le mot « mirage » décrit bien l'état actuel des choses.
[Traduction]
Je pense que le consentement éclairé, sur lequel reposent actuellement toutes les lois canadiennes sur la protection de la vie privée, ne sert pas les fins pour lesquelles nous avons vraiment besoin de lois sur la protection des données et la protection de la vie privée au pays. Le projet de loi a perpétué l'idée que cet instrument continuera de fonctionner et de servir ses fins même avec les exceptions commerciales légitimes, même avec les règles concernant le consentement implicite, et cela ne nous permettra pas d'avoir une loi robuste sur la protection de la vie privée et des données au pays.
Je pense qu'il faut changer fondamentalement le paradigme pour que la possession, la conservation, l'utilisation et la divulgation de renseignements personnels deviennent une responsabilité, par opposition à une façon rentable de gérer une entreprise. C'est ce que nous avons permis à ces entreprises de publicité et de médias sociaux de faire.
:
Je crois que le Canada a l'occasion de reprendre son rôle traditionnel de puissance moyenne auprès des États alliés.
On a exprimé plusieurs idées relatives à la création de zones sécuritaires pour le flux des données, qui misent sur les alliances existantes en matière de sécurité, comme l'OTAN. Nous avons déjà pris un engagement de défense mutuelle avec nos alliés de l'OTAN. Il serait logique d'échanger nos données et nos renseignements personnels avec ces alliés dans une zone permettant le libre mouvement transfrontalier des données. Le Canada pourrait assurer un rôle unique en matière de réglementation, et créer des cadres réglementaires pour le mouvement transfrontalier des données.
Ce qui me préoccupe le plus, c'est l'état de la loi actuelle. De nombreuses lois canadiennes — et c'est une priorité pour les législateurs à l'heure actuelle — visent la protection des renseignements personnels dans le secteur privé uniquement. Comme nous l'avons notamment vu pendant la pandémie, il nous faut des lois robustes en matière de protection de la vie privée et des données qui s'appliquent également au gouvernement. Je suis vraiment contrarié de voir que la Loi sur l'intelligence artificielle et les données ne s'applique pas aux mesures gouvernementales, ce qui est vraiment préoccupant lorsqu'on pense au déploiement des technologies misant sur l'intelligence artificielle comme l'application ArriveCAN.
Je suis également très préoccupé par le fait que les priorités du projet de loi ne sont pas axées sur le gouvernement. Il est troublant de constater que ces efforts sont menés par le portefeuille de l'Industrie et que le projet de loi C‑27 créerait de nouveaux instruments de réglementation qui relèveraient du ministre de l'Industrie. Il est difficile d'affirmer que nous abordons la protection de la vie privée du point de vue des droits de la personne, de l'application de la loi ou de la sécurité nationale lorsque les organismes que nous créons ne sont pas vraiment indépendants. Non seulement ils ne sont pas vraiment indépendants, mais ils sont aussi subordonnés au portefeuille de l'industrie dont le mandat est de faire croître l'économie.
:
À mon avis, un responsable de la réglementation du contenu numérique a un rôle à jouer en ce sens.
À l'heure actuelle, le projet de loi prévoit la création du poste de responsable de la réglementation des données de l'intelligence artificielle, mais il relèverait d'Innovation, Sciences et Développement économique Canada. À mon avis, c'est inacceptable, surtout parce que le ministre aura les rôles concurrents de promouvoir les avantages économiques de l’intelligence artificielle et de réglementer ses risques. Le titulaire de ce poste devrait à tout le moins être nommé par le gouverneur en conseil. Idéalement, il s'agirait d'une nomination parlementaire distincte.
Je pense que vous pourriez confier au titulaire de ce poste la responsabilité du portefeuille des méfaits en ligne. Il pourrait y avoir deux postes distincts, mais cela ferait beaucoup. Le titulaire de ce poste aurait le pouvoir de faire des vérifications et s'acquitterait de fonctions semblables à celles d'un ombudsman pour aider les particuliers. Il assurerait également une fonction en matière de transparence.
:
Oui. Je crois qu'il est contraire à l'éthique de faire de la publicité auprès des entreprises de médias sociaux si nous avons de réelles préoccupations au sujet de la collecte de données et de l'ingérence étrangère illicite.
L'année dernière, le gouvernement a dépensé un montant record de 141 millions de dollars en publicité, soit plus du double de ce qu'il a dépensé pour l'administration de la Loi sur l'accès à l'information, et cela comprenait près de 2 millions de dollars de publicité sur TikTok.
Il est vraiment difficile d'assister aux audiences des comités et d'entendre toutes ces préoccupations au sujet des pratiques de TikTok, pour ensuite voir le gouvernement donner de l'argent à la société, ce qui, à mon avis, représente un appui implicite à l'égard de ces pratiques que nous cherchons à critiquer. Pour que ce soit bien clair, je crois que cette préoccupation s'applique à toutes les entreprises de médias sociaux.
J'ai été très heureux d'apprendre que le gouvernement avait cessé de faire de la publicité sur Meta cet été, mais c'était en guise de représailles à la suite des réactions de Meta à la Loi sur les nouvelles en ligne. C'était donc une mesure un peu différente, mais même en guise de représailles, je l'appuie.
:
Je vous remercie pour la question, et je salue Mme Tessono, qui est aussi une membre précieuse de notre équipe. J'espère qu'elle sera un jour invitée à comparaître devant le Comité ou devant le comité de l'industrie pour parler de l'intelligence artificielle.
Pour répondre à votre question, oui. M. Masoodi, un autre collègue et moi avons rédigé un article sur les pratiques de stockage de données dans le cadre des transferts transfrontaliers de données des plateformes de médias sociaux. L'article s'intitule Home Ice Advantage, et nous vous sommes reconnaissants de l'avoir mentionné dans le cadre de l'une de vos réunions précédentes.
Monsieur Masoodi, je ne sais pas si vous voulez intervenir.
Dans le cadre d'une question précédente, on a fait valoir que TikTok stockait ses données à Singapour et aux États-Unis. Oui, c'est vrai, mais c'est un portrait incomplet de la situation. Il est possible d'accéder à ces serveurs à distance, à partir de n'importe quel pays du monde.
:
Merci, monsieur Green et monsieur Andrey.
Je demanderais aux témoins de nous fournir les renseignements qui ont été demandés d'ici vendredi, si possible. Cela aiderait nos analystes. Nous devons imposer un délai; ce sera donc vendredi, à 17 heures, si vous n'y voyez pas d'inconvénient.
Nous allons entendre M. Barrett, puis M. Kelloway, M. Bains, M. Villemure et enfin M. Green. Vous disposez chacun de deux minutes et demie.
Monsieur Barrett, vous avez la parole.
Je ne crois pas qu'une telle obligation puisse nuire, mais je crois que la logistique associée à la vérification de l'âge est complexe. Je n'ai probablement pas le temps d'entrer dans les détails de tout cela pour le moment, mais en principe, je répondrais oui.
Je proposerais même d'aller plus loin, puisque nous parlons du stockage transfrontalier des données: on pourrait interdire le transfert des données d'utilisation des mineurs vers des pays où les mesures de protection ne sont pas suffisantes, également.
Oui, je crois qu'il serait utile d'ajouter de telles obligations.
:
Je ne crois pas que ce soit une bonne idée.
Je comprends l'objectif de la proposition. Je pense qu'elle repose sur de bonnes intentions, et j'y ai réfléchi sérieusement, mais je pense qu'elle entraînerait des effets négatifs qui ne correspondraient peut-être pas à son intention.
La réalité, c'est que nous avons besoin d'une loi sur la protection des renseignements personnels qui protège les enfants par défaut. Cette responsabilité ne devrait pas revenir aux parents. Ces technologies présentent des avantages et des inconvénients, et je ne crois pas que les parents ou les générations plus âgées soient toujours les meilleurs pour s'y retrouver. J'ai vu de nombreux sondages du Bureau du Conseil privé qui montrent que ce sont les jeunes qui utilisent ces technologies — 30 % des adolescents consomment les nouvelles sur TikTok— , tandis que bon nombre des générations plus âgées ne les utilisent pas du tout. Je ne me sentirais pas à l'aise de confier cette responsabilité à tous les parents, mais ce n'est que mon opinion.
Ce que je dirais, cependant, c'est que les enfants devraient être explicitement considérés à titre de population vulnérable dans le projet de loi . Je pense qu'il est inacceptable que les enfants et les jeunes, en particulier, aient été retirés du projet de loi C‑27 et en soient exclus. C'était l'intention délibérée du ministère de l'Industrie. J'ai un mémoire interne qui explique les raisons derrière cette décision, et je serais heureux de vous le faire parvenir.
:
Merci, monsieur le président.
Je remercie nos témoins de se joindre à nous aujourd'hui.
Il est clair qu'il y a un risque ou un danger générationnel de préjudices en ligne. Deux tragédies nous ont frappés de près en Colombie‑Britannique. Vous vous souvenez peut-être du suicide d'Amanda Todd, en 2012, à cause du cyberharcèlement dont elle faisait l'objet, et du suicide récent d'un garçon de 12 ans victime d'extorsion sexuelle en ligne, qui a fait les manchettes.
Il se trouve que j'ai moi-même une fille de 15 ans et un garçon de 12 ans, alors c'est terrifiant d'entendre ce genre d'histoires.
Je vais m'adresser d'abord à M. Malone.
Vous avez souligné, dans une entrevue, que la collecte de vastes quantités de données crée un « déséquilibre des pouvoirs » avec les utilisateurs. Pourriez-vous nous expliquer ce que vous entendez par là?
:
Je vous remercie de cette question.
Une question a été posée sur le capitalisme de surveillance, un concept introduit par Shoshana Zuboff. Il a été mis de l'avant à quelques reprises au cours des audiences. La question précédente portait sur ce que nous pouvons faire pour au moins essayer d'atténuer les répercussions du capitalisme de surveillance, qui a vraiment été initié, si nous regardons en arrière, par Google. C'est Google, grâce à ses techniques d'apprentissage automatique, qui a favorisé l'apparition du phénomène, et des régimes réglementaires et législatifs déficients lui ont permis de se développer.
Si je devais formuler des recommandations sur les leçons à retenir de tout cela, je dirais que nous avons besoin de lois robustes en matière de protection de la vie privée. Nous l'avons entendu à répétition. Je tiens à le souligner encore une fois. Nous devons mettre en place de solides mesures de protection de la vie privée, surtout en ce qui concerne les transferts de données transfrontaliers. Je pense qu'on pourrait miser sur le projet de loi , dans lequel les transferts de données transfrontaliers sont expressément mentionnés, pour créer des protections robustes.
:
Je crois comprendre que tout le monde s'inquiète beaucoup des moyens détournés que la Chine pourrait utiliser pour mettre la main sur le genre de données recueillies par TikTok et de la possibilité que la Chine fasse peser des menaces sur nous en conséquence.
Je dirais que le Canada doit surtout prêcher par l'exemple à cet égard. Je veux dire par là que nous devons exiger des comptes de notre propre gouvernement pour nous assurer de sa transparence et de sa responsabilité et qu'il protège les droits de la personne et la démocratie en ligne.
Le dirigeant principal du Centre canadien pour la cybersécurité, qui relève du Centre de la sécurité des télécommunications, a comparu devant le Comité dans le cadre de cette étude. Le CST ne peut ni confirmer ni nier qu'il utilise des logiciels espions contre des adversaires étrangers dans le cadre de son travail. Vous n'obtiendrez aucune réponse à savoir si la Chine le fait si les autorités canadiennes ne répondent pas non plus clairement à cette question.
J'ajouterais simplement que j'aimerais vraiment voir tous les renseignements que le CST a fournis au Bureau du Conseil privé ou au Secrétariat du Conseil du Trésor pour qu'il interdise l'utilisation de TikTok, parce qu'il est très étrange que cette application de médias sociaux ait été interdite de façon sélective. Le moment choisi est remarquable, car c'était évidemment 10 jours après la publication d'un rapport explosif.
:
Merci, monsieur Villemure.
[Traduction]
Tout d'abord, je tiens à remercier tous nos témoins — M. Malone, M. Andrey et M. Masoodi — de leur présence ici aujourd'hui.
Si vous avez des documents écrits à transmettre à la greffière et au Comité, veuillez le faire d'ici vendredi, à 17 heures. Vous nous avez fourni des renseignements très utiles aujourd'hui, et je vous en suis très reconnaissant. Je vous remercie également de votre patience pendant les votes, comme je vous remercie d'avoir bien voulu reporter votre comparution devant nous à cette semaine.
Je vais laisser partir les témoins, car j'ai deux ou trois choses à dire au Comité. Ce ne sont que quelques petites nouvelles.
J'ai reçu une demande de réunion d'urgence. Nous la tiendrons mercredi. L'avis devrait être publié sous peu.
Je vous dirai également que nous avons reçu la confirmation de Google et de Meta que ses représentants comparaîtront devant le Comité dans le cadre de cette étude le mercredi 13 décembre. Des représentants de ces deux entités comparaîtront devant nous la semaine prochaine.
Comme il n'y a pas d'autres points à l'ordre du jour, je vais lever la séance.
Merci à tous de votre participation. Merci à nos analystes, à notre greffière et à nos techniciens.
La séance est levée.