:
Bon après-midi, tout le monde. Je déclare la séance ouverte.
Bienvenue à la 94e réunion du Comité permanent de l'industrie et de la technologie de la Chambre des communes.
La réunion d'aujourd'hui se déroule dans un format hybride, conformément au Règlement.
Conformément à l'ordre de renvoi du 24 avril 2023, le Comité reprend l'étude du projet de loi .
J'aimerais souhaiter la bienvenue aux témoins d'aujourd'hui: Daniel Konikoff, directeur par intérim du programme de protection de la vie privée, de technologie et de surveillance à l'Association canadienne des libertés civiles; Tim McSorley, coordonnateur national de la Coalition pour la surveillance internationale des libertés civiles; Matthew Hatfield, directeur général d'OpenMedia; Sharon Polsky, présidente du Conseil du Canada de l'accès à la vie privée; John Lawford, directeur général et avocat général du Centre pour la défense de l'intérêt public, qui est accompagné de l'avocate-conseil salariée Yuka Sai; et Sam Andrey, directeur général de la plateforme The Dais à la Toronto Metropolitan University.
Je vous remercie de vous joindre à nous aujourd'hui.
Je suis très heureux que nous puissions commencer à temps.
Sans plus tarder, je cède la parole pour cinq minutes à M. Konikoff, de l'Association canadienne des libertés civiles.
:
Bonjour. Je tiens tout d'abord à vous remercier pour l'invitation.
Je suis directeur par intérim du programme de protection de la vie privée, technologie et surveillance, à l'Association canadienne des libertés civiles, l'ACLC, un organisme dont la mission depuis 1964 est de défendre les droits, les libertés civiles et les libertés fondamentales des citoyens canadiens.
Assurer la protection des renseignements personnels et des droits de la personne dans un monde de plus en plus axé sur les technologies n'est pas une mince affaire. Nous saluons les efforts du gouvernement visant à moderniser le cadre législatif du Canada dans le contexte de l'ère numérique, et nous tenons également à féliciter les membres du Comité pour leur travail à cet égard.
Nous sommes conscients des obstacles procéduraux pouvant limiter nos interventions par rapport au projet de loi . Je tiens toutefois à vous présenter trois amendements contenus dans le mémoire de l'ACLC qui, selon nous, peuvent contribuer à améliorer la manière dont le projet de loi C‑27 défend les droits de la personne au Canada.
Premièrement, je note que le projet de loi n'accorde pas aux droits fondamentaux la place qui leur revient, et les relègue souvent au second plan, au profit d'intérêts strictement commerciaux. On l'a déjà dit, mais il convient de souligner que le projet de loi C‑27 doit être modifié pour que la vie privée soit reconnue comme un droit de la personn dans le cadre de la Loi sur la protection de la vie privée des consommateurs, la LPVPC, et dans le cadre de la Loi sur l’intelligence artificielle et les données, la LIAD.
Par ailleurs, nous sommes d'avis que le projet de loi C‑27 devrait inclure une clause assurant la protection de tous les Canadiens par rapport aux distorsions attribuables aux algorithmes. Il s'agit en effet d'un risque qui augmente de manière exponentielle à mesure que de plus en plus de données sont recueillies et intégrées à divers systèmes d'IA capables de faire des prédictions et de prendre des décisions aux conséquences considérables.
Je tiens à rappeler que partout dans le monde, et notamment au sein de l'Union européenne, des lois robustes en matière de protection des renseignements personnels et de l'IA ont été adoptées. Le Canada doit ainsi rattraper son retard à cet égard.
Deuxièmement, le projet de loi contient des lacunes préoccupantes en ce qui concerne l'enjeu des renseignements sensibles. La sensibilité est un concept qui apparaît souvent dans le libellé de la LPVPC; néanmoins, il n'est jamais clairement défini, ce qui permet à des groupes d'intérêts privés d'en interpréter le sens comme ils l'entendent. De nombreuses formes de renseignements personnels peuvent être qualifiées de sensibles. Bien que la nature délicate des renseignements dépende souvent du contexte, il existe différentes catégories spéciales de renseignements dont la collecte, l'utilisation et la divulgation comportent des risques inhérents et extraordinaires.
J'aimerais attirer votre attention sur la catégorie spéciale des données biométriques, dont la collecte et l'utilisation peuvent avoir des répercussions tant sur la LPVPC que sur la LIAD.
Les données biométriques représentent sans doute la catégorie de données les plus vulnérables dont nous disposons, et leur utilisation abusive peut s'avérer particulièrement dévastatrice pour les membres des groupes en quête d'équité. Qu'il suffise de penser à la prévalence des technologies de reconnaissance faciale. En effet, ces technologies sont devenues omniprésentes, et elles sont utilisées tant par les forces de l'ordre que par les centres commerciaux. Elles s'appuient sur des données biométriques qui sont souvent recueillies à l'insu des personnes, donc sans leur consentement. La coalition Right2YourFace, dont l'ACLC est membre, plaide en faveur de garanties législatives plus robustes en matière de reconnaissance faciale et de l'utilisation de données biomécaniques. Ainsi, le projet de loi doit être amendé non seulement pour définir de manière explicite les nombreuses catégories de renseignements sensibles, mais également pour préciser que les données biométriques méritent une attention et une protection particulières.
Troisièmement, et finalement, nous nous opposons aux nombreuses exemptions en matière de consentement prévues à l'article 18 de la LPVPC, et à la manière dont elles risquent de se répercuter sur la LIAD. Ces exemptions constituent, dans l'ensemble, un affront au principe du consentement valable, et donc au droit à la vie privée. Les citoyens canadiens devraient pouvoir être en mesure de consentir ou non à la manière dont les entreprises privées recueillent et traitent leurs renseignements personnels. Accorder le droit à une entreprise d'outrepasser le consentement d'un consommateur est tout simplement inapproprié, tout comme le fait d'ajouter ultérieurement d'autres types d'exemptions réglementaires en matière de consentement. Très franchement, nous sommes d'avis que le projet de loi contient trop d'exemptions et d'exceptions qui se font au détriment de la vie privée du simple citoyen.
Par ailleurs, je n'ai pas encore vraiment abordé les préoccupations de mon organisme par rapport à la conception étroite du préjudice contenue dans la LIAD. Je pourrais également parler du manque d'exigences en matière de transparence qui caractérise le projet de loi C‑27, et des risques liés aux exemptions accordées à des institutions de sécurité nationale, lesquelles utilisent souvent des technologies d'IA acquises dans le secteur privé dans le cadre de leur mandat officiel. Notre mémoire aborde ces enjeux de manière plus approfondie, mais je serai ravi d'en parler plus en détail lors de la série de questions.
Je souhaite d'ailleurs attirer l'attention des membres du Comité sur notre mémoire, qui présente nos préoccupations et contient une pétition sur la réglementation de l'IA qui a recueilli plus de 8 000 signatures.
En résumé, le projet de loi doit être doté de dispositions plus strictes afin d'accorder la priorité aux droits fondamentaux des citoyens canadiens. Le gouvernement doit corriger les lacunes de la LPVPC en matière de consentement et de renseignements sensibles. Quant à la LIAD, nous pensons qu'elle doit être repensée en profondeur, ou alors purement et simplement retirée du projet de loi.
Je vous remercie.
:
Je vous remercie, monsieur le président. Je tiens d'ailleurs à remercier le Comité de me donner l'occasion de vous présenter le point de vue de la CSILC au sujet du projet de loi .
Nous formons une coalition canadienne dont l'objectif est de protéger les libertés civiles contre les répercussions des lois relatives à la sécurité nationale et à la lutte contre le terrorisme. Nos préoccupations par rapport au projet de loi sont fondées sur ce mandat.
Nous soutenons les efforts visant à moderniser la législation canadienne en matière de protection des renseignements personnels, et nous sommes favorables à la mise en place d'une réglementation par rapport à l'IA. Malheureusement, le projet de loi comporte de multiples exemptions à des fins de sécurité nationale que nous jugeons inacceptable, car elles nuisent à son objectif déclaré de protéger les droits et les renseignements personnels des citoyens canadiens.
Nous avons présenté un mémoire au Comité qui contient 10 recommandations et les amendements connexes. Je serais ravi de parler plus en détail de ces diverses recommandations au cours de la période de questions, mais pour l'instant, je souhaite attirer votre attention sur trois points précis.
Premièrement, en ce qui concerne la LPVPC, nous nous opposons aux articles 47 et 48 du projet de loi, lesquels créent des exceptions à la règle du consentement en permettant à une organisation de recueillir, d'utiliser et de communiquer les renseignements personnels d'un individu lorsqu'elle « soupçonne que le renseignement est afférent à la sécurité nationale, à la défense du Canada ou à la conduite des affaires internationales ». Nous sommes d'avis qu'il s'agit là d'un moyen beaucoup trop facile de contourner la disposition relative au consentement.
L'article 48 proposé est particulièrement aberrant. En effet, cet article permet à une organisation, de « sa propre initiative », de recueillir, d'utiliser et de communiquer les renseignements personnels d'un individu si elle soupçonne que les renseignements concernent la sécurité nationale, la défense du Canada ou la conduite des affaires internationales. Il n'est même pas nécessaire que la préoccupation soit liée à une menace présumée; il suffit qu'il existe un quelconque lien, qui n'est pas défini dans le projet de loi.
Le contenu des articles que j'ai mentionné est non seulement très vague, mais il est également superflu. En effet, d'autres articles permettent à une organisation à transmettre des renseignements personnels de manière ciblée aux services gouvernementaux, aux institutions et aux instances chargés de l'application de la loi. Par exemple, l'article 45 autorise une organisation à divulguer des renseignements de manière proactive si elle a des « motifs raisonnables de croire qu’ils pourraient être utiles à une enquête sur une contravention au droit fédéral, provincial ou étranger qui a été commise ou est en train ou sur le point de l’être et si l’utilisation est faite en vue d’enquêter sur cette contravention ». Nous comparons donc ce critère au simple fait de soupçonner que les renseignements personnels d'un individu aient un « lien » avec la sécurité nationale.
À cet égard, nous estimons que les articles 47 et 48 proposés sont à la fois trop vagues et superflus, et nous proposons donc qu'ils soient retirés de la LPVPC. À défaut de cela, notre mémoire présente une formulation spécifique qui contribuerait à fixer un seuil plus élevé en matière de divulgation de renseignements personnels.
Deuxièmement, nous sommes profondément préoccupés par la Loi sur l’intelligence artificielle et les données dans son ensemble. Comme d'autres témoins, nous pensons qu'il s'agit d'une loi qui comporte de graves lacunes et qui devrait être retirée au profit d'un cadre législatif plus réfléchi et plus approprié. Nous avons détaillé nos préoccupations dans notre mémoire, ainsi que dans une lettre conjointe signée par quelque 45 organisations et experts dans le domaine de l'IA, des libertés civiles et des droits de la personne. Cette lettre conjointe a déjà été transmise au ministre Champagne et au Comité.
La LIAD a été élaborée en ne tenant ni consultation ni débat préalable. Par ailleurs, elle est mal définie et n'apporte pas de protections adéquates en matière de droits de la personne. De manière scandaleuse, l'un des objectifs de la LIAD est de créer un poste de commissaire à l'IA et aux données qui relèverait du . Ce commissaire chargé de faire appliquer les dispositions de la LIAD ne serait donc nullement indépendant.
Troisièmement, et pour finir, j'aimerais aborder une exception inacceptable de la LIAD en matière de sécurité nationale.
Les agences de sécurité nationale du Canada ont fait preuve d'ouverture en ce qui concerne leur intérêt pour les outils d'IA à des fins très diverses, y compris la reconnaissance faciale, la surveillance, la sécurité des frontières et l'analyse de données. Néanmoins, aucun cadre clair n'a été établi pour réglementer le développement et l'usage de ces outils, ce qui risque de laisser place à des préjudices graves.
La LIAD devrait nous permettre de combler cette lacune, mais fait l'inverse dans sa forme actuelle. En effet, l'article 3(2) exempte actuellement les
produits, services ou activités qui relèvent de la compétence ou de l’autorité des personnes suivantes:
a) le ministre de la Défense nationale;
b) le directeur du Service canadien du renseignement de sécurité;
c) le chef du Centre de la sécurité des télécommunications;
d) toute autre personne qui est responsable d’un ministère ou d’un organisme fédéral ou provincial et qui est désignée par règlement.
Cela signifie que tout système d'IA développé par un acteur du secteur privé qui relève de cette liste non exhaustive d'agences de sécurité nationale ne ferait l'objet d'aucune réglementation ou vérification indépendante.
Il nous paraît inconcevable de justifier une exemption aussi générale. En vertu d'une telle réglementation, les entreprises pourraient créer des outils destinés à nos agences de sécurité nationale sans avoir à se soumettre à de quelconques mesures d'évaluations et d'atténuations, ce qui risque de porter gravement atteinte aux droits de la personne et aux libertés civiles. Ces technologies pourraient également être divulguées, volées ou même vendues à des entités étatiques et à des intérêts privés ne relevant évidemment pas de l'autorité du Canada. En résumé, tous les systèmes d'IA développés par le secteur privé doivent être soumis à des mesures réglementaires, indépendamment de leur usage par nos agences de sécurité nationale.
Notre mémoire contient des exemples précis des préjudices que cette absence de réglementation risque de causer. Je serais ravi d'en discuter davantage avec les membres du Comité. Dans l'ensemble, si la LIAD devait être adoptée, nous pensons que l'article 3(2) proposé devrait simplement être retiré.
Je vous remercie.
:
Bonjour à tous. Je m'appelle Matt Hatfield, et je suis le directeur exécutif d'OpenMedia, une organisation communautaire qui compte près de 300 000 membres partout au Canada. Nous travaillons ensemble pour qu'Internet demeure un espace ouvert, accessible et exempt de surveillance.
Je m'adresse à vous aujourd'hui depuis le territoire non cédé des Premières Nations Tsawout, Saanich, Cowichan et Chemainus.
Par où commencer avec le projet de loi ? Un premier volet concerne la réforme de la protection de la vie privée, qui s'est fait longtemps attendre. Votre tâche consiste à combler les lacunes restantes et à assurer la protection de nos renseignements personnels. L'autre volet est en rapport avec une réglementation de l'IA qui, je vais le dire franchement, est pour l'instant bien mal ficelée. Je pense que cette réglementation aurait avantage à être révisée et améliorée avant d'être intégrée au projet de loi. Je ne peux pas aborder ces deux volets aussi longuement qu'ils le méritent, mais commençons par la protection de la vie privée.
Le projet de loi risque d'entraîner de profonds changements. Il s'agit notamment d'octroyer de réels pouvoirs de sanctions au Commissariat à la protection de la vie privée du Canada, le CPVP, et de faire du droit à la vie privée un droit de la personne, tel que promis par le ministre Champagne. OpenMedia espère que cette modification de la LPRPDE envoie un message sans équivoque aux tribunaux: les droits des citoyens canadiens liés à la protection de leurs renseignements personnels sont plus importants que les intérêts des entreprises privées. Toutefois, je rappelle que la robustesse de tout cadre réglementaire se mesure par son maillon le plus faible. Il ne sert à rien pour le gouvernement canadien de promettre de mettre en place les sanctions les plus sévères au monde si ces sanctions sont faciles à contourner dans la plupart des cas concrets. Je m'attends bien entendu à ce que les faiblesses du projet de loi C‑27 soient identifiées et attaquées par des entreprises pour qui les droits des Canadiens ne sont pas importants.
Voilà pourquoi il est essentiel de supprimer les exceptions au consentement incluses dans le projet de loi , et d'accorder aux Canadiens le droit à un consentement continu, éclairé et révocable pour tout usage de nos renseignements personnels. Le gouvernement doit également élargir la portée des règlements en matière de renseignements personnels pour qu'ils s'appliquent à l'ensemble des organismes non gouvernementaux. Cela inclut les partis politiques, les organismes à but non lucratif comme OpenMedia, et les fournisseurs qui vendent des outils d'analyse de données à toute entité gouvernementale. Après tout, aucune autre démocratie avancée ne tolère qu'une exception spéciale soit accordée au respect de la protection des renseignements personnels pour le parti politique responsable de faire adopter les lois. Il s'agit là d'une situation embarrassante propre au Canada, qui ne devrait pas pouvoir résister à l'examen de ce projet de loi.
Voilà qui conclut le volet sur la protection des renseignements personnels du projet de loi . À présent, je souhaite aborder un enjeu beaucoup plus complexe et épineux: l'intelligence artificielle, l'IA.
Je peux vous assurer que notre organisation communautaire est consciente de l'urgence de mettre en place des balises en matière d'IA. Au début de l'année, OpenMedia a sondé les espoirs et les préoccupations de ses membres en matière d'IA générative. Des milliers de personnes nous ont dit qu'elles pensent que l'IA générative représente un tournant majeur pour la société. Près de 80 % de nos membres sondés pensent que l'IA générative est une avancée encore plus importante que l'arrivée du téléphone intelligent, et un membre sur trois pense qu'elle sera aussi significative, voire davantage, que la révolution numérique elle-même. Une avancée technologique ayant le potentiel d'éclipser Internet se doit d'être étudiée en profondeur. C'est une chose d'être le premier pays à réglementer l'IA générative, mais notre objectif fondamental devrait être d'élaborer une réglementation adéquate.
Le , qui participe cette semaine à un sommet mondial sur les risques associés à l'intelligence artificielle, au Royaume-Uni, a déclaré aux médias que le risque est d'en faire trop peu plutôt, et non de voir trop grand. Lors de ce même sommet, Rishi Sunak a déclaré qu'il est essentiel de comprendre l'impact des systèmes d'IA afin d'être en mesure de les réglementer de manière efficace. Voilà pourquoi les participants à cette conférence se penchent sur les enjeux fondamentaux liés aux perspectives offertes par le développement de l'IA. Il s'agit d'un projet essentiel, et je souhaite beaucoup de succès à tous les pays.
Alors que le Royaume-Uni organise un sommet sur les questions liées à l'IA, que fait le gouvernement canadien? Pourquoi le Comité a-t-il été chargé de faire adopter la LIAD dans le cadre d'un projet de loi qui, s'il est essentiel, n'a aucun rapport avec elle? Pourquoi le Canada semble-t-il persuadé d'en savoir plus que les autres pays sur la manière de réglementer l'IA, au point de négliger la tenue de consultations publiques? Je vous rappelle que même les projets de loi d'importance moyenne doivent suivre ce processus législatif.
Par conséquent, je me dois de poser la question suivante: la LIAD vise-t-elle à protéger les citoyens canadiens, ou à créer un environnement permissif favorisant le développement d'une IA plutôt douteuse? Si le gouvernement canadien décide de légiférer à toute vitesse sur l'IA sans avoir pris le temps d'analyser ce qui se fait dans d'autres pays plus prudents, les Canadiens n'obtiendront pas les meilleures mesures de protection possible. Au lieu de cela, le gouvernement risque de faire du Canada une sorte de Far West de l'IA, un lieu permissif envers certaines pratiques commerciales interdites aux États-Unis et dans l'UE. Je crains que notre ministère de l'Innovation soit en train d'accélérer l'adoption de ce projet de loi précisément pour faire en sorte que le Canada abaisse ses standards en matière de normes de sécurité liés à l'IA.
Si l'IA générative se révèle finalement n'être qu'un phénomène de mode débouchant sur des produits décevants, alors il n'est pas nécessaire de faire adopter ce projet de loi à toute vitesse. Cependant, si même une fraction de l'IA générative s'avère aussi puissante que le prétendent ses partisans, alors le Canada commettrait une grave erreur en refusant de collaborer avec des experts et d'autres pays pour élaborer la meilleure législation possible.
Je vous encourage vivement à retirer la LIAD du projet de loi et de mener des consultations publiques complètes. Si cela n'est pas en votre pouvoir, vous ne pouvez à tout le moins pas permettre que le Canada devienne un terrain de jeu permissif en matière d'IA. C'est pourquoi je vous demande instamment de veiller à ce que le commissaire à l'IA relève directement du Parlement, et non à ISDE. En effet, un ministère dont le mandat est de parrainer le développement de l'IA sera fortement tenté de fermer les yeux par rapport à certaines pratiques douteuses. Le commissaire devrait être chargé de vous présenter un rapport annuel sur les performances de la LIAD et sur ses éventuelles lacunes. Je vous demande également d'exiger un examen parlementaire de la LIAD dans les deux ans suivant l'entrée en vigueur du projet de loi C‑27, afin de décider s'il doit être modifié, voire remplacé.
Depuis que la réforme de la LPRPDE a été proposée pour la première fois en 2021, les membres d'OpenMedia ont envoyé plus de 24 000 messages à leurs députés, exigeant la mise en place urgente de mesures complètes de protection de la vie privée. Au cours des derniers mois, nos membres ont fait parvenir 4 000 messages supplémentaires aux députés fédéraux pour leur demander de prendre le temps nécessaire pour mettre en place la LIAD. Nous espérons avoir été entendus par rapport à ces deux points.
Je vous remercie, et je serai ravi de répondre à vos questions.
Je vous suis reconnaissante de m'avoir invitée à partager mon point de vue concernant le projet de loi au nom du Conseil du Canada de l'accès et la vie privée, un organisme à but non lucratif apolitique et indépendant qui n'est financé ni par le gouvernement ni par l'industrie.
Nos membres travaillent dans les secteurs public, privé et à but non lucratif. Ils utilisent et évaluent de nouvelles technologies au quotidien, comme c'est d'ailleurs mon propre cas depuis plus de 30 ans à titre de conseillère en matière de protection des renseignements personnels. Cela fait des décennies qu'on nous promet que la technologie va nous apporter d'incroyables avantages, et je pense que c'est le cas dans une certaine mesure.
Par ailleurs, le passage au numérique a fait en sorte que de nombreuses entreprises se sont spécialisées dans la collecte, l'analyse et la monétisation des renseignements personnels, ce qui se fait souvent à l'insu des individus, et encore moins avec leur consentement éclairé.
Le projet de loi bénéficie d'un soutien considérable, mais je rappelle que bon nombre de personnes qui l'appuient ne l'apprécient pas pour autant. En effet, ces personnes estiment qu'il a fallu 20 ans pour en arriver là, mais comme on ne peut pas se permettre d'attendre une autre période de 20 ans pour moderniser la LPRPDE, le projet de loi C‑27 vaut mieux que rien.
En tout respect, nous ne sommes pas de cet avis. Nous pensons qu'il est préférable d'adopter une loi qui vise à accorder aux Canadiens le droit fondamental à la vie privée. Nous saluons ainsi la concession faite par le d'enchâsser ce droit dans le projet de loi lui-même, et pas seulement dans le préambule.
Nous ne sommes pas d'accord pour dire qu'il vaut mieux se contenter d'un projet de loi défaillant que de ne rien faire. Le projet de loi est problématique parce qu'il porterait atteinte à la vie privée de l'ensemble de la population canadienne, y compris des enfants. Par ailleurs, ce projet de loi ne contient aucune disposition pour lutter contre la réglementation du contenu qui sape les normes de cryptage, criminalise les enfants qui tentent de signaler des abus, et nuit à la confidentialité des communications privées, qu'il y est consentement ou non.
Les définitions contenues dans un projet de loi ont un impact concret sur la réalité. Or, il est simplement question de « consommateurs » dans le projet de loi , et non de personnes qui devraient jouir d'un droit fondamental à la vie privée. Le projet de loi fait la promotion du partage des renseignements personnels pour favoriser le commerce, la création d'emplois et la fiscalité. Il permettra également la création d'une structure bureaucratique qui serait inédite pour les autorités de protection des données personnelles, et qui retarderait de plusieurs années les recours auxquels les individus ont droit. Ce projet de loi n'exige pas de transparence en matière d'IA, et ne limite pas l'usage de l'IA par les gouvernements, lesquels sont protégés par nos lois sur l'accès à l'information.
Par ailleurs, ce projet de loi n'empêchera pas l'IA d'être utilisée encore davantage à des fins de reconnaissance faciale. Il ne freinera pas non plus la monétisation de nos renseignements personnels par une industrie mondiale de courtage de données qui se chiffre déjà à plus de 300 milliards de dollars américains. Le projet de loi ne vise pas à soumettre les partis politiques à des obligations en matière de protection de la vie privée, et ne permettra pas d'imposer des amendes aux dirigeants d'entreprises. En fait, le projet de loi prévoit seulement d'imposer des amendes aux entreprises, qui auront tout le loisir d'en faire un poste budgétaire qui leur servira à réduire leurs obligations fiscales.
Le projet de loi autorise l'usage de renseignements personnels à des fins de recherche. Les grandes sociétés pharmaceutiques pourront donc se servir de données génétiques dépersonnalisées dans le cadre de leur recherche médicale, sans pour autant avoir obtenu le consentement des patients. Le problème, c'est que ces données dépersonnalisées peuvent de plus en plus facilement être réidentifiées.
Le projet de loi exigerait que les politiques de protection de la vie privée soient rédigées en langage clair et simple, ce qui serait une bonne chose s'il précisait justement le degré de clarté requis. Il contient un langage vague et décrit des généralités, mais ne permet toujours pas aux individus de contrôler le partage de leurs renseignements personnels, de même que leur éventuelle suppression sur le Web.
Le projet de loi permet aux organisations de recueillir tous les types de renseignements personnels sans le consentement des individus concernés, tant qu'elles affirment, motivées bien sûr par leurs propres intérêts, qu'elles agissent pour s'assurer que rien ne constitue une menace aux « activités nécessaires à la sécurité de l’information, des systèmes ou des réseaux de l’organisation », ou si « la collecte ou l’utilisation est faite en vue d’une activité dans laquelle elle a un intérêt légitime qui l’emporte sur tout effet négatif que la collecte ou l’utilisation peut avoir pour l’individu ». L'individu est alors laissé à lui-même s'il souhaite contester ce genre d'affirmations.
Cela ne date pas d'hier qu'on entend des prophètes de malheur nous avertir que la réglementation nuit à l'innovation. Il s'agit en fait d'un leurre, car je rappelle que l'avènement de la radio n'a pas sonné le glas de la presse écrite, que l'arrivée de la télévision n'a pas rendu la radio obsolète, et que la révolution numérique n'a pas signalé la fin des inventions précédentes. Les entreprises technologiques ont toujours su s'adapter et innover, et elles continuent de le faire par rapport à chaque nouveau produit sur le marché.
Les entreprises qui sont parvenues jusqu'à présent à contourner le droit à la vie privée devront s'adapter à la nouvelle réalité et continuer à innover tout en respectant la vie privée, les droits de la personne, l'éthique et la morale. Malheureusement, depuis l'arrivée des ordinateurs sur le marché il y a près d'un demi-siècle, rares sont les entreprises qui respectent le droit à la vie privée. Demander poliment aux organisations de tenir compte des intérêts particuliers des personnes mineures est charmant en théorie, mais peu convaincant dans la réalité. En effet, 20 ans après l'entrée en vigueur de la LPRPDE, à peine plus de la moitié des entreprises canadiennes interrogées par le CPVP disposent d'une politique de protection de la vie privée ou ont même désigné une personne responsable de la protection de la vie privée.
Il s'agit là des composants fondamentaux pour créer un programme de protection des renseignements personnels qui ne nécessite pas 20 ans pour être mis au point. Nous n'avons pas le loisir d'attendre, mais nous ne pouvons pas non plus nous permettre d'adopter un projet de loi bâclée. La législation fédérale devra également s'harmoniser à la Loi 25 du Québec, au décret américain visant à réguler l'intelligence artificielle, ainsi qu'aux lois promulguées par d'autres juridictions qui sont bien en avance sur le Canada dans ce domaine. Nous ne pouvons pas non plus nous permettre de faire adopter une loi qui troque le droit des individus à la vie privée contre des gains commerciaux, car cela risque d'éroder encore plus la confiance des citoyens envers le gouvernement et l'industrie.
Je me ferai un plaisir de répondre à vos questions. Nous comptons également présenter un mémoire au Comité pour décrire en détail notre point de vue sur ces enjeux. J'espère que nous serons écoutés.
:
Je vous remercie, monsieur le président.
Le Centre pour la défense de l'intérêt public, le PIAC, est un organisme de bienfaisance sans but lucratif qui offre des services juridiques et de recherche dans l'intérêt des consommateurs, et plus particulièrement des consommateurs les plus vulnérables. Nous intervenons activement dans le domaine du droit à la protection des renseignements personnels depuis plus de 25 ans.
Je m’appelle John Lawford et je suis directeur général et avocat général du PIAC. Je suis accompagné aujourd'hui de Mme Yuka Sai, avocate-conseil à l'interne.
Le projet de loi met fin à 25 ans de législation canadienne en matière de protection de la vie privée. Les entreprises peuvent désormais présumer du consentement des consommateurs, qui se retrouvent pour leur part tenus de prouver qu'ils ont été victimes d'un préjudice. Cette nouvelle donne crée un malaise pleinement justifié par rapport aux droits de la personne.
D'abord, en ce qui concerne la notion de consentement, la nouvelle exception au consentement prévue pour les activités commerciales, qui figure à l'article 18(1), autorise légalement une entreprise à faire un usage complet des renseignements personnels d'un individu sans son consentement, et même à son insu. Le concept d'activité commerciale est défini de manière si vague et tautologique dans l'article 18(2) que seules les entreprises seront elles-mêmes en mesure de définir ce qu'est une entreprise: c'est ridicule. En fait, l'article 18 renverse complètement le principe du consentement éclairé d'un individu en ce qui concerne la collecte et l'usage de renseignements personnels en vertu de la LPRPDE. Est-ce vraiment dans les intérêts de la population canadienne?
L'article 18(3), qui permet à une entreprise de déroger à l'obligation d'informer l'individu et d'obtenir son consentement avant de divulguer ses renseignements personnels, s'inspire du droit européen, sans toutefois protéger le droit fondamental à la vie privée.
Ensuite, l'article 20 prévoit que les consommateurs perdent la possibilité de contrôler l'usage de leurs renseignements personnels lorsque ceux-ci sont dépersonnalisés. La dépersonnalisation est définie comme suit:
Modifier des renseignements personnels afin de réduire le risque, sans pour autant l’éliminer, qu’un individu puisse être identifié directement.
Cela revient à affirmer qu'un meurtre signifie ôter la vie à une personne, même s'il reste une chance que cette personne survive. On voit bien à quel point cette logique est contradictoire et dénuée de sens.
La dépersonnalisation des renseignements constituait clairement un usage des renseignements personnels en vertu de la LPRPDE. Une telle approche empêche le remplissage indéterminé des bases de données avec des renseignements personnels, et supprime de manière très superficielle les renseignements de base des bases de données. La dépersonnalisation représente donc un risque bien réel, mais même les renseignements dépersonnalisés peuvent nuire aux personnes lorsqu'elles sont profilées dans des bases de données qui sont ensuite utilisées pour les commercialiser ou leur refuser des services. Le projet de loi va encore plus loin dans ce sens.
Allez-y, madame Sai.
:
Je tiens tout d'abord à vous remercier de m'avoir invité aujourd'hui.
Je m'appelle Sam Andrey, et j'occupe le poste de directeur général de The Dais, un groupe de réflexion affilié à la Toronto Metropolitan University. Notre objectif est de promouvoir l'inclusion, l'innovation et la démocratie au sein de l'économie et du système d'éducation au Canada.
Mon intervention aujourd'hui porte sur l'IA et la Loi sur l’intelligence artificielle et les données. Comme plusieurs de mes collègues l'ont rappelé, l'IA a le potentiel de transformer en profondeur l'économie canadienne et notre vie quotidienne. Néanmoins, elle présente également des risques importants, notamment en ce qui concerne des formes systémiques de discrimination, des préjudices psychologiques, et une utilisation malveillante en général.
Les dernières données colligées par Statistique Canada indiquent que pour l'instant, seulement 4 % des entreprises canadiennes ont recours à l'IA. Par conséquent, pour accroître l'utilisation de l'IA et lui permettre d'atteindre son plein potentiel, nous devons mettre en place un cadre de gouvernance responsable.
Malheureusement, nous sommes d'avis que le projet de loi actuel ne remplit pas cet objectif. En effet, la présentation surprise du projet de loi et l'absence de consultation publique depuis lors ont limité la capacité de la société civile, des experts, de l'industrie et des communautés en quête d'équité à se prononcer. Au cours de l'année dernière, notre équipe universitaire, dirigée par Christelle Tessono, s'est associée au Centre pour les médias, la technologie et la démocratie de l'Université McGill afin de mettre en place des partenariats avec ces divers intervenants. Nous avons formulé ensemble des recommandations visant à améliorer le projet de loi, et nous allons les faire parvenir au Comité.
Je tiens pour le moment à présenter trois de nos recommandations qui portent sur la LIAD.
Premièrement, nous sommes d'avis que la définition du terme « préjudice » donnée dans le projet de loi se rapporte étroitement à l'individu, alors que les préjudices causés par les systèmes d'IA se manifestent également à l'échelle des groupes et des communautés. En effet, selon le type et le contexte du stème d'IA en question, les préjudices subis par les individus peuvent s'avérer difficiles à prouver, et ne se manifester que lorsqu'ils font l'objet d'une évaluation à l'échelle de la population. Par ailleurs, il existe des types de préjudices collectifs liés à l'exploitation de l'IA qui ne seraient probablement pas pris en compte selon cette définition. Pensons notamment à l'ingérence électorale, aux atteintes importantes à l'environnement et aux préjudices collectifs subis par les enfants.
Deuxièmement, comme l'ont expliqué mes collègues, le modèle réglementaire proposé par le gouvernement ne permet pas de s'affranchir suffisamment du ministre de l'ISDE, lequel serait appelé à jouer deux rôles concurrents: promouvoir les avantages économiques liés à l'IA, et réglementer son utilisation. Nous sommes plutôt d'avis que le poste de Commissaire à l'intelligence artificielle doit conserver une indépendance par rapport au ministre, idéalement au moyen d'une nomination parlementaire et des ressources nécessaires.
Nous proposons également deux ajouts au projet de loi. Le premier ajout concerne la possibilité pour un particulier de déposer une plainte auprès du commissaire. À l'heure actuelle, le ministre doit avoir des motifs raisonnables pour être en mesure de lancer une enquête, et les critères sont particulièrement élevés. Le second ajout concerne la possibilité pour le commissaire d'avoir recours à des évaluations préventives.
Troisièmement, comme l'ont également mentionné mes collègues, le projet de loi ne s'applique actuellement qu'au secteur privé. Le a récemment fait parvenir au Comité une liste des systèmes à incidence élevée qui seront potentiellement assujettis à une réglementation du gouvernement. Cette liste comprend de nombreux systèmes d'IA couramment utilisés par les acteurs du secteur public. Je pense notamment à l'usage de la reconnaissance faciale par les forces de police et les professionnels de la santé. Le problème, c'est que le projet de loi risque de créer un double standard: les acteurs du secteur privé seront tenus de respecter la réglementation du gouvernement, alors que les fonctionnaires ne seront soumis à aucune restriction.
Un tel double standard ne correspond en rien à la législation mise en place par l'UE. Le gouvernement canadien doit montrer l'exemple en mettant en place des garde-fous au développement et à l'usage de l'IA. Le projet de loi actuel est mal structuré pour assurer la réglementation de l'IA dans l'ensemble du secteur public. L'un des problèmes majeurs est le fait que le commissaire soit un représentant du ministère de l'ISED. Nous sommes conscients qu'amender ce projet de loi ne sera pas une tâche facile, mais je tiens simplement à noter que le Parlement doit prioriser l'élaboration d'une réglementation de l'IA pour le secteur public, et que la participation de la société civile à cet égard sera essentielle.
Pour terminer, je tiens à saluer les investissements du Canada en matière de recherche et de développement des systèmes d'IA. Je rappelle néanmoins que ces investissements ne se sont pas encore traduits par la mise en place d'une réglementation adéquate de l'IA. Nous nous réjouissons que le et le Comité se montrent ouverts à des amendements susceptibles d'améliorer le projet de loi. Nous tenons enfin à rappeler qu'il existe partout au pays une immense communauté qui désire s'impliquer dans le processus législatif.
Je vous remercie de m'avoir invité.
:
Je vais reprendre du début.
Je vous remercie de votre présence et de vos excellents exposés sur ce projet de loi phare.
Au cours des premières réunions, nous avons dit que ce projet de loi ne fonctionnait pas pour bon nombre des raisons que vous avez tous soulignées. Vous avez probablement suivi le débat.
De notre point de vue, le droit fondamental énoncé dans la disposition de déclaration d'objet est essentiel. Il est certainement essentiel que, dans l'article précisant l'objet de la loi, on accorde une importance supérieure à la protection des renseignements personnels qu'à la capacité des organisations de les utiliser.
Je pourrais peut-être commencer par demander à M. Konikoff s'il croit qu'au lieu de parler de protection de la vie privée et du droit d'une organisation, on ne pourrait pas utiliser un autre libellé qui exprime cette supériorité.
:
Je vais donc passer à M. Lawford.
Une chose qui a été soulevée récemment au sujet des problèmes... J'ai beaucoup parlé des problèmes relatifs aux articles 12, 15 et 18, problèmes que vous avez vous aussi soulignés. L’article 15 précise que le consentement doit être exprimé clairement, un élément qu'on a souvent tendance à négliger.
Je suis en train de lire les plus récentes conditions de service de Zoom, qui ont été publiées au cours de l'été. Les médias ont révélé que Zoom s'arroge le droit de transcrire et de posséder tout ce qui est dit.
Ce qui me dérange vraiment, c'est l'article 15.2 de leurs conditions de service, qui s'applique à presque toutes les organisations. On y lit ceci: « Vous acceptez que Zoom puisse modifier, supprimer et compléter ses guides, déclarations, politiques et avis, avec ou sans préavis, ainsi que les guides, déclarations, politiques et avis similaires relatifs à votre utilisation des Services en publiant une version actualisée de ces éléments sur la page Web […] » L'entreprise ne dit pas que, si elle décide de modifier ces conditions, elle les publiera simplement sur une mystérieuse page Web et présumera que vous avez consenti au fait qu'elle va maintenant transcrire et posséder tout ce que vous dites sur Zoom.
Je vais laisser de côté l'article 18 proposé parce que c'est une toute autre affaire. J'aimerais cependant vous demander ce qu'on peut faire pour corriger l'article 15 afin que les entreprises ne puissent pas modifier comme bon leur semble leurs conditions de service sans en informer leurs utilisateurs.
Oui, la question du consentement a toujours été un défi. Même aux termes de la Loi sur la protection des renseignements personnels et les documents électroniques et d'autres lois sur la protection des renseignements personnels, les organisations ne sont pas censées pouvoir refuser de fournir un bien ou un service simplement parce que vous refusez de donner votre consentement. Pourtant, c'est ce qu'elles font toutes sans que cela soit contesté et que les lois à cet égard soient appliquées. Comme vous le dites, ces organisations — Zoom ainsi que toutes les autres — recueillent nos renseignements.
Nous n'avons pas le choix en ce moment. C'est tout ou rien, un pacte faustien. Si vous voulez utiliser un site Web donné, si vous voulez obtenir un prêt automobile en ligne, si vous voulez faire quoi que ce soit en ligne, oui, vous êtes censés lire la politique de confidentialité que même Mark Zuckerberg, de son propre avenu au Congrès, n'a pas lue. Par conséquent, les organisations qui reconnaissent que personne ne lit leur politique de confidentialité et qui, pourtant, continuent de recueillir des renseignements personnels sans avoir — elles le reconnaissent elles‑mêmes — obtenu un consentement éclairé, recueillent des renseignements personnels en violation de la LPRPDE et des autres lois. Personne n'a jamais contesté cela.
La seule façon de contourner le problème est de permettre à chacun d'entre nous de contrôler qui obtient nos renseignements et comment ils seront utilisés. Si je dis: « Oui, Zoom, vous pouvez recueillir ces renseignements à mon sujet, et vous me donnerez un reçu, un reçu automatique, afin que j'aie la preuve que c'est ce à quoi j'ai consenti », c'est quelque chose dont je pourrais me servir pour contester la décision. Si les entreprises étaient tenues responsables... C'est difficile parce que la plupart d'entre elles se trouvent à l'extérieur du Canada, mais d'autres lois ont une application extraterritoriale. Cela pourrait aussi être le cas de cette loi parce que le consentement est un enjeu fondamental. La situation n'est pas beaucoup mieux dans l'Union européenne. Nous devons absolument resserrer les règles à cet égard.
En ce qui concerne l'urgence, comme je l'ai dit, notre communauté ressent aussi une certaine urgence, mais pourquoi cette urgence est-elle beaucoup plus grande au Canada que dans d'autres pays qui s'intéressent à l'IA? Tout le monde va de l'avant, bien sûr, en définissant les risques, les répercussions et la façon de bien les gérer, mais l'idée que le Canada doit agir avant bon nombre de ses pairs ne me semble pas très logique. Je ne pense pas que cette approche débouchera sur les meilleures règles possible.
Je pense que, si nous examinons l'échéancier, nous devrions à tout le moins prendre le temps de tenir une consultation publique complète. De telles consultations nous permettent vraiment de tester les mesures législatives et d'analyser les différents types de problèmes qui peuvent survenir. C'est une étape essentielle à l'amélioration du produit final. Cette démarche a fonctionné pour d'autres lois. On l'applique pour la plupart des lois. Je ne vois aucune bonne raison de ne pas l'appliquer ici.
:
Merci, monsieur le président.
Je remercie le Comité de m'accueillir aujourd'hui, alors que ce n'est pas un comité auquel je siège habituellement. Cela me fait plaisir d'être ici.
Je remercie les témoins de leurs présentations.
Monsieur Konikoff, si vous le voulez bien, parlons des systèmes décisionnels automatisés. Comme on le sait, le projet de loi accorde un nouveau droit, soit le droit pour un individu de recevoir une explication au sujet de l'utilisation de ces systèmes. Toutefois, contrairement à la loi 25 du Québec, le projet de loi C‑27 ne contient pas de dispositions qui permettraient à une personne de s'opposer à l'utilisation d'un système décisionnel automatisé ou de faire réviser les décisions prises par un tel système.
Selon vous, si le projet de loi C‑27 n'inclut pas de telles dispositions, quelles sont les répercussions potentielles pour les consommateurs et les utilisateurs?
:
Notre opposition à ce tribunal repose sur le fait que le commissaire à la protection de la vie privée mène déjà des enquêtes et que, même si elles sont parfois lentes, leurs résultats sont, à notre avis, justes.
Nous avons examiné la débâcle du Tribunal de la concurrence cette année avec Rogers et Shaw, et l'utilisation de cette étape supplémentaire, comme on pourrait l'appeler, par une entreprise qui a eu envie d'étirer un processus ou de gagner... Nous sommes d'avis qu'il est impossible que les entreprises qui utilisent des renseignements personnels ne prennent pas cette mesure supplémentaire et ne se présentent pas devant le tribunal pour contester chaque décision du commissaire. Cette démarche ajoute fort probablement deux ans à toutes les décisions négatives au sujet des entreprises. On pourrait dire qu'à l'heure actuelle, il est possible de passer de la décision du commissaire à la protection de la vie privée à la Cour fédérale, mais qu'il faut refaire la preuve devant la Cour fédérale.
Cette étape me semble inutile. Si on ajoute cela à nos préoccupations selon lesquelles on ne peut pas intenter un recours collectif avant que toutes les procédures soient terminées, y compris devant le tribunal, nous pensons que cela découragera les recours collectifs. Nous croyons que certains organismes d'application de la loi du secteur privé modifient le comportement des entreprises lorsqu'il y a des violations flagrantes de la vie privée.
Ce qui nous préoccupe, c'est que cela ne fait que mettre en place une structure qui constitue une étape supplémentaire et qui pourrait bien être moins favorable aux plaignants, comme le Tribunal de la concurrence l'est par rapport au commissaire à la concurrence.
:
Bien sûr. J'en serais ravi. Nous réfléchissons énormément à la désinformation et aux préjudices en ligne. Le gouvernement envisage une loi sur la sécurité en ligne depuis un certain temps et mène des consultations à ce sujet. Nous vous prions d'aller de l'avant.
Nous avons été surpris, mais agréablement surpris, je pense, que la Loi sur l’IA serait désormais un véhicule potentiel pour remédier à certains des préjudices causés par les systèmes de recommandation de contenu, ou, comme la plupart des gens les appellent, les « médias sociaux ». C'était dans la liste du . Si une loi sur la sécurité en ligne ne va pas de l'avant, ou si elle est fortement axée sur du contenu comme l’exploitation sexuelle d’enfants ou du contenu terroriste, alors je pense qu'elle pourrait servir de véhicule pour tenter de réglementer les systèmes de recommandation de contenu et leur amplification algorithmique en matière de préjudices potentiels. C'est un bon exemple du genre de choses qui, selon moi, prendront du temps à faire correctement dans le cadre du processus réglementaire, mais je pense que nous pourrions procéder ainsi.
En ce qui concerne l'aspect de l’IA générative, dans le code volontaire que l'on a mentionné, on propose une exigence pour ce qu'on appelle le tatouage numérique. C'est-à-dire que les gens doivent simplement être en mesure de distinguer s'il s'agit d'une image ou d'une vidéo modifiée ou d'un hypertrucage. À mesure que l'IA générative s'améliore et que notre capacité d'avoir confiance en tout ce que nous voyons s'effondre, ce type de réponse technique et réglementaire sera très important.
Ce n'est que l'une des façons dont nous pouvons utiliser ce projet de loi. Je pense que c'est très important.
:
Il s'agit vraiment du principal défi, surtout lorsqu'il s'agit de désinformation, contrairement à d'autres contenus qui sont clairement illégaux, comme les discours haineux.
En ce qui concerne la désinformation, oui, nous devons être très prudents. Cependant, j'ai tendance à privilégier une approche qui favorise davantage les discours plutôt que la censure, qui consiste à mettre en place des systèmes où des vérificateurs de faits ajoutent du contexte à ce que nous voyons en ligne et où on identifie, entre autres, l'hypertrucage pour avertir les gens. Bien sûr, cela ne veut pas dire qu'il n'y aura pas d'images modifiées en ligne, cela a toujours été le cas, mais les gens devraient savoir que ce qu'ils regardent a été modifié. Je pense que c'est une façon d'équilibrer la liberté d'expression et les préjudices réels liés à la désinformation.
Nous pouvons aborder d'autres points liés à la diffusion par les algorithmes et aux motifs financiers, mais je pense que, à la base, il faut accorder la priorité aux mesures législatives ou aux réglementations qui découleront de la Loi sur l'IA pour tenter de réglementer la liberté d'expression. Les entreprises doivent se pencher sur la liberté d'expression en même temps que sur les autres objectifs.
:
C'est une bonne question.
La plupart des grandes plateformes en ligne utilisent des systèmes automatisés pour modérer le contenu. Ils donnent parfois des résultats imparfaits. En ce moment, par exemple, des propos légitimes pros‑palestiniens sont coincés dans les filtres sur le Hamas. Ces systèmes sont imparfaits, mais, compte tenu de leur ampleur, ils sont souvent nécessaires.
Toutefois, nous pensons que les utilisateurs qui contestent ces systèmes auraient peut-être des recours supplémentaires avec un éventuel projet de loi sur la sécurité en ligne ou, éventuellement, une loi sur l'IA. La Loi sur les services numériques, qui est l'équivalent en Union européenne, permet aux utilisateurs de demander qu'on leur explique pourquoi leur contenu a été retiré et d'interjeter appel. C'est quelque chose que nous n'avons pas au Canada, et ce n'est qu'un exemple.
Au fil du temps, ce genre de systèmes de modération du contenu fonctionnent mieux. L'intelligence artificielle et les grands modèles de langage contribueront sans aucun doute à en améliorer l'efficacité, mais je pense que, au bout du compte, il faut absolument qu'un être humain soit impliqué dans ces choses.
Je pense que la capacité pour cette loi de prévenir et d'interdire efficacement la partialité flagrante de ces systèmes, les préjudices psychologiques qu'ils peuvent causer, et leur utilisation abusive et malveillante dépend du contexte dans lequel ils sont utilisés. Cependant, dans le contexte des services financiers, des soins de santé, de la modération de contenu et de l'intelligence artificielle générative — comme il en a été question —, ces risques et ces préjudices peuvent prendre différentes formes.
Le bon côté de ce projet de loi, c'est que son champ d'application est large, ce qui fait en sorte que l'organisme de réglementation, lorsqu'il sera créé, aura beaucoup de travail pour établir une liste de priorités sur lesquelles il devra se pencher. La liste du en donne une petite idée, mais je pense que pour garantir une adoption responsable de ces technologies, nous devons nous intéresser en priorité aux systèmes qui seront utilisés par un grand nombre d'entreprises.
L'intelligence artificielle générative en est un bon exemple, dans la mesure où les entreprises commencent de plus en plus à réfléchir à la manière dont elles pourraient l'intégrer à leurs processus afin de les rendre plus efficaces.
:
Merci, monsieur le président.
Je m'adresserai d'abord à M. Hatfield, puis je passerai rapidement aux autres témoins.
Quelle est votre opinion, si vous en avez une, sur la création d'un poste de commissaire à l'intelligence artificielle et aux données à titre d'agent indépendant du Parlement? Ce poste pourrait même être créé avant l'adoption de ce projet de loi, comme dans le cas du commissaire à la protection de la vie privée, du Bureau de la concurrence, et cetera. Sur la Colline, il semble qu'il y ait un consensus sur la nécessité de faire intervenir la quasi-totalité des fonctions parlementaires, des comités, etc.
Cette question s'adresse à M. Hatfield. Ensuite, si un autre témoin souhaite intervenir, je les invite à être brefs, car je ne dispose que de quelques minutes.
Avant de céder la parole à M. Vis, j'aimerais demander le consentement unanime des membres du Comité. Comme vous le savez, nous avons reçu une demande en vertu de l'article 106(4) du Règlement afin d'étudier Technologies de développement durable Canada ou TDDC. Notre calendrier indique que nous devrions le faire lundi. Je demande le consentement unanime des membres du Comité pour le faire mardi. Une séance du Comité était prévue mardi, mais jusqu'à présent, les témoins que nous avons invités ne sont pas en mesure de se présenter. Cela nous permettrait donc de faire bon usage tu temps de notre comité.
Si nous sommes tous d'accord, nous pourrions faire cette étude mardi. Y a‑t‑il consentement unanime?
Des députés: D'accord.
Le président: Merci beaucoup.
Monsieur Vis, vous avez la parole.
:
Ce projet de loi a fait l'objet de beaucoup de consultations pendant quatre ans auprès des entreprises, de la société civile et aussi des chercheurs. Nous améliorons énormément les pouvoirs d'application de la loi, et nous augmentons les exigences pour les entreprises.
Ma prochaine question s'adresse à M. Konikoff.
Au sujet du tribunal, Michael Geist nous a dit qu'il pourrait accélérer et améliorer l'accès à la justice s'il était « validement constitué ». On prévoit qu'il devra être composé d'au moins trois spécialistes en protection des renseignements personnels. Il pourrait parvenir à des règlements plus rapides et plus spécialisés que nos tribunaux traditionnels. En tant qu'avocat, c'est très important pour moi.
Dans votre déclaration liminaire, vous avez dit vouloir que les membres du tribunal ne soient plus nommés sur recommandation du ministre, qu'il n'ait plus ce pouvoir. Est-ce que cela veut dire que vous appuyez la création du tribunal?
De quelle manière souhaiteriez-vous que le tribunal soit constitué?
:
Merci, monsieur le président.
Excusez-moi, j’ai dû aller prononcer une allocution à la Chambre, alors j’ai peut-être manqué des choses entretemps. Je voudrais éviter qu’on répète des éléments qui ont déjà été dits en mon absence. Cela dit, monsieur Lawford et madame Sai, j’aimerais vous poser des questions pour faire suite à la question de M. Gaheer concernant le tribunal que le projet de loi vise à créer.
J’ai beaucoup de respect pour M. Balsillie, que le Comité a reçu mardi, et pour M. Geist, qui a comparu la semaine dernière. Je fais une parenthèse pour dire que, jusqu'à maintenant, personne n’a parlé positivement de ce projet de loi. Je pense donc que nous avons un sérieux problème.
Au-delà de cela, monsieur Lawford et madame Sai, vous dites qu'on devrait enlever du projet de loi les dispositions visant à créer un tribunal, parce que cela pourrait ralentir le processus si jamais des poursuites ou des actions devaient être intentées après l'entrée en vigueur du projet de loi.
Pouvez-vous préciser votre pensée là-dessus?
:
Bien sûr. Je pense que le projet de loi a besoin de beaucoup d'amendements et d'améliorations. Je pense que certains ont déjà été déposés par le , et plusieurs présentent des améliorations notables par rapport à la version actuelle.
J'aimerais me concentrer sur les points que je n'ai pas encore soulevés.
Je pense que le modèle actuel est très axé sur les vérifications que les organisations effectueront probablement elles-mêmes pour déterminer les risques et les préjudices. La vérification à l'aide de l'intelligence artificielle n'est pas encore une pratique codifiée. On ne sait même pas encore très bien quel domaine d'expertise devrait effectuer ces vérifications. S'agit-il d'informaticiens, de comptables, d'avocats? Il faudra du temps pour développer cette pratique, et cela devra être accompagné de normes solides.
Ensuite, le projet de loi actuel ne prévoit pas de mécanisme de plainte. Il ne dit pas comment le ministre établira les motifs de croire qu'une enquête est nécessaire. Il n'y a pas de mesures de protection des divulgateurs. Il n'y a pas de possibilité d'effectuer des vérifications préventives. Je pense que ma plus grande réserve au sujet de la loi se trouve dans son modèle de réglementation, et je pense que ces éléments peuvent être corrigés.
Je vais passer au Conseil du Canada de l'accès et la vie privée. Le Comité tient cette réunion aujourd'hui, et une grande réunion sur l'intelligence artificielle a lieu aussi en Europe, à laquelle assistent tous les dirigeants, britannique, italien, etc.
J'aimerais savoir ce que vous pensez de la loi sur l'intelligence artificielle. Je crois qu'il y avait un document daté du 14 avril 2023 dans lequel on disait que l'Union européenne deviendrait probablement la norme mondiale de facto pour les systèmes d'intelligence artificielle générative à usage général. Je suis peut-être très humble à ce sujet, mais vu la vitesse à laquelle l'intelligence artificielle et d'autres formes de nouvelles technologies se développent, je ne sais pas combien de personnes les comprennent réellement.
Il y a plusieurs mois, nous étions en Europe en tant que présidents de l'Association parlementaire Canada-Europe. Des gens de Montréal y étaient aussi et nous ont présenté des exposés.
C'est très compliqué, mais j'aimerais savoir ce que vous pensez de la loi sur l'intelligence artificielle proposée par l'Union européenne et où cela mènera non seulement l'Union européenne, mais le monde entier, parce qu'il semble y avoir des « précurseurs », si je peux utiliser ce terme.
:
Je pense que chaque pays veut être le premier. Comme on l'a demandé plus tôt, est-ce le bon choix? Le Canada va de l'avant, mais quels seront les avantages, et ce qui est plus inquiétant, quels seront les préjudices?
En ce qui concerne l'Union européenne et le Royaume-Uni, il est vrai qu'ils ont réfléchi et mené de nombreuses consultations, mais je pense qu'il est important de ne pas considérer ces textes législatifs de manière isolée, car nous avons des réglementations robustes en matière d'intelligence artificielle émanant du même pays qui vient d'adopter ce que l'on a nommé par euphémisme « Online Safety Act » ou loi sur la sécurité en ligne qui exige que tous les contenus soient surveillés, y compris les vôtres, parce qu'Internet est un réseau mondial.
Comment protéger quoi que ce soit lorsque l'intelligence artificielle est derrière la scène? L'intelligence artificielle est utilisée dans ces bâtiments, dans les aéroports et dans les centres commerciaux. Elle est déjà partout.
Oui, ils ont une longueur d'avance sur le Canada. Est-ce la bonne direction? C'est certainement mieux que le projet de loi . Il n'y a pas de désaccord à ce sujet, que ce soit dans la réunion aujourd'hui ou dans nombre de témoignages précédents que vous avez entendus. Nous pouvons regarder du côté de nos homologues européens. Ils sont sur une meilleure lancée. C'est à peu près toute la générosité dont je peux faire preuve pour l'instant.
:
Merci, monsieur le président.
Ma prochaine question s'adresse à M. Lawford.
Lors de certains témoignages et de certaines rencontres avec des gens du milieu, on nous a exprimé un grand malaise devant le manque de détails dans la partie 3 du projet de loi , celle qui édicte la Loi sur l'intelligence artificielle et les données, ainsi que devant la responsabilité pénale qu'elle impose aux entreprises qui utilisent des systèmes d'intelligence artificielle à incidence élevée.
Dans quelle mesure croyez-vous qu'il faudra clarifier tout cela, si on veut promouvoir une plus grande confiance et une plus grande aisance parmi les entreprises, et plus particulièrement les PME, tout en maintenant des dispositions de protection rigoureuses? Où est l'équilibre, en fait?
:
Merci beaucoup, monsieur Savard‑Tremblay.
Ce serait normalement au tour de M. Masse, mais il a dû partir un peu plus tôt. Il a consenti à me donner son temps de parole. Je vais donc en profiter pour vous poser quelques questions, moi aussi.
[Traduction]
Je vais simplement me faire l'écho de certaines des préoccupations soulevées par mon collègue, M. Van Bynen, au sujet de la lassitude à l'égard du consentement et renchérir sur les propos de M. Perkins en ce qui concerne le contrat de Zoom, dont les modalités peuvent être modifiées à la discrétion de l'organisation.
À mon avis, dans le contexte des activités en ligne, il est un peu exagéré de dire qu'il y a consentement puisqu'il existe un grand déséquilibre de pouvoir entre l'utilisateur et l'organisation. Nous ne pouvons pas dire qu'il y a une entente lorsque les avocats spécialisés en protection de la vie privée ne se donnent même pas la peine de lire les conditions. Je suis moi-même avocat. Je n'ai pas pratiqué le droit depuis un certain temps, mais je ne lis pas les conditions, et nous devons utiliser ces applications dans notre vie quotidienne.
À mon sens, le rôle du législateur est de trouver un équilibre pour les consommateurs, un peu comme dans le cas d'un propriétaire et d'un locataire, où les conditions sont très clairement définies. Je retiens de vos interventions que cet équilibre n'a pas été atteint dans ce projet de loi. Qu'est‑ce qui serait absolument essentiel pour établir l'équilibre recherché?
Allez‑y, monsieur Hatfield.
:
Tout d'abord, j'aimerais aborder la question de savoir si nous établissons un équilibre entre les intérêts commerciaux et la protection de la vie privée des gens. Je pense qu'il ne faut pas oublier que les entreprises, surtout les plateformes numériques, exercent déjà un pouvoir et une influence incroyables sur les consommateurs. Il n'y a déjà pas d'équilibre.
Nous aimerions que le projet de loi accorde la priorité au consentement éclairé des consommateurs, au lieu de le traiter, semble‑t‑il, comme un inconvénient pour les entreprises.
Pour ce qui est de la lassitude à l'égard du consentement, c'est un concept qui nous choque parce que l'industrie semble s'en servir pour réclamer une réduction progressive du consentement. La question qui semble se poser en ce moment, c'est de savoir pour quels types d'activités commerciales il n'est plus nécessaire d'obtenir le consentement parce que les consommateurs en ont assez des demandes de consentement longues et répétitives. La question que nous devrions nous poser plutôt est la suivante: comment pouvons-nous surmonter la lassitude à l'égard du consentement en trouvant des solutions novatrices qui permettent aux consommateurs de gérer leurs préférences de façon accessible et facile à comprendre? Essentiellement, il s'agit de maintenir le même niveau de contrôle sur le consentement qu'auparavant, mais de nouvelles façons.
L'expression « fatigue à l'égard du consentement » ne devrait vraiment pas servir d'excuse pour éliminer le consentement fondé sur les attentes en constante évolution des consommateurs, attentes qui sont, en vérité, façonnées par l'industrie elle-même.
:
Bien sûr. Je serai bref.
Pour ce qui est de la lassitude à l'égard du consentement, il y a des exceptions — nouvelles et existantes — qui font que les gens n'ont même pas besoin d'être informés de ce qui se passe. Dans le cas des travailleurs, par exemple, aucune connaissance ni aucun consentement ne sont requis.
Un autre comité étudie actuellement le risque que TikTok envoie éventuellement nos renseignements personnels en Chine. Le projet de loi ne prévoit aucune limite pour les entreprises canadiennes qui envoient des données en Chine.
Voilà le genre de mesures de protection que le projet de loi pourrait mettre en place pour assurer une protection comparable afin qu'il ne soit pas nécessaire de lire la longue politique de confidentialité de TikTok pour s'apercevoir qu'elle s'y trouve. À mon avis, ce n'est pas seulement une question de consentement. Il s'agit aussi d'instaurer des mesures de protection par défaut.