:
Je vous souhaite le bonjour à tous.
[Français]
Je déclare la réunion ouverte.
Soyez les bienvenus à la 96e réunion du Comité permanent de l'industrie et de la technologie de la Chambre des communes.
La réunion d'aujourd'hui se déroule sous forme hybride, conformément au Règlement.
Conformément à l'ordre de renvoi du lundi 24 avril 2023, nous reprenons aujourd'hui l'étude du projet de loi .
J'aimerais souhaiter la bienvenue aux témoins qui se joignent à nous aujourd'hui, soit M. Alexander Max Jarvie, associé chez Davies Ward Phillips & Vineberg SENCRL srl; M. François Joli‑Cœur, associé chez Borden Ladner Gervais; M. Scott Lamb, associé chez Clark Wilson LLP; Mme Carole Piovesan, cofondatrice et associée à INQ Law; et M. David Young, directeur, Droit à la vie privée et droit réglementaire chez David Young Law.
[Traduction]
Bienvenue à tous. Je vous remercie encore de vous joindre à nous cet après‑midi.
Sans plus tarder, je cède la parole à M. Jarvie pour cinq minutes.
:
Je vous remercie beaucoup.
Bonjour et merci de l'invitation à vous faire part de mes réflexions sur le projet de loi .
Je suis associé chez Davies Ward Phillips et Vineberg S.E.N.C.R.L. Je pratique le droit dans le groupe de la technologie. Je témoigne aujourd'hui à titre personnel et je présente uniquement mon propre point de vue.
Ces dernières années, nous avons vu de grands développements technologiques liés à l'apprentissage automatique. Ces développements découlent cependant en partie d'autres développements récents, soit la production de grandes quantités de données dans le cadre de nos activités, y compris des renseignements personnels, des informations qui circulent dans l'économie et la société. La somme de ces développements est très porteuse d'innovation future, mais elle présente aussi de grands risques, comme les risques d'atteinte à la vie privée, les risques de préjugés ou de discrimination et les risques d'autres dommages.
C'est pourquoi je suis encouragé par ce projet de loi, qui vise à réduire les risques et à favoriser l'innovation, tout à la fois. Je vais commencer par parler de la Loi sur la protection de la vie privée des consommateurs proposée et je vais suggérer des changements à certaines dispositions, pour mieux soutenir l'innovation relative à l'apprentissage automatique au moyen de mesures qui pourraient aussi servir de protections importantes. Je vais ensuite vous faire part de mes observations concernant la Loi sur l'intelligence artificielle et les données proposée.
À mon avis, il serait possible d'améliorer le cadre régissant les exceptions au consentement prévu dans la Loi sur la protection de la vie privée des consommateurs de manière à faciliter l'échange et la collecte de renseignements personnels par des acteurs du secteur privé qui désirent mener des projets, des études ou des recherches bénéfiques pour la société. En particulier, les articles 35, 39 et, en partie, 51 proposés pourraient être combinés et généralisés pour permettre aux acteurs du secteur privé de divulguer et d'échanger des renseignements personnels ou de recueillir des renseignements accessibles publiquement sur Internet à des fins d'étude ou de recherche, si certaines conditions sont respectées.
Parmi ces conditions pourrait se trouver l'exigence de mener une évaluation des facteurs relatifs à la vie privée, de conclure une entente offrant des garanties, si possible, et d'aviser le commissaire avant la divulgation ou la collecte. Sachant que la dépersonnalisation des données est suffisante pour alimenter les modèles d'apprentissage automatique dans bien des cas et sachant que la dépersonnalisation constitue une exigence à l'article 39 proposé, tel qu'il est rédigé actuellement, mais pas à l'article 35 proposé, je signale simplement que le choix de dépersonnaliser les renseignements dans un cas précis devrait être un facteur dans l'évaluation proposée des facteurs relatifs à la vie privée.
Bien formulés, ces changements pourraient assurer un soutien tangible, quoique bien circonscrit, à l'article 21 de la Loi sur la protection de la vie privée des consommateurs, qui permet l'utilisation des renseignements dépersonnalisés à des fins de recherche et d'analyse internes. De la même manière, le paragraphe 18(3), qui permet l'utilisation des renseignements personnels non dépersonnalisés à des fins légitimes, serait modifié, pourvu qu'une évaluation soit effectuée.
Concernant la Loi sur l'intelligence artificielle et les données, je vais commencer par la définition des mots « système d'intelligence artificielle », qui est d'une importance fondamentale, puisque toute la portée de la loi en dépend. La définition actuelle risque d'être trop large. Dans sa lettre, le ministre propose d'offrir une meilleure interopérabilité en présentant une définition qui vise à correspondre à la définition employée par l'OCDE, mais le texte fourni diverge de la formulation de l'OCDE, puisqu'on y ajoute le mot « inférence » de manière sous‑optimale. Par ailleurs, nous n'avons pas le libellé final.
Il y a d'autres définitions à prendre en considération dans d'autres instruments, comme la loi sur l'intelligence artificielle proposée dans l'Union européenne, le décret récent du président des États‑Unis et le cadre de gestion des risques en matière d'intelligence artificielle du National Institute of Standards and Technology. Certains de ces instruments présentent une définition qui se rapproche de celle de l'OCDE, mais la formulation diffère dans chaque cas.
Je vous recommanderais — ou au moins, je vous inviterais à le faire — d'examiner les définitions actuelles durant votre étude article par article pour déterminer ce qui se fait de mieux et assurer que la définition choisie en définitive crée la meilleure interopérabilité possible, mais demeure assez large pour tenir compte des nouvelles techniques et des nouvelles technologies.
Je vous recommanderais aussi de modifier l'article sur l'objet de la Loi sur l'intelligence artificielle et les données, ainsi que d'autres articles, pour y inclure les torts causés aux groupes et aux communautés, car ils peuvent également être touchés négativement par les décisions, les recommandations et les prédictions des systèmes d'intelligence artificielle.
Enfin, il doit y avoir un commissaire de l'intelligence artificielle et des données indépendant. On peut lire dans le document qui accompagne la Loi sur l'intelligence artificielle et les données que le modèle selon lequel l'entité réglementaire serait un fonctionnaire a été choisi en raison de divers facteurs, dont les objectifs du cadre réglementaire. Toutefois, étant donné l'ampleur de tout ce qui sera régi par règlement, la création d'une fonction de réglementation pour administrer et appliquer la Loi sur l'intelligence artificielle et les données viendrait atténuer le scepticisme associé au manque relatif de surveillance parlementaire et aiderait ainsi à donner confiance dans le système de réglementation en général.
Je vais déposer un mémoire au Comité, afin de détailler davantage les enjeux que j'ai soulevés ici. Les technologies d'apprentissage automatique devraient jouer un rôle important dans l'innovation à venir. Par la loi, nous pouvons apporter beaucoup de soutien pour réaliser ce potentiel, tout en offrant des protections efficaces aux personnes, aux groupes et à la société.
Je vous remercie de votre attention. Je répondrai aux questions avec plaisir.
Je vous remercie de votre invitation. Je suis heureux d'avoir l'occasion de faire part au Comité de mes commentaires sur le projet de loi .
Je suis associé chez Borden Ladner Gervais et membre du groupe de pratique sur la protection de la vie privée. Je suis également le responsable national du groupe sur l'intelligence artificielle de Borden Ladner Gervais. Je comparais devant vous aujourd'hui à titre personnel.
Je vais concentrer mes commentaires sur les dispositions du projet de loi qui touchent l'intelligence artificielle, tant dans la Loi sur l'intelligence artificielle et les données, ou LIAD, que dans la Loi sur la protection de la vie privée des consommateurs, ou LPVPC.
D'entrée de jeu, je tiens à souligner l'importance de moderniser le régime fédéral de protection des renseignements personnels, comme le Québec, l'Union européenne et plusieurs grandes économies mondiales l'ont fait récemment.
Je salue également la volonté du gouvernement de légiférer en matière d'intelligence artificielle. Malgré les critiques qui ont été émises à l'endroit de la LIAD, le projet de loi a l'avantage de préconiser une approche flexible. Certaines notions clés devraient toutefois être prévues dans la loi plutôt que dans un règlement. Par ailleurs, il sera primordial que le gouvernement effectue d'importantes consultations au sujet des règlements qu'il adoptera en vertu de la LIAD.
Mon premier commentaire porte sur l'anonymisation dans la LPVPC. L'utilisation de renseignements personnels anonymisés est une composante importante du développement des modèles d'intelligence artificielle, et l'exclusion des renseignements anonymisés de la portée de la Loi permettra aux entreprises canadiennes de continuer à innover.
Toutefois, la définition d'anonymisation devrait être plus flexible et comprendre une norme de raisonnabilité, comme d'autres personnes et groupes l'ont proposé. Cela harmoniserait cette définition avec ce qui est prévu dans d'autres lois nationales et internationales, y compris les récentes modifications à la loi québécoise.
Par ailleurs, la LPVPC devrait préciser explicitement que les organisations peuvent utiliser des renseignements personnels afin de les anonymiser sans le consentement des individus, comme c'est le cas des renseignements dépersonnalisés.
Finalement, la LIAD inclut des références aux données anonymisées, mais ce terme n'est pas défini dans la loi. Les deux lois devraient être harmonisées. Par exemple, la LIAD pourrait faire référence à la définition d'« anonymiser » prévue dans la LPVPC.
Mon deuxième commentaire porte sur la notion des décisions automatisées dans la LPVPC. Comme la plupart des lois modernes sur la protection des renseignements personnels, cette loi proposée prévoit des dispositions sur les décisions automatisées. Les organisations seraient tenues de fournir des explications, à la demande de l'individu concerné, lorsqu'ils utilisent des systèmes décisionnels automatisés pour faire une prédiction, formuler une recommandation ou prendre une décision qui pourrait avoir une incidence importante pour un individu.
La définition de système décisionnel automatisé s'étend à des systèmes qui permettent d'appuyer ou de remplacer le jugement de décideurs humains. Cette définition devrait être révisée pour ne viser que les systèmes qui n'impliquent aucune intervention humaine. Cel évitera d'imposer un lourd fardeau aux organismes, qui devraient sinon inventorier tous leurs systèmes d'aide à la décision et mettre en place des processus pour expliquer le fonctionnement de ces systèmes, même lorsque la décision définitive est prise par un humain. Ce changement favoriserait aussi l'interopérabilité avec le régime québécois et avec le régime européen, qui est fondé sur le Règlement général sur la protection des données.
Pour ce qui est de la Loi sur l'intelligence artificielle et les données, la LIAD, mon premier commentaire porte sur les systèmes à incidence élevée. Une définition de ces systèmes devrait être incluse dans la loi. Puisque la plupart des obligations de la loi découlent de cette qualification, il n'est pas approprié que celle-ci soit entièrement définie par règlement. La définition devrait incorporer un facteur contextuel relatif au risque de préjudice causé par le système, par exemple, en considérant si le système présente un risque de préjudice pour la santé et la sécurité des individus ou un risque d'incidence négative sur les droits fondamentaux. Ce facteur pourrait être combiné à des catégories de systèmes susceptibles de constituer des systèmes à incidence élevée qui seraient précisées dans la Loi.
Toutefois, inclure une liste de catégories de systèmes qu'on considérerait de facto comme étant à incidence élevée, comme l'a proposé le ministre dans sa lettre, risque d'englober un trop grand éventail de systèmes, dont certains pourraient présenter un risque plus modeste.
Mon dernier commentaire porte sur l'intelligence artificielle à usage général. Dans sa lettre, le ministre a proposé l'adoption de dispositions particulières pour ce type de systèmes, comme les systèmes d'intelligence artificielle générative. Bien que l'intelligence artificielle générative a énormément gagné en popularité au cours de la dernière année, réglementer un type particulier d'intelligence artificielle pourrait rendre la loi obsolète plus rapidement.
Par ailleurs, tous les systèmes d'intelligence artificielle à usage général ne présentent pas le même niveau de risque. Il serait donc plus approprié de réglementer ces systèmes comme des systèmes à incidence élevée lorsqu'ils remplissent les critères associés à cette qualification.
Je vous remercie beaucoup de votre attention. Je serai heureux de répondre à vos questions.
:
Je vous remercie, monsieur le président, et merci aux membres du Comité, de m'entendre aujourd'hui sur cette importante question qu'est la réforme de la législation sur la protection de la vie privée et le projet de loi .
Je suis associé au cabinet Clark Wilson de Vancouver et membre du barreau en Ontario et en Colombie‑Britannique. Je pratique le droit relatif à la protection de la vie privée depuis environ l'an 2000. Je conseille diverses organisations du secteur privé, ainsi que des organismes publics, comme les universités. J'agis aussi comme conseiller juridique au commissaire à l'information et à la protection de la vie privée de la Colombie‑Britannique dans des enquêtes et des contrôles judiciaires.
Puisque notre temps est limité, je vais m'en tenir à la Loi sur la protection de la vie privée des consommateurs et plus particulièrement, à l'exception en cas d'intérêt légitime, à l'anonymisation, à la dépersonnalisation et au contrôle judiciaire distinct pour cela. J'espère avoir aussi le temps de parler de la Loi sur l'intelligence artificielle et les données, en ce qui concerne les systèmes à incidence élevée.
Je discuterai bien sûr avec plaisir d'autres aspects du projet de loi et je pourrai répondre à vos questions. De plus, après mon exposé, je vous remettrai un mémoire détaillé qui porte sur les enjeux abordés aujourd'hui.
Concernant tout d'abord la Loi sur la protection de la vie privée des consommateurs et l'exception liée à l'intérêt légitime, il importe de souligner que l'administration probablement la plus citée en exemple en matière de protection de la vie privée, l'Union européenne avec son Règlement général sur la protection des données, confère aux organisations le droit autonome de recueillir, d'utiliser et de communiquer des renseignements personnels si elle est motivée par des intérêts légitimes. En conséquence, si le Canada se dote d'une exception au consentement fondée sur l'intérêt légitime d'une organisation, il importe d'examiner en détail comment l'exception va fonctionner et quelles en seront les conséquences.
Avant tout, je répète que les dispositions du paragraphe 18(3) proposé constituent une exception aux exigences en matière de consentement et ne confèrent pas de droit autonome à une organisation, comme le Règlement général sur la protection des données.
Qu'est‑ce que cela signifie? En général, un droit autonome n'est pas interprété par les tribunaux de manière aussi restrictive qu'une exception à une obligation, du point de vue de l'interprétation stricte des lois. Bref, l'exception liée à l'intérêt légitime a fort probablement une portée moindre que les dispositions sur l'intérêt légitime qu'on trouve dans le Règlement général sur la protection des données.
Un droit autonome pourrait servir à contourner ou de manière générale, à amoindrir la structure de consentement des lois sur la vie privée, qui sont au cœur de nos lois et qui font partie de la culture de protection de la vie privée inculquée au Canada. Ainsi, il est sans doute, en tout et pour tout, préférable de conserver des dispositions prescrivant une exception à la structure de consentement en raison d'un intérêt légitime plutôt que de conférer un droit autonome.
Par ailleurs, l'exception ne s'applique qu'à la collecte et à l'utilisation de renseignements personnels, et non à la divulgation de ces renseignements à un tiers. De mon point de vue, il est insensé d'interdire l'utilisation de cette exception pour divulguer des renseignements personnels si l'organisation est motivée par des intérêts légitimes. Si je suis en faveur du recours à une exception plutôt qu'à un droit autonome, dans le premier cas, je pense que vous devriez en élargir la portée pour inclure la divulgation, elle aussi.
Les dispositions du paragraphe 18(3) proposé énoncent expressément que l'intérêt légitime d'une organisation relativement aux renseignements personnels « l'emporte sur tout effet négatif que la collecte ou l'utilisation peut avoir ». Dans les faits, il s'agit d'un haut niveau de protection. L'utilité de cette exception, même si elle se limite à la collecte et à l'utilisation des renseignements, est grande pour les organisations. Par exemple, une entreprise peut être motivée par un intérêt légitime pour recueillir et utiliser des renseignements personnels afin de mesurer et d'améliorer l'utilisation de ses services ou de développer un produit. Toutefois, le paragraphe 18(3) proposé empêche cette entreprise de divulguer ces renseignements à un partenaire d'affaires ou à un fournisseur tiers pour donner effet à son but légitime.
Enfin, d'autres administrations font appliquer le motif de l'intérêt légitime d'une organisation à la divulgation des renseignements personnels, en plus de leur collecte et de leur utilisation. C'est non seulement ce que prévoit le Règlement général sur la protection des données, mais aussi la loi de Singapour. Vous remarquerez que si l'on compare ces deux instruments, la loi de Singapour contient aussi une exception. Ce pays a aussi toute une jurisprudence qui a évolué.
Je pense qu'il serait très rassurant pour les membres du Comité d'examiner la jurisprudence à Singapour, ainsi que la jurisprudence récente dans l'application du Règlement général sur la protection des données dans l'Union européenne. On comprend mieux ce que signifie l'intérêt légitime. Je comprends qu'à première vue, cette notion semble plutôt vague et pourrait passer pour une échappatoire béante. Cependant, je ne crois pas que ce soit le cas.
J'aimerais maintenant parler de l'anonymisation et de la dépersonnalisation de renseignements. On cherche à y voir clair dans tout cela depuis un certain temps, et il est rassurant de constater qu'entre le projet de loi et le projet de loi , on a introduit cette idée, le concept de l'anonymisation, qui se distingue de la dépersonnalisation. Cependant, d'un point de vue technologique et pratique, on n'atteindra jamais la norme établie dans la définition de l'anonymisation, alors pourquoi l'inscrire dans la loi en premier lieu? Il y a eu des commentaires à ce sujet, et je suis généralement favorable à la recommandation que vous ajoutiez à cette définition à quoi on peut s'attendre, de manière raisonnable, dans le cas où une personne pourrait être identifiée après le processus de dépersonnalisation. Les données ne sont pas nécessairement anonymisées ensuite, mais elles sont quand même visées par la loi et les exigences relatives à l'utilisation et à la divulgation de ces données.
Concernant l'utilisation et la divulgation, je souligne également que l'article 21 proposé limite l'utilisation permise à une organisation à des fins internes. L'utilité de cette disposition pourrait être remarquablement limitée, si l'on regarde ce que nos partenaires commerciaux font, parce que dans la recherche et le développement, de nos jours, il y a toute l'idée de la mise en commun des données et des grands partenariats dans l'utilisation de données. Si on limitait cette utilisation strictement à des fins internes, nous pourrions perdre cet outil important dans une économie technologique moderne qui en dépend. Par conséquent, je recommande également de supprimer cet article.
De plus, l'article 39 proposé limiterait la divulgation de renseignements personnels dépersonnalisés aux organisations du secteur public — c'est très restrictif. Il faudrait envisager de permettre la divulgation aux organisations du secteur privé qui sont vraiment essentielles à notre économie moderne, et qui contribuent à la recherche et au développement.
En ce qui concerne le contrôle judiciaire, je sais que le commissaire à la protection de la vie privée y est hostile, et je reconnais que le commissaire à la protection de la vie privée joue un rôle inestimable dans les enquêtes et la conformité à nos lois sur la protection de la vie privée. Cependant, compte tenu des sanctions administratives pécuniaires énormes qui pourraient être infligées aux organisations trouvées coupables d'infraction — le montant le plus élevé étant de 3 % de leurs revenus annuels bruts ou de 10 millions de dollars —, il est impératif de prévoir un droit d'appel clair à un tribunal spécialisé et une révision des sanctions pour assurer l'application régulière de la loi ainsi que le respect des normes de justice naturelle et, bien franchement, pour nous doter de lois robustes dans ce domaine.
Il convient également de souligner que le contrôle judiciaire de la décision du tribunal devrait respecter le seuil établi par la Cour suprême du Canada dans l'affaire Vavilov, qui se limite à un examen de la norme du caractère raisonnable, qui est un examen très respectueux et limité. On vous a déjà conseillé d'essayer d'éviter que ce genre de procédure ne s'éternise indéfiniment. Avec un contrôle judiciaire, ce serait limité. Je sais qu'on vous a recommandé que le contrôle judiciaire passe directement du tribunal à la Cour d'appel fédérale. Je pense que ce serait très bien si vous voulez accélérer les choses et répondre aux préoccupations soulevées. Je pense que ce serait probablement correct, mais j'aime bien la structure d'un tribunal de contrôle distinct.
Enfin, en ce qui concerne l'intelligence artificielle et les systèmes à incidence élevée, je pense que l'idée de cibler les systèmes à incidence élevée est solide sur le plan de la structure et pourrait bien s'harmoniser, en général, avec ce que font nos partenaires commerciaux de l'UE. Cependant, on ne peut pas se contenter de définir et d'approfondir ce concept dans la réglementation seulement. Ce concept doit faire l'objet de consultations approfondies et d'un examen parlementaire.
On recommanderait au gouvernement de produire une analyse fonctionnelle d'un système à incidence élevée du point de vue de ses répercussions qualitatives et quantitatives, de l'évaluation des risques, de la transparence et des mesures de protection.
Il faudrait également faire une distinction entre la recherche et le développement en matière d'intelligence artificielle à des fins de recherche seulement et l'intelligence artificielle déployée dans le domaine public à des fins commerciales ou autres. Je ne voudrais pas que notre loi sur l'intelligence artificielle et les données devienne une sorte de frein à la recherche en intelligence artificielle.
Nous sommes vulnérables et nos alliés sont vulnérables par rapport aux autres acteurs internationaux qui sont à l'avant garde de la recherche en intelligence artificielle. Rien dans notre projet de loi ne devrait nous freiner dans nos élans sur ce front. Cependant, il faut protéger le public des produits de l'intelligence artificielle qui sont déployés dans le domaine public et nous assurer d'être bien protégés. Je pense que c'est la nuance qui manque dans cette discussion, mais il est très important que nous allions de l'avant à ce chapitre.
Voilà ce que j'avais à dire.
Merci.
:
Merci, monsieur le président, mesdames et messieurs, de me donner l'occasion de m'exprimer sur le projet de loi .
Je suis l'associée directrice d'INQ Law, où je me concentre sur les lois relatives aux données et à l'intelligence artificielle. Je suis ici à titre personnel, et les points de vue présentés sont les miens.
Chaque jour, nous entendons de nouvelles histoires sur les promesses et les dangers de l'intelligence artificielle. Les systèmes d'intelligence artificielle sont des programmes informatiques complexes qui traitent de grandes quantités de données, y compris de grandes quantités de renseignements personnels, à des fins de formation et de production. Ces produits peuvent avoir une grande valeur.
Il est possible que l'intelligence artificielle contribue à guérir des maladies, à améliorer les rendements agricoles ou juste à nous rendre plus productifs, afin que chacun d'entre nous puisse exploiter au mieux ses talents. Cette promesse est bien réelle, mais comme vous l'avez déjà entendu depuis le début de la séance, elle n'est pas sans risque. Aussi complexes que soient ces systèmes, ils ne sont ni parfaits ni neutres. Ils sont conçus à une telle vitesse que ceux qui sont en première ligne du développement sont parmi les voix les plus fortes à réclamer une certaine réglementation.
Je sais que le Comité a entendu de nombreux témoignages au cours des dernières semaines. Bien que les témoignages que vous avez entendus couvrent sûrement tout l'éventail des opinions, il semble y avoir au moins deux points de convergence.
Le premier, c'est qu'il faut moderniser la loi fédérale canadienne sur la protection de la vie privée dans le secteur privé pour tenir compte de la demande croissante de renseignements personnels et des changements dans la façon dont ces renseignements sont recueillis et traités à des fins commerciales. Bref, il est temps de moderniser la Loi sur la protection des renseignements personnels et les documents électroniques.
Le deuxième, c'est que nos lois régissant les données et l'intelligence artificielle devraient viser l'interopérabilité ou l'harmonisation avec les autres grands pays du monde. L'harmonisation aide les Canadiens à comprendre leurs droits et à savoir comment les faire valoir. Elle aide en outre les organisations canadiennes à être plus concurrentielles au sein de l'économie mondiale.
Le Comité a également entendu des points de vue divergents sur le projet de loi . Le reste de mon exposé s'articulera autour de cinq points principaux concernant les parties 1 et 3 du projet de loi.
La partie 1, qui propose la Loi sur la protection de la vie privée des consommateurs, ou LPVPC, propose des changements importants à la gouvernance des renseignements personnels au Canada. Mes observations portent principalement sur l'exception au consentement fondé sur l'intérêt légitime et sur la définition de données anonymisées, dont vous avez déjà beaucoup entendu parler par les témoins qui composent ce groupe.
Tout d'abord, les nouvelles exceptions au consentement prévues dans le projet de loi sont les bienvenues. Non seulement elles permettent aux organisations d'utiliser des données personnelles pour mener des activités légitimes et bénéfiques, mais elles harmonisent le droit canadien plus étroitement à celui de certains de nos principaux alliés, y compris à l'intérieur même du Canada, notamment à la loi 25 du Québec. Je souligne surtout qu'elles sont raisonnables et mesurées. Je suis d'accord avec les témoignages précédents que vous avez entendus ici, selon lesquels l'exception fondée sur l'intérêt légitime prévue dans cette loi devrait concorder davantage avec les exceptions prévues dans d'autres lois importantes en matière de protection de la vie privée, notamment le Règlement général sur la protection des données en Europe.
Deuxièmement, les données anonymisées peuvent être essentielles à des fins de recherche, de développement et d'innovation. J'appuie les recommandations présentées à ce comité par le Canadian Anonymization Network sur la rédaction de la définition du terme « anonymiser ». Je suis également d'accord avec les observations de M. Lamb concernant l'intégration des notions existantes de prévisibilité raisonnable ou de risque grave de réidentification.
En ce qui concerne la partie 3 du projet de loi, la proposition de loi sur l'intelligence artificielle et les données, je dirai premièrement que j'appuie l'approche souple mise de l'avant dans la partie 3. Je remarque toutefois que le projet actuel comporte des lacunes importantes et qu'il sera nécessaire de les combler le plus vite possible. En outre, toute réglementation future devra faire l'objet de consultations approfondies, comme le prévoit le document d'accompagnement de la loi.
Notre compréhension de la façon de tirer efficacement profit des promesses de l'intelligence artificielle et de prévenir les problèmes associés à son utilisation évolue avec la technologie elle-même. Pour mettre au point une réglementation efficace, il faudra consulter beaucoup de parties, y compris, et c'est important, les gens du domaine de l'intelligence artificielle.
Deuxièmement, le , dans la lettre qu'il a soumise au Comité, propose de modifier la Loi sur l'intelligence artificielle et les données afin de définir « incidence élevée » selon des catégories de systèmes. L'absence de définition d'« incidence élevée » est l'omission la plus flagrante dans la version actuelle du projet de loi.
L'utilisation de catégories, comme dans le projet de loi de l'UE sur l'intelligence artificielle, favoriserait une approche fondée sur la gouvernance pour régir l'intelligence artificielle, et je suis d'accord avec cela. Lorsque cette définition sera intégrée au projet de loi, elle devra reprendre les termes de la définition proposée dans le document d'accompagnement et préciser les critères déterminant ce qui constitue une « incidence élevée », selon les catégories établies.
Enfin, j'appuie les modifications proposées pour harmoniser plus étroitement la Loi sur l'intelligence artificielle et les données aux orientations de l'OCDE sur l'intelligence artificielle responsable. Je parle plus précisément de la définition figurant à l'article 2 proposé de cette loi, qui a également été adoptée par le National Institute of Standards and Technology, aux États-Unis, dans son cadre de gestion des risques liés à l'intelligence artificielle.
Le Canada devrait s'arrimer autant que possible aux régimes des autres grands pays du monde.
J'attends avec impatience les questions du Comité, ainsi que les commentaires des autres témoins.
:
Merci de m'avoir invité à comparaître devant le Comité pour cette importante étude du projet de loi .
Ce projet de loi propose des amendements significatifs aux lois canadiennes visant la protection de la vie privée de même qu'un régime de surveillance pour l'intelligence artificielle. Il serait d'ailleurs bon que le Comité se penche de façon plus approfondie sur la Loi sur l'intelligence artificielle et les données. Comme les autres témoins vous l'ont indiqué, il y a de nombreux éléments à prendre en compte dans ce contexte. Je vais toutefois me limiter aujourd'hui à vous parler des dispositions touchant la protection de la vie privée.
Je suis un avocat spécialisé dans le droit à la vie privée et le droit réglementaire. Mon travail des 25 dernières années m'a notamment amené à conseiller des organisations du secteur privé — avec ou sans but lucratif — ainsi que le gouvernement et des sociétés d'État dans tous les domaines pertinents, y compris la protection des renseignements personnels des particuliers et des travailleurs et la protection des données médicales.
Mes observations préliminaires vont porter sur l'un des éléments marquants du projet de loi, dont certains vous ont déjà parlé, à savoir le traitement des renseignements dépersonnalisés et anonymisés. J'espère pouvoir vous apporter certains éclaircissements à cet égard et vous faire part de mes suggestions quant aux moyens à prendre pour améliorer les dispositions proposées.
La façon dont on propose de traiter ces données dans le projet de loi revêt une importance capitale. Premièrement, on établit une catégorie de renseignements qui, sans être pleinement identifiables et du même coup accessibles pour certains usages précis sans qu'un consentement soit nécessaire, peuvent encore être réputés pouvoir bénéficier de la protection prévue par la loi. Deuxièmement, il permet de créer une catégorie de renseignements anonymisés pouvant être utilisés d'une manière générale à des fins de recherche, d'innovation et d'élaboration des politiques.
Les données dépersonnalisées de la première catégorie sont assujetties à toutes les mesures législatives de protection de la vie privée, sous réserve de certaines exceptions. En revanche, la loi n'est pas censée s'appliquer aux données anonymisées de la deuxième catégorie. Cependant, comme je m'apprête à vous l'expliquer plus en détail, la question ne s'arrête pas à cette indication voulant que la loi ne s'applique pas. Comme il se doit, il faut que la loi continue de permettre un contrôle des renseignements anonymisés. C'est une facette qui est parfois oubliée, bien que j'aie pu entendre certaines préoccupations à ce sujet en provenance d'autres intervenants. Selon moi, il est primordial de bien comprendre que, sans égard à la définition retenue — et nous avons eu droit à différents commentaires à ce sujet —, la loi continue de s'appliquer.
J'aurais quelques recommandations à vous soumettre afin d'améliorer le projet de loi.
Premièrement, il conviendrait de modifier la définition de « dépersonnaliser » en précisant les processus à mettre en place pour s'assurer que les renseignements ne permettent pas d'identifier directement la personne concernée. Il faudrait de plus ajouter le critère du risque de réidentification à l'article 74 proposé de la Loi sur la protection de la vie privée des consommateurs qui traite des mesures de protection techniques et administratives.
Deuxièmement, on devrait aussi modifier la définition des renseignements anonymisés pour préciser plus explicitement les processus à mettre en œuvre aux fins de l'anonymisation. À ce titre, le Québec a frappé dans le mille avec sa Loi 25. Je recommande donc que l'on s'inspire de l'approche québécoise qui prévoit une réglementation tenant compte des pratiques qui ont fait leurs preuves en matière d'anonymisation. Cette réglementation devrait inclure des mesures visant la transparence, les risques de réidentification, la reddition de comptes et la protection contre les utilisations en aval. La loi québécoise reconnaît en outre qu'il est impossible, dans la pratique, d'affirmer que des renseignements anonymisés ne peuvent pas être réidentifiés. On devrait procéder de la même manière pour la Loi sur la protection de la vie privée des consommateurs. En outre, toute organisation menant le processus d'anonymisation devrait être tenue d'effectuer une analyse des risques de réidentification. C'est l'une des exigences proposées dans la réglementation québécoise au sujet des données anonymisées.
Troisièmement, il y aurait lieu de clarifier les règles touchant l'application des mesures législatives de protection aux renseignements dépersonnalisés. Si la chose vous intéresse, je pourrai certes vous fournir plus de détails à ce sujet en répondant à vos questions. Dans sa forme actuelle, la Loi sur la protection de la vie privée des consommateurs considère les renseignements dépersonnalisés comme des renseignements personnels, à quelques exceptions près.
Ce n'est pas la bonne façon de procéder. On devrait plutôt, comme l'a recommandé le Bureau du commissaire à la vie privée, simplement déclarer que tous les renseignements personnels dépersonnalisés demeurent des renseignements personnels. En outre, la liste d'exceptions incluse dans le projet de loi prête à confusion. Pour simplifier et clarifier les choses, on pourrait rayer carrément bon nombre de ces exceptions qui ne sont pas nécessaires. Je pourrai vous fournir de plus amples détails à ce sujet si vous le souhaitez.
Je voudrais traiter en terminant d'une préoccupation soulevée par différents intervenants qui voudraient que l'on précise expressément que le régime d'anonymisation prévu dans la loi sera mis en œuvre sous la surveillance du commissaire à la protection de la vie privée. Je sais qu'il y a au moins un témoin qui vous a fait part de ses recommandations en ce sens. J'estime pour ma part qu'une disposition à cet effet n'est pas nécessaire. Le commissaire devra s'assurer que les organisations respectent les règles applicables à l'anonymisation, quelles qu'elles soient. Qui plus est, ce qui est très important, si des renseignements anonymisés en viennent à devenir identifiables — et c'est le risque de la réidentification —, les dispositions de protection de la loi s'appliqueront avec toute leur vigueur, et ce, sous la surveillance du commissaire. En fait, il y a deux voies possibles via lesquelles le commissaire pourra continuer d'exercer cette surveillance.
En résumé, voici donc ce que je recommande.
Premièrement, il faudrait rendre plus rigoureuses les dispositions touchant les renseignements dépersonnalisés en tenant notamment compte des risques de réidentification. Deuxièmement, il faudrait modifier la définition des renseignements anonymisés pour préciser plus explicitement les processus requis pour procéder à l'anonymisation. En outre, le tout devrait être prévu dans la réglementation, en incluant une exigence d'évaluation des risques. Enfin, il faudrait apporter des éclaircissements aux règles d'applicabilité des mesures de protection prévues dans la Loi sur la protection de la vie privée des consommateurs à l'égard des renseignements dépersonnalisés, en stipulant notamment que les renseignements de la sorte demeurent des renseignements personnels.
Je serais ravi de vous en dire davantage en répondant à toutes vos questions concernant ces observations ou toute autre disposition du projet de loi.
:
Merci beaucoup, monsieur le président.
Merci à nos témoins pour leurs excellents exposés. L'étude de ce projet de loi est vraiment fascinante jusqu'à maintenant. Une foule de nouvelles approches fort intéressantes ont été mises de l'avant, en plus d'autres dont on a confirmé la validité…
Ma première question est pour M. Lamb. Si vous avez suivi nos délibérations, vous ne serez pas surpris d'entendre que j'estime que ce projet de loi donne préséance aux intérêts des grandes entreprises au détriment des droits des particuliers quant à la protection de leur vie privée.
C'est ce que l'on peut d'abord constater à l'article 5 proposé qui, même si on parle maintenant d'un droit fondamental, situe sur le même pied, en gardant la conjonction « et », le droit d'une organisation d'utiliser les données.
À mon avis, ce droit fondamental est encore davantage dilué par le paragraphe 15(7) proposé qui permet le consentement implicite, un concept qui aurait dû selon moi disparaître en même temps que les dinosaures. Je ne crois pas qu'il existe des situations dans lesquelles le recours au consentement implicite est justifié.
Il y a ensuite le paragraphe 18(3), auquel vous avez fait référence, qui indique que certaines restrictions s'appliquent. On peut y lire qu'il est possible d'utiliser les renseignements personnels d'un individu « à son insu », et ce, même si cela peut lui être dommageable. Vous devez comprendre que je viens du domaine du marketing et que je ne suis député que depuis deux ans. Je m'efforçais toujours de repousser les limites de ce qu'il est possible de faire avec les données au bénéfice des grandes entreprises pour lesquelles je travaillais. J'en connais pas mal sur la façon d'optimiser l'utilisation des données dans le commerce de détail.
J'aimerais que vous nous disiez si vous croyez vraiment qu'en plaçant sur le même pied un droit fondamental et la poursuite de certains objectifs, ce projet de loi n'a pas tout de même pour effet de favoriser indûment les grandes entreprises en leur permettant essentiellement de faire exactement ce que les spécialistes du marketing souhaitent faire, c'est‑à‑dire invoquer n'importe quel facteur à titre d'exception pour pouvoir utiliser des renseignements personnels afin d'augmenter les ventes de leurs produits.
Dans certains de vos commentaires, vous avez également évoqué le RGPD ou le Règlement général sur la protection des données. Ma question est liée à un débat qui commence à s'élever — nous n'avons pas abordé ce sujet de manière approfondie — entre la notion de protection de la vie privée dès la conception et… Contrairement au RGPD de l'Union européenne, la Loi sur la protection de la vie privée des consommateurs ne contient pas de référence explicite à la notion de protection de la vie privée dès la conception.
Dans son mémoire sur le projet de loi , le Commissariat à la protection de la vie privée du Canada recommande que la Loi sur la protection de la vie privée des consommateurs exige des organismes qu'ils mettent en œuvre des mesures de protection de la vie privée dès la conception d'un produit, d'un service ou d'une initiative, et ce, dès les premières étapes de son développement.
Cependant, lors de leur comparution devant le Comité, les représentants du gouvernement ont indiqué que plusieurs éléments de la Loi sur la protection de la vie privée des consommateurs, comme le fait qu'elle exige que les organismes élaborent un programme de gestion de la protection des renseignements personnels, signifient que la notion de protection de la vie privée dès la conception est déjà intégrée dans le projet de loi.
Devons-nous adopter une mesure semblable au Règlement général sur la protection des données, où cette notion est expressément énoncée, ou l'approche actuelle visant la mise sur pied d'un programme de gestion de la protection des renseignements personnels, telle qu'elle est indiquée dans l'article 9 proposé, sera‑t‑elle suffisante?
:
Si j'ai mal compris quelque chose, n'hésitez pas à me le faire savoir.
Tout d'abord, je comprends très bien les préoccupations des petites et moyennes entreprises en ce qui concerne le niveau de conformité. C'est en partie la raison pour laquelle il est très important d'harmoniser les dispositions dans la mesure du possible, car le défi de la conformité réside en partie dans le degré de nuance.
Permettez-moi de vous donner un petit exemple. À l'heure actuelle, si l'on considère seulement les projets de loi sur l'intelligence artificielle qui sont en élaboration dans plusieurs pays, on peut voir que l'Union européenne dispose d'un projet de loi rigoureux. Il y a ensuite le Canada, ainsi que d'autres pays. La Chine, Singapour… Plusieurs pays envisagent d'adopter des lois à cet égard. Rien qu'aux États-Unis, 200 projets de loi ont été déposés de l'échelon municipal à l'échelon fédéral, de sorte que, dans la mesure où nous pouvons réduire la complexité de la conformité, notre situation est de loin préférable.
À mon avis, l'une des mesures d'application les plus frappantes que l'on trouve dans la Loi sur l’intelligence artificielle et les données est la composante criminelle. C'est celle qui me préoccupe le plus, car elle fait de nous une exception. En effet, cette composante n'apparaît pas dans d'autres lois ailleurs dans le monde. Bien honnêtement, je recommanderais d'éliminer la composante criminelle de notre loi et j'harmoniserais la Loi sur l’intelligence artificielle et les données, que ce soit sur le plan de l'application ou des sanctions, aussi étroitement que possible aux lois des autres pays de premier plan.
J'espère avoir pleinement répondu à votre question.
:
Je m'adresse aux autres témoins qui sont ici aujourd'hui.
Avez-vous participé aux consultations qui ont eu lieu sur le projet de loi ou sur le projet de loi à l'étude? Hochez la tête pour dire oui ou non.
Je vois que personne n'a été consulté. D'accord.
À la lumière de ce que nous avons vécu depuis que nous avons commencé l'étude il y a quelques semaines, il ne semble pas y avoir eu de consultations. Pourtant, le a dit avoir consulté 300 personnes ou organismes au cours du processus suivant le dépôt du projet de loi. Nous aimerions trouver ces personnes ou ces organismes. Nous ne savons pas où elles sont.
Je déposerai plus tard un avis de motion, mais, avant de le faire, je vais tout de même vous poser une question, madame Piovesan.
M. Balsillie, qui s'est présenté devant nous et dont vous avez sûrement lu le témoignage, a comparé le projet de loi à un seau dans lequel il y avait des trous. Compte tenu des témoignages que nous avons entendus jusqu'à maintenant, on pourrait croire que le seau n'a carrément pas de fond. C'est l'impression que nous avons.
Vous avez parlé plus tôt du fait que le Comité avait entendu des opinions extrêmes de la part des témoins. Prenons par exemple le tribunal. Des gens ont suggéré de l'oublier, ont dit qu'on n'en avait pas besoin, alors que d'autres ont dit que, au contraire, ce serait important qu'il y en ait un dans ce domaine.
Comme les opinions des témoins sont si éloignées les unes des autres, trouvez-vous que ce projet de loi aurait dû être scindé au départ? En effet, depuis le début, on nous dit que c'est presque un monstre, que c'est trop gros et qu'il aurait fallu séparer toute la question de la vie privée de celle de l'intelligence artificielle.
Qu'en pensez-vous?
:
Je répondrai à M. Turnbull, que je ne doute pas que le ministre a fait des consultations.
Jusqu'à maintenant, nous avons tous invité des témoins, et Dieu sait que la liste en est encore très longue. Moi, je veux être en mesure de savoir qui a été consulté par rapport à l'ensemble des témoins qui viendront plus tard, pour nous préparer en fonction de nos futures réunions.
Jusqu'à présent, parmi l'ensemble des experts de haut niveau, si je peux les qualifier ainsi, qui ont témoigné devant nous, il semble que personne n'a été consulté. Je veux savoir si nous avons oublié des gens qui figurent dans la liste de ceux qui ont été consultés. Dans un tel cas, nous aurions peut-être dû les inviter au Comité.
Je comprends qu'il est un peu tard pour inviter de nouveaux témoins. Cela dit, la motion nous permettrait au moins d'obtenir des références, de prendre connaissance des recommandations que ces gens ont faites et qui n'ont pas été retenues, etc. Dans l'ensemble des documents que nous demandons, nous serons peut-être capables de trouver des réponses à ces questions.
Je le répète, je ne mets pas du tout en doute le fait que le ministre ait consulté 300 organisations ou individus.
:
Je vous remercie pour ces précisions, monsieur Généreux. Je vous en suis reconnaissant.
Je suppose que c'est ce qui me pose problème ici. De mon point de vue, toutes les réunions qui ont eu lieu doivent déjà figurer au registre des lobbyistes — chaque fois que le ministère rencontre un groupe d'après ce qui est indiqué. C'est donc déjà documenté. Vous pouvez vous-même consulter l'information, si vous voulez.
De toute évidence, nous avons aussi un processus pour le Comité. Beaucoup de groupes ont déjà présenté un mémoire. Ils en ont parfaitement le droit et ils peuvent le faire. Dans la motion, nous parlons de fournir les « documents soumis ». Ils ont déjà cette option.
Nous avons demandé à tous les témoins ici s'ils ont été consultés. Certains ne l'ont peut-être pas été, mais nous savons qu'il y a beaucoup d'intervenants, et plus de 300 ont été consultés.
Je ne suis pas certain de comprendre ce que cela accomplit lorsque, essentiellement, les membres du Comité ont déjà accès à l'information dont il est question. De plus, les intervenants peuvent déjà présenter un mémoire au Comité.
En gros, l'information est déjà disponible en grande partie. Je ne suis tout simplement pas certain de comprendre pourquoi nous aurions besoin d'une motion à ce stade‑ci.
:
Nous sommes saisis d'un amendement pour supprimer les points b) et c). Vous avez tous entendu l'amendement proposé par M. Turnbull.
Avons-nous le consentement unanime pour supprimer les points b) et c)?
(L'amendement est adopté. [Voir le Procès-verbal])
Le président: Nous revenons à la motion modifiée par M. Lemire puis par M. Turnbull.
Avons-nous le consentement unanime pour adopter la motion, ou dois‑je tenir un vote? Je ne vois plus personne qui souhaite intervenir.
Nous allons tenir un vote par appel nominal sur la motion modifiée.
(La motion modifiée est adoptée par 10 voix contre 0. [Voir le Procès-verbal])
Le président: Merci, monsieur Masse. Vous m'avez fait peur pendant un instant. Nous sommes revenus à la méthode de travail traditionnelle de type consensuel du Comité. Je m'en réjouis. La motion a été adoptée à l'unanimité.
Je vous remercie tous de votre collaboration. Nous terminons pile à l'heure.
[Français]
Nous avons respecté les contraintes de temps et de budget.
Je remercie beaucoup les interprètes, le personnel de soutien et les analystes.
À vous tous, je souhaite une bonne semaine dans vos circonscriptions respectives, une bonne fin de semaine et une bonne soirée.
La séance est levée.