Passer au contenu

INDU Réunion de comité

Les Avis de convocation contiennent des renseignements sur le sujet, la date, l’heure et l’endroit de la réunion, ainsi qu’une liste des témoins qui doivent comparaître devant le comité. Les Témoignages sont le compte rendu transcrit, révisé et corrigé de tout ce qui a été dit pendant la séance. Les Procès-verbaux sont le compte rendu officiel des séances.

Pour faire une recherche avancée, utilisez l’outil Rechercher dans les publications.

Si vous avez des questions ou commentaires concernant l'accessibilité à cette publication, veuillez communiquer avec nous à accessible@parl.gc.ca.

Publication du jour précédent Publication du jour prochain
Passer à la navigation dans le document Passer au contenu du document






Emblème de la Chambre des communes

Comité permanent de l'industrie et de la technologie


NUMÉRO 096 
l
1re SESSION 
l
44e LÉGISLATURE 

TÉMOIGNAGES

Le jeudi 9 novembre 2023

[Enregistrement électronique]

(1535)

[Traduction]

    Je vous souhaite le bonjour à tous.

[Français]

     Je déclare la réunion ouverte.
    Soyez les bienvenus à la 96e réunion du Comité permanent de l'industrie et de la technologie de la Chambre des communes.
    La réunion d'aujourd'hui se déroule sous forme hybride, conformément au Règlement.
    J'aimerais souhaiter la bienvenue aux témoins qui se joignent à nous aujourd'hui, soit M. Alexander Max Jarvie, associé chez Davies Ward Phillips & Vineberg SENCRL srl; M. François Joli‑Cœur, associé chez Borden Ladner Gervais; M. Scott Lamb, associé chez Clark Wilson LLP; Mme Carole Piovesan, cofondatrice et associée à INQ Law; et M. David Young, directeur, Droit à la vie privée et droit réglementaire chez David Young Law.

[Traduction]

    Bienvenue à tous. Je vous remercie encore de vous joindre à nous cet après‑midi.
    Sans plus tarder, je cède la parole à M. Jarvie pour cinq minutes.
    Bonjour et merci de l'invitation à vous faire part de mes réflexions sur le projet de loi C‑27.
    Je suis associé chez Davies Ward Phillips et Vineberg S.E.N.C.R.L. Je pratique le droit dans le groupe de la technologie. Je témoigne aujourd'hui à titre personnel et je présente uniquement mon propre point de vue.
    Ces dernières années, nous avons vu de grands développements technologiques liés à l'apprentissage automatique. Ces développements découlent cependant en partie d'autres développements récents, soit la production de grandes quantités de données dans le cadre de nos activités, y compris des renseignements personnels, des informations qui circulent dans l'économie et la société. La somme de ces développements est très porteuse d'innovation future, mais elle présente aussi de grands risques, comme les risques d'atteinte à la vie privée, les risques de préjugés ou de discrimination et les risques d'autres dommages.
    C'est pourquoi je suis encouragé par ce projet de loi, qui vise à réduire les risques et à favoriser l'innovation, tout à la fois. Je vais commencer par parler de la Loi sur la protection de la vie privée des consommateurs proposée et je vais suggérer des changements à certaines dispositions, pour mieux soutenir l'innovation relative à l'apprentissage automatique au moyen de mesures qui pourraient aussi servir de protections importantes. Je vais ensuite vous faire part de mes observations concernant la Loi sur l'intelligence artificielle et les données proposée.
    À mon avis, il serait possible d'améliorer le cadre régissant les exceptions au consentement prévu dans la Loi sur la protection de la vie privée des consommateurs de manière à faciliter l'échange et la collecte de renseignements personnels par des acteurs du secteur privé qui désirent mener des projets, des études ou des recherches bénéfiques pour la société. En particulier, les articles 35, 39 et, en partie, 51 proposés pourraient être combinés et généralisés pour permettre aux acteurs du secteur privé de divulguer et d'échanger des renseignements personnels ou de recueillir des renseignements accessibles publiquement sur Internet à des fins d'étude ou de recherche, si certaines conditions sont respectées.
    Parmi ces conditions pourrait se trouver l'exigence de mener une évaluation des facteurs relatifs à la vie privée, de conclure une entente offrant des garanties, si possible, et d'aviser le commissaire avant la divulgation ou la collecte. Sachant que la dépersonnalisation des données est suffisante pour alimenter les modèles d'apprentissage automatique dans bien des cas et sachant que la dépersonnalisation constitue une exigence à l'article 39 proposé, tel qu'il est rédigé actuellement, mais pas à l'article 35 proposé, je signale simplement que le choix de dépersonnaliser les renseignements dans un cas précis devrait être un facteur dans l'évaluation proposée des facteurs relatifs à la vie privée.
    Bien formulés, ces changements pourraient assurer un soutien tangible, quoique bien circonscrit, à l'article 21 de la Loi sur la protection de la vie privée des consommateurs, qui permet l'utilisation des renseignements dépersonnalisés à des fins de recherche et d'analyse internes. De la même manière, le paragraphe 18(3), qui permet l'utilisation des renseignements personnels non dépersonnalisés à des fins légitimes, serait modifié, pourvu qu'une évaluation soit effectuée.
    Concernant la Loi sur l'intelligence artificielle et les données, je vais commencer par la définition des mots « système d'intelligence artificielle », qui est d'une importance fondamentale, puisque toute la portée de la loi en dépend. La définition actuelle risque d'être trop large. Dans sa lettre, le ministre propose d'offrir une meilleure interopérabilité en présentant une définition qui vise à correspondre à la définition employée par l'OCDE, mais le texte fourni diverge de la formulation de l'OCDE, puisqu'on y ajoute le mot « inférence » de manière sous‑optimale. Par ailleurs, nous n'avons pas le libellé final.
    Il y a d'autres définitions à prendre en considération dans d'autres instruments, comme la loi sur l'intelligence artificielle proposée dans l'Union européenne, le décret récent du président des États‑Unis et le cadre de gestion des risques en matière d'intelligence artificielle du National Institute of Standards and Technology. Certains de ces instruments présentent une définition qui se rapproche de celle de l'OCDE, mais la formulation diffère dans chaque cas.
    Je vous recommanderais — ou au moins, je vous inviterais à le faire — d'examiner les définitions actuelles durant votre étude article par article pour déterminer ce qui se fait de mieux et assurer que la définition choisie en définitive crée la meilleure interopérabilité possible, mais demeure assez large pour tenir compte des nouvelles techniques et des nouvelles technologies.
    Je vous recommanderais aussi de modifier l'article sur l'objet de la Loi sur l'intelligence artificielle et les données, ainsi que d'autres articles, pour y inclure les torts causés aux groupes et aux communautés, car ils peuvent également être touchés négativement par les décisions, les recommandations et les prédictions des systèmes d'intelligence artificielle.
    Enfin, il doit y avoir un commissaire de l'intelligence artificielle et des données indépendant. On peut lire dans le document qui accompagne la Loi sur l'intelligence artificielle et les données que le modèle selon lequel l'entité réglementaire serait un fonctionnaire a été choisi en raison de divers facteurs, dont les objectifs du cadre réglementaire. Toutefois, étant donné l'ampleur de tout ce qui sera régi par règlement, la création d'une fonction de réglementation pour administrer et appliquer la Loi sur l'intelligence artificielle et les données viendrait atténuer le scepticisme associé au manque relatif de surveillance parlementaire et aiderait ainsi à donner confiance dans le système de réglementation en général.
    Je vais déposer un mémoire au Comité, afin de détailler davantage les enjeux que j'ai soulevés ici. Les technologies d'apprentissage automatique devraient jouer un rôle important dans l'innovation à venir. Par la loi, nous pouvons apporter beaucoup de soutien pour réaliser ce potentiel, tout en offrant des protections efficaces aux personnes, aux groupes et à la société.
(1540)
    Je vous remercie de votre attention. Je répondrai aux questions avec plaisir.
    Je vous remercie beaucoup.

[Français]

     Je cède maintenant la parole à M. Joli‑Coeur.
    Je vous remercie de votre invitation. Je suis heureux d'avoir l'occasion de faire part au Comité de mes commentaires sur le projet de loi C‑27.
    Je suis associé chez Borden Ladner Gervais et membre du groupe de pratique sur la protection de la vie privée. Je suis également le responsable national du groupe sur l'intelligence artificielle de Borden Ladner Gervais. Je comparais devant vous aujourd'hui à titre personnel.
    Je vais concentrer mes commentaires sur les dispositions du projet de loi qui touchent l'intelligence artificielle, tant dans la Loi sur l'intelligence artificielle et les données, ou LIAD, que dans la Loi sur la protection de la vie privée des consommateurs, ou LPVPC.
    D'entrée de jeu, je tiens à souligner l'importance de moderniser le régime fédéral de protection des renseignements personnels, comme le Québec, l'Union européenne et plusieurs grandes économies mondiales l'ont fait récemment.
    Je salue également la volonté du gouvernement de légiférer en matière d'intelligence artificielle. Malgré les critiques qui ont été émises à l'endroit de la LIAD, le projet de loi a l'avantage de préconiser une approche flexible. Certaines notions clés devraient toutefois être prévues dans la loi plutôt que dans un règlement. Par ailleurs, il sera primordial que le gouvernement effectue d'importantes consultations au sujet des règlements qu'il adoptera en vertu de la LIAD.
    Mon premier commentaire porte sur l'anonymisation dans la LPVPC. L'utilisation de renseignements personnels anonymisés est une composante importante du développement des modèles d'intelligence artificielle, et l'exclusion des renseignements anonymisés de la portée de la Loi permettra aux entreprises canadiennes de continuer à innover.
    Toutefois, la définition d'anonymisation devrait être plus flexible et comprendre une norme de raisonnabilité, comme d'autres personnes et groupes l'ont proposé. Cela harmoniserait cette définition avec ce qui est prévu dans d'autres lois nationales et internationales, y compris les récentes modifications à la loi québécoise.
    Par ailleurs, la LPVPC devrait préciser explicitement que les organisations peuvent utiliser des renseignements personnels afin de les anonymiser sans le consentement des individus, comme c'est le cas des renseignements dépersonnalisés.
    Finalement, la LIAD inclut des références aux données anonymisées, mais ce terme n'est pas défini dans la loi. Les deux lois devraient être harmonisées. Par exemple, la LIAD pourrait faire référence à la définition d'« anonymiser » prévue dans la LPVPC.
    Mon deuxième commentaire porte sur la notion des décisions automatisées dans la LPVPC. Comme la plupart des lois modernes sur la protection des renseignements personnels, cette loi proposée prévoit des dispositions sur les décisions automatisées. Les organisations seraient tenues de fournir des explications, à la demande de l'individu concerné, lorsqu'ils utilisent des systèmes décisionnels automatisés pour faire une prédiction, formuler une recommandation ou prendre une décision qui pourrait avoir une incidence importante pour un individu.
    La définition de système décisionnel automatisé s'étend à des systèmes qui permettent d'appuyer ou de remplacer le jugement de décideurs humains. Cette définition devrait être révisée pour ne viser que les systèmes qui n'impliquent aucune intervention humaine. Cel évitera d'imposer un lourd fardeau aux organismes, qui devraient sinon inventorier tous leurs systèmes d'aide à la décision et mettre en place des processus pour expliquer le fonctionnement de ces systèmes, même lorsque la décision définitive est prise par un humain. Ce changement favoriserait aussi l'interopérabilité avec le régime québécois et avec le régime européen, qui est fondé sur le Règlement général sur la protection des données.
    Pour ce qui est de la Loi sur l'intelligence artificielle et les données, la LIAD, mon premier commentaire porte sur les systèmes à incidence élevée. Une définition de ces systèmes devrait être incluse dans la loi. Puisque la plupart des obligations de la loi découlent de cette qualification, il n'est pas approprié que celle-ci soit entièrement définie par règlement. La définition devrait incorporer un facteur contextuel relatif au risque de préjudice causé par le système, par exemple, en considérant si le système présente un risque de préjudice pour la santé et la sécurité des individus ou un risque d'incidence négative sur les droits fondamentaux. Ce facteur pourrait être combiné à des catégories de systèmes susceptibles de constituer des systèmes à incidence élevée qui seraient précisées dans la Loi.
    Toutefois, inclure une liste de catégories de systèmes qu'on considérerait de facto comme étant à incidence élevée, comme l'a proposé le ministre dans sa lettre, risque d'englober un trop grand éventail de systèmes, dont certains pourraient présenter un risque plus modeste.
    Mon dernier commentaire porte sur l'intelligence artificielle à usage général. Dans sa lettre, le ministre a proposé l'adoption de dispositions particulières pour ce type de systèmes, comme les systèmes d'intelligence artificielle générative. Bien que l'intelligence artificielle générative a énormément gagné en popularité au cours de la dernière année, réglementer un type particulier d'intelligence artificielle pourrait rendre la loi obsolète plus rapidement.
(1545)
     Par ailleurs, tous les systèmes d'intelligence artificielle à usage général ne présentent pas le même niveau de risque. Il serait donc plus approprié de réglementer ces systèmes comme des systèmes à incidence élevée lorsqu'ils remplissent les critères associés à cette qualification.
    Je vous remercie beaucoup de votre attention. Je serai heureux de répondre à vos questions.
    Merci beaucoup, monsieur Joli‑Coeur.
    Monsieur Lamb, la parole est à vous.

[Traduction]

    Je vous remercie, monsieur le président, et merci aux membres du Comité, de m'entendre aujourd'hui sur cette importante question qu'est la réforme de la législation sur la protection de la vie privée et le projet de loi C‑27.
    Je suis associé au cabinet Clark Wilson de Vancouver et membre du barreau en Ontario et en Colombie‑Britannique. Je pratique le droit relatif à la protection de la vie privée depuis environ l'an 2000. Je conseille diverses organisations du secteur privé, ainsi que des organismes publics, comme les universités. J'agis aussi comme conseiller juridique au commissaire à l'information et à la protection de la vie privée de la Colombie‑Britannique dans des enquêtes et des contrôles judiciaires.
    Puisque notre temps est limité, je vais m'en tenir à la Loi sur la protection de la vie privée des consommateurs et plus particulièrement, à l'exception en cas d'intérêt légitime, à l'anonymisation, à la dépersonnalisation et au contrôle judiciaire distinct pour cela. J'espère avoir aussi le temps de parler de la Loi sur l'intelligence artificielle et les données, en ce qui concerne les systèmes à incidence élevée.
    Je discuterai bien sûr avec plaisir d'autres aspects du projet de loi C‑27 et je pourrai répondre à vos questions. De plus, après mon exposé, je vous remettrai un mémoire détaillé qui porte sur les enjeux abordés aujourd'hui.
    Concernant tout d'abord la Loi sur la protection de la vie privée des consommateurs et l'exception liée à l'intérêt légitime, il importe de souligner que l'administration probablement la plus citée en exemple en matière de protection de la vie privée, l'Union européenne avec son Règlement général sur la protection des données, confère aux organisations le droit autonome de recueillir, d'utiliser et de communiquer des renseignements personnels si elle est motivée par des intérêts légitimes. En conséquence, si le Canada se dote d'une exception au consentement fondée sur l'intérêt légitime d'une organisation, il importe d'examiner en détail comment l'exception va fonctionner et quelles en seront les conséquences.
    Avant tout, je répète que les dispositions du paragraphe 18(3) proposé constituent une exception aux exigences en matière de consentement et ne confèrent pas de droit autonome à une organisation, comme le Règlement général sur la protection des données.
    Qu'est‑ce que cela signifie? En général, un droit autonome n'est pas interprété par les tribunaux de manière aussi restrictive qu'une exception à une obligation, du point de vue de l'interprétation stricte des lois. Bref, l'exception liée à l'intérêt légitime a fort probablement une portée moindre que les dispositions sur l'intérêt légitime qu'on trouve dans le Règlement général sur la protection des données.
    Un droit autonome pourrait servir à contourner ou de manière générale, à amoindrir la structure de consentement des lois sur la vie privée, qui sont au cœur de nos lois et qui font partie de la culture de protection de la vie privée inculquée au Canada. Ainsi, il est sans doute, en tout et pour tout, préférable de conserver des dispositions prescrivant une exception à la structure de consentement en raison d'un intérêt légitime plutôt que de conférer un droit autonome.
    Par ailleurs, l'exception ne s'applique qu'à la collecte et à l'utilisation de renseignements personnels, et non à la divulgation de ces renseignements à un tiers. De mon point de vue, il est insensé d'interdire l'utilisation de cette exception pour divulguer des renseignements personnels si l'organisation est motivée par des intérêts légitimes. Si je suis en faveur du recours à une exception plutôt qu'à un droit autonome, dans le premier cas, je pense que vous devriez en élargir la portée pour inclure la divulgation, elle aussi.
    Les dispositions du paragraphe 18(3) proposé énoncent expressément que l'intérêt légitime d'une organisation relativement aux renseignements personnels « l'emporte sur tout effet négatif que la collecte ou l'utilisation peut avoir ». Dans les faits, il s'agit d'un haut niveau de protection. L'utilité de cette exception, même si elle se limite à la collecte et à l'utilisation des renseignements, est grande pour les organisations. Par exemple, une entreprise peut être motivée par un intérêt légitime pour recueillir et utiliser des renseignements personnels afin de mesurer et d'améliorer l'utilisation de ses services ou de développer un produit. Toutefois, le paragraphe 18(3) proposé empêche cette entreprise de divulguer ces renseignements à un partenaire d'affaires ou à un fournisseur tiers pour donner effet à son but légitime.
    Enfin, d'autres administrations font appliquer le motif de l'intérêt légitime d'une organisation à la divulgation des renseignements personnels, en plus de leur collecte et de leur utilisation. C'est non seulement ce que prévoit le Règlement général sur la protection des données, mais aussi la loi de Singapour. Vous remarquerez que si l'on compare ces deux instruments, la loi de Singapour contient aussi une exception. Ce pays a aussi toute une jurisprudence qui a évolué.
    Je pense qu'il serait très rassurant pour les membres du Comité d'examiner la jurisprudence à Singapour, ainsi que la jurisprudence récente dans l'application du Règlement général sur la protection des données dans l'Union européenne. On comprend mieux ce que signifie l'intérêt légitime. Je comprends qu'à première vue, cette notion semble plutôt vague et pourrait passer pour une échappatoire béante. Cependant, je ne crois pas que ce soit le cas.
(1550)
    J'aimerais maintenant parler de l'anonymisation et de la dépersonnalisation de renseignements. On cherche à y voir clair dans tout cela depuis un certain temps, et il est rassurant de constater qu'entre le projet de loi C‑11 et le projet de loi C‑27, on a introduit cette idée, le concept de l'anonymisation, qui se distingue de la dépersonnalisation. Cependant, d'un point de vue technologique et pratique, on n'atteindra jamais la norme établie dans la définition de l'anonymisation, alors pourquoi l'inscrire dans la loi en premier lieu? Il y a eu des commentaires à ce sujet, et je suis généralement favorable à la recommandation que vous ajoutiez à cette définition à quoi on peut s'attendre, de manière raisonnable, dans le cas où une personne pourrait être identifiée après le processus de dépersonnalisation. Les données ne sont pas nécessairement anonymisées ensuite, mais elles sont quand même visées par la loi et les exigences relatives à l'utilisation et à la divulgation de ces données.
    Concernant l'utilisation et la divulgation, je souligne également que l'article 21 proposé limite l'utilisation permise à une organisation à des fins internes. L'utilité de cette disposition pourrait être remarquablement limitée, si l'on regarde ce que nos partenaires commerciaux font, parce que dans la recherche et le développement, de nos jours, il y a toute l'idée de la mise en commun des données et des grands partenariats dans l'utilisation de données. Si on limitait cette utilisation strictement à des fins internes, nous pourrions perdre cet outil important dans une économie technologique moderne qui en dépend. Par conséquent, je recommande également de supprimer cet article.
    De plus, l'article 39 proposé limiterait la divulgation de renseignements personnels dépersonnalisés aux organisations du secteur public — c'est très restrictif. Il faudrait envisager de permettre la divulgation aux organisations du secteur privé qui sont vraiment essentielles à notre économie moderne, et qui contribuent à la recherche et au développement.
    En ce qui concerne le contrôle judiciaire, je sais que le commissaire à la protection de la vie privée y est hostile, et je reconnais que le commissaire à la protection de la vie privée joue un rôle inestimable dans les enquêtes et la conformité à nos lois sur la protection de la vie privée. Cependant, compte tenu des sanctions administratives pécuniaires énormes qui pourraient être infligées aux organisations trouvées coupables d'infraction — le montant le plus élevé étant de 3 % de leurs revenus annuels bruts ou de 10 millions de dollars —, il est impératif de prévoir un droit d'appel clair à un tribunal spécialisé et une révision des sanctions pour assurer l'application régulière de la loi ainsi que le respect des normes de justice naturelle et, bien franchement, pour nous doter de lois robustes dans ce domaine.
    Il convient également de souligner que le contrôle judiciaire de la décision du tribunal devrait respecter le seuil établi par la Cour suprême du Canada dans l'affaire Vavilov, qui se limite à un examen de la norme du caractère raisonnable, qui est un examen très respectueux et limité. On vous a déjà conseillé d'essayer d'éviter que ce genre de procédure ne s'éternise indéfiniment. Avec un contrôle judiciaire, ce serait limité. Je sais qu'on vous a recommandé que le contrôle judiciaire passe directement du tribunal à la Cour d'appel fédérale. Je pense que ce serait très bien si vous voulez accélérer les choses et répondre aux préoccupations soulevées. Je pense que ce serait probablement correct, mais j'aime bien la structure d'un tribunal de contrôle distinct.
    Enfin, en ce qui concerne l'intelligence artificielle et les systèmes à incidence élevée, je pense que l'idée de cibler les systèmes à incidence élevée est solide sur le plan de la structure et pourrait bien s'harmoniser, en général, avec ce que font nos partenaires commerciaux de l'UE. Cependant, on ne peut pas se contenter de définir et d'approfondir ce concept dans la réglementation seulement. Ce concept doit faire l'objet de consultations approfondies et d'un examen parlementaire.
    On recommanderait au gouvernement de produire une analyse fonctionnelle d'un système à incidence élevée du point de vue de ses répercussions qualitatives et quantitatives, de l'évaluation des risques, de la transparence et des mesures de protection.
    Il faudrait également faire une distinction entre la recherche et le développement en matière d'intelligence artificielle à des fins de recherche seulement et l'intelligence artificielle déployée dans le domaine public à des fins commerciales ou autres. Je ne voudrais pas que notre loi sur l'intelligence artificielle et les données devienne une sorte de frein à la recherche en intelligence artificielle.
(1555)
    Nous sommes vulnérables et nos alliés sont vulnérables par rapport aux autres acteurs internationaux qui sont à l'avant garde de la recherche en intelligence artificielle. Rien dans notre projet de loi ne devrait nous freiner dans nos élans sur ce front. Cependant, il faut protéger le public des produits de l'intelligence artificielle qui sont déployés dans le domaine public et nous assurer d'être bien protégés. Je pense que c'est la nuance qui manque dans cette discussion, mais il est très important que nous allions de l'avant à ce chapitre.
    Voilà ce que j'avais à dire.
    Merci.
    Merci, monsieur Lamb.

[Français]

     Je donne maintenant la parole à Mme Piovesan.

[Traduction]

    Merci, monsieur le président, mesdames et messieurs, de me donner l'occasion de m'exprimer sur le projet de loi C‑27.
    Je suis l'associée directrice d'INQ Law, où je me concentre sur les lois relatives aux données et à l'intelligence artificielle. Je suis ici à titre personnel, et les points de vue présentés sont les miens.
    Chaque jour, nous entendons de nouvelles histoires sur les promesses et les dangers de l'intelligence artificielle. Les systèmes d'intelligence artificielle sont des programmes informatiques complexes qui traitent de grandes quantités de données, y compris de grandes quantités de renseignements personnels, à des fins de formation et de production. Ces produits peuvent avoir une grande valeur.
    Il est possible que l'intelligence artificielle contribue à guérir des maladies, à améliorer les rendements agricoles ou juste à nous rendre plus productifs, afin que chacun d'entre nous puisse exploiter au mieux ses talents. Cette promesse est bien réelle, mais comme vous l'avez déjà entendu depuis le début de la séance, elle n'est pas sans risque. Aussi complexes que soient ces systèmes, ils ne sont ni parfaits ni neutres. Ils sont conçus à une telle vitesse que ceux qui sont en première ligne du développement sont parmi les voix les plus fortes à réclamer une certaine réglementation.
     Je sais que le Comité a entendu de nombreux témoignages au cours des dernières semaines. Bien que les témoignages que vous avez entendus couvrent sûrement tout l'éventail des opinions, il semble y avoir au moins deux points de convergence.
    Le premier, c'est qu'il faut moderniser la loi fédérale canadienne sur la protection de la vie privée dans le secteur privé pour tenir compte de la demande croissante de renseignements personnels et des changements dans la façon dont ces renseignements sont recueillis et traités à des fins commerciales. Bref, il est temps de moderniser la Loi sur la protection des renseignements personnels et les documents électroniques.
    Le deuxième, c'est que nos lois régissant les données et l'intelligence artificielle devraient viser l'interopérabilité ou l'harmonisation avec les autres grands pays du monde. L'harmonisation aide les Canadiens à comprendre leurs droits et à savoir comment les faire valoir. Elle aide en outre les organisations canadiennes à être plus concurrentielles au sein de l'économie mondiale.
    Le Comité a également entendu des points de vue divergents sur le projet de loi C‑27. Le reste de mon exposé s'articulera autour de cinq points principaux concernant les parties 1 et 3 du projet de loi.
    La partie 1, qui propose la Loi sur la protection de la vie privée des consommateurs, ou LPVPC, propose des changements importants à la gouvernance des renseignements personnels au Canada. Mes observations portent principalement sur l'exception au consentement fondé sur l'intérêt légitime et sur la définition de données anonymisées, dont vous avez déjà beaucoup entendu parler par les témoins qui composent ce groupe.
     Tout d'abord, les nouvelles exceptions au consentement prévues dans le projet de loi sont les bienvenues. Non seulement elles permettent aux organisations d'utiliser des données personnelles pour mener des activités légitimes et bénéfiques, mais elles harmonisent le droit canadien plus étroitement à celui de certains de nos principaux alliés, y compris à l'intérieur même du Canada, notamment à la loi 25 du Québec. Je souligne surtout qu'elles sont raisonnables et mesurées. Je suis d'accord avec les témoignages précédents que vous avez entendus ici, selon lesquels l'exception fondée sur l'intérêt légitime prévue dans cette loi devrait concorder davantage avec les exceptions prévues dans d'autres lois importantes en matière de protection de la vie privée, notamment le Règlement général sur la protection des données en Europe.
    Deuxièmement, les données anonymisées peuvent être essentielles à des fins de recherche, de développement et d'innovation. J'appuie les recommandations présentées à ce comité par le Canadian Anonymization Network sur la rédaction de la définition du terme « anonymiser ». Je suis également d'accord avec les observations de M. Lamb concernant l'intégration des notions existantes de prévisibilité raisonnable ou de risque grave de réidentification.
    En ce qui concerne la partie 3 du projet de loi, la proposition de loi sur l'intelligence artificielle et les données, je dirai premièrement que j'appuie l'approche souple mise de l'avant dans la partie 3. Je remarque toutefois que le projet actuel comporte des lacunes importantes et qu'il sera nécessaire de les combler le plus vite possible. En outre, toute réglementation future devra faire l'objet de consultations approfondies, comme le prévoit le document d'accompagnement de la loi.
    Notre compréhension de la façon de tirer efficacement profit des promesses de l'intelligence artificielle et de prévenir les problèmes associés à son utilisation évolue avec la technologie elle-même. Pour mettre au point une réglementation efficace, il faudra consulter beaucoup de parties, y compris, et c'est important, les gens du domaine de l'intelligence artificielle.
(1600)
     Deuxièmement, le ministre Champagne, dans la lettre qu'il a soumise au Comité, propose de modifier la Loi sur l'intelligence artificielle et les données afin de définir « incidence élevée » selon des catégories de systèmes. L'absence de définition d'« incidence élevée » est l'omission la plus flagrante dans la version actuelle du projet de loi.
    L'utilisation de catégories, comme dans le projet de loi de l'UE sur l'intelligence artificielle, favoriserait une approche fondée sur la gouvernance pour régir l'intelligence artificielle, et je suis d'accord avec cela. Lorsque cette définition sera intégrée au projet de loi, elle devra reprendre les termes de la définition proposée dans le document d'accompagnement et préciser les critères déterminant ce qui constitue une « incidence élevée », selon les catégories établies.
    Enfin, j'appuie les modifications proposées pour harmoniser plus étroitement la Loi sur l'intelligence artificielle et les données aux orientations de l'OCDE sur l'intelligence artificielle responsable. Je parle plus précisément de la définition figurant à l'article 2 proposé de cette loi, qui a également été adoptée par le National Institute of Standards and Technology, aux États-Unis, dans son cadre de gestion des risques liés à l'intelligence artificielle.
    Le Canada devrait s'arrimer autant que possible aux régimes des autres grands pays du monde.
    J'attends avec impatience les questions du Comité, ainsi que les commentaires des autres témoins.
(1605)

[Français]

     Merci beaucoup.

[Traduction]

    Enfin, monsieur Young, à vous la parole.
    Merci de m'avoir invité à comparaître devant le Comité pour cette importante étude du projet de loi C‑27.
    Ce projet de loi propose des amendements significatifs aux lois canadiennes visant la protection de la vie privée de même qu'un régime de surveillance pour l'intelligence artificielle. Il serait d'ailleurs bon que le Comité se penche de façon plus approfondie sur la Loi sur l'intelligence artificielle et les données. Comme les autres témoins vous l'ont indiqué, il y a de nombreux éléments à prendre en compte dans ce contexte. Je vais toutefois me limiter aujourd'hui à vous parler des dispositions touchant la protection de la vie privée.
    Je suis un avocat spécialisé dans le droit à la vie privée et le droit réglementaire. Mon travail des 25 dernières années m'a notamment amené à conseiller des organisations du secteur privé — avec ou sans but lucratif — ainsi que le gouvernement et des sociétés d'État dans tous les domaines pertinents, y compris la protection des renseignements personnels des particuliers et des travailleurs et la protection des données médicales.
    Mes observations préliminaires vont porter sur l'un des éléments marquants du projet de loi, dont certains vous ont déjà parlé, à savoir le traitement des renseignements dépersonnalisés et anonymisés. J'espère pouvoir vous apporter certains éclaircissements à cet égard et vous faire part de mes suggestions quant aux moyens à prendre pour améliorer les dispositions proposées.
    La façon dont on propose de traiter ces données dans le projet de loi C‑27 revêt une importance capitale. Premièrement, on établit une catégorie de renseignements qui, sans être pleinement identifiables et du même coup accessibles pour certains usages précis sans qu'un consentement soit nécessaire, peuvent encore être réputés pouvoir bénéficier de la protection prévue par la loi. Deuxièmement, il permet de créer une catégorie de renseignements anonymisés pouvant être utilisés d'une manière générale à des fins de recherche, d'innovation et d'élaboration des politiques.
    Les données dépersonnalisées de la première catégorie sont assujetties à toutes les mesures législatives de protection de la vie privée, sous réserve de certaines exceptions. En revanche, la loi n'est pas censée s'appliquer aux données anonymisées de la deuxième catégorie. Cependant, comme je m'apprête à vous l'expliquer plus en détail, la question ne s'arrête pas à cette indication voulant que la loi ne s'applique pas. Comme il se doit, il faut que la loi continue de permettre un contrôle des renseignements anonymisés. C'est une facette qui est parfois oubliée, bien que j'aie pu entendre certaines préoccupations à ce sujet en provenance d'autres intervenants. Selon moi, il est primordial de bien comprendre que, sans égard à la définition retenue — et nous avons eu droit à différents commentaires à ce sujet —, la loi continue de s'appliquer.
    J'aurais quelques recommandations à vous soumettre afin d'améliorer le projet de loi.
    Premièrement, il conviendrait de modifier la définition de « dépersonnaliser » en précisant les processus à mettre en place pour s'assurer que les renseignements ne permettent pas d'identifier directement la personne concernée. Il faudrait de plus ajouter le critère du risque de réidentification à l'article 74 proposé de la Loi sur la protection de la vie privée des consommateurs qui traite des mesures de protection techniques et administratives.
    Deuxièmement, on devrait aussi modifier la définition des renseignements anonymisés pour préciser plus explicitement les processus à mettre en œuvre aux fins de l'anonymisation. À ce titre, le Québec a frappé dans le mille avec sa Loi 25. Je recommande donc que l'on s'inspire de l'approche québécoise qui prévoit une réglementation tenant compte des pratiques qui ont fait leurs preuves en matière d'anonymisation. Cette réglementation devrait inclure des mesures visant la transparence, les risques de réidentification, la reddition de comptes et la protection contre les utilisations en aval. La loi québécoise reconnaît en outre qu'il est impossible, dans la pratique, d'affirmer que des renseignements anonymisés ne peuvent pas être réidentifiés. On devrait procéder de la même manière pour la Loi sur la protection de la vie privée des consommateurs. En outre, toute organisation menant le processus d'anonymisation devrait être tenue d'effectuer une analyse des risques de réidentification. C'est l'une des exigences proposées dans la réglementation québécoise au sujet des données anonymisées.
    Troisièmement, il y aurait lieu de clarifier les règles touchant l'application des mesures législatives de protection aux renseignements dépersonnalisés. Si la chose vous intéresse, je pourrai certes vous fournir plus de détails à ce sujet en répondant à vos questions. Dans sa forme actuelle, la Loi sur la protection de la vie privée des consommateurs considère les renseignements dépersonnalisés comme des renseignements personnels, à quelques exceptions près.
(1610)
    Ce n'est pas la bonne façon de procéder. On devrait plutôt, comme l'a recommandé le Bureau du commissaire à la vie privée, simplement déclarer que tous les renseignements personnels dépersonnalisés demeurent des renseignements personnels. En outre, la liste d'exceptions incluse dans le projet de loi prête à confusion. Pour simplifier et clarifier les choses, on pourrait rayer carrément bon nombre de ces exceptions qui ne sont pas nécessaires. Je pourrai vous fournir de plus amples détails à ce sujet si vous le souhaitez.
    Je voudrais traiter en terminant d'une préoccupation soulevée par différents intervenants qui voudraient que l'on précise expressément que le régime d'anonymisation prévu dans la loi sera mis en œuvre sous la surveillance du commissaire à la protection de la vie privée. Je sais qu'il y a au moins un témoin qui vous a fait part de ses recommandations en ce sens. J'estime pour ma part qu'une disposition à cet effet n'est pas nécessaire. Le commissaire devra s'assurer que les organisations respectent les règles applicables à l'anonymisation, quelles qu'elles soient. Qui plus est, ce qui est très important, si des renseignements anonymisés en viennent à devenir identifiables — et c'est le risque de la réidentification —, les dispositions de protection de la loi s'appliqueront avec toute leur vigueur, et ce, sous la surveillance du commissaire. En fait, il y a deux voies possibles via lesquelles le commissaire pourra continuer d'exercer cette surveillance.
    En résumé, voici donc ce que je recommande.
    Premièrement, il faudrait rendre plus rigoureuses les dispositions touchant les renseignements dépersonnalisés en tenant notamment compte des risques de réidentification. Deuxièmement, il faudrait modifier la définition des renseignements anonymisés pour préciser plus explicitement les processus requis pour procéder à l'anonymisation. En outre, le tout devrait être prévu dans la réglementation, en incluant une exigence d'évaluation des risques. Enfin, il faudrait apporter des éclaircissements aux règles d'applicabilité des mesures de protection prévues dans la Loi sur la protection de la vie privée des consommateurs à l'égard des renseignements dépersonnalisés, en stipulant notamment que les renseignements de la sorte demeurent des renseignements personnels.
    Je serais ravi de vous en dire davantage en répondant à toutes vos questions concernant ces observations ou toute autre disposition du projet de loi.
    Merci beaucoup, monsieur Young.
    Nous allons débuter la période de questions avec M. Perkins qui dispose de six minutes.
    Merci beaucoup, monsieur le président.
    Merci à nos témoins pour leurs excellents exposés. L'étude de ce projet de loi est vraiment fascinante jusqu'à maintenant. Une foule de nouvelles approches fort intéressantes ont été mises de l'avant, en plus d'autres dont on a confirmé la validité…
    Ma première question est pour M. Lamb. Si vous avez suivi nos délibérations, vous ne serez pas surpris d'entendre que j'estime que ce projet de loi donne préséance aux intérêts des grandes entreprises au détriment des droits des particuliers quant à la protection de leur vie privée.
    C'est ce que l'on peut d'abord constater à l'article 5 proposé qui, même si on parle maintenant d'un droit fondamental, situe sur le même pied, en gardant la conjonction « et », le droit d'une organisation d'utiliser les données.
    À mon avis, ce droit fondamental est encore davantage dilué par le paragraphe 15(7) proposé qui permet le consentement implicite, un concept qui aurait dû selon moi disparaître en même temps que les dinosaures. Je ne crois pas qu'il existe des situations dans lesquelles le recours au consentement implicite est justifié.
    Il y a ensuite le paragraphe 18(3), auquel vous avez fait référence, qui indique que certaines restrictions s'appliquent. On peut y lire qu'il est possible d'utiliser les renseignements personnels d'un individu « à son insu », et ce, même si cela peut lui être dommageable. Vous devez comprendre que je viens du domaine du marketing et que je ne suis député que depuis deux ans. Je m'efforçais toujours de repousser les limites de ce qu'il est possible de faire avec les données au bénéfice des grandes entreprises pour lesquelles je travaillais. J'en connais pas mal sur la façon d'optimiser l'utilisation des données dans le commerce de détail.
    J'aimerais que vous nous disiez si vous croyez vraiment qu'en plaçant sur le même pied un droit fondamental et la poursuite de certains objectifs, ce projet de loi n'a pas tout de même pour effet de favoriser indûment les grandes entreprises en leur permettant essentiellement de faire exactement ce que les spécialistes du marketing souhaitent faire, c'est‑à‑dire invoquer n'importe quel facteur à titre d'exception pour pouvoir utiliser des renseignements personnels afin d'augmenter les ventes de leurs produits.
(1615)
    Je comprends votre inquiétude, et je sais à quel point il peut être difficile d'interpréter cette loi dans le sens de la protection des consommateurs. Je dirais que c'est un constat que l'on peut faire par rapport à la situation législative actuelle, et que les tribunaux examineront les faits dont ils seront saisis à la lumière de la loi en vigueur, ce qui devrait vous rassurer dans une certaine mesure. S'il se révèle nécessaire de préciser davantage le tout, je serais favorable à ce qu'on le fasse dans le sens de ce que vous faites valoir.
    Pour ce qui est du paragraphe 18(3) proposé, j'ai déjà suggéré que l'on commence à examiner la jurisprudence en provenance de l'Union européenne avec le Règlement général sur la protection des données, ainsi que de Singapour. On aurait ainsi une meilleure idée de la façon dont cela peut se concrétiser.
    Vous pourriez notamment chercher à déterminer comment, si vous vous débarrassez du consentement implicite, vous devrez prévoir une exception très précise concernant l'intérêt légitime et…
    Je comprends, mais j'ai peu de temps à ma disposition. Pourriez-vous transmettre ultérieurement au Comité une partie de cette jurisprudence qui pourrait nous être utile? Ce serait formidable.
    M. Scott Lamb: Certainement, ce sera avec plaisir.
    M. Rick Perkins: À ma connaissance, vous êtes le premier à parler de l'article 21 de la loi proposée, et je dois vous en remercier.
    C'est une autre disposition qui prévoit qu'une organisation pourra utiliser à des fins de recherche interne les renseignements personnels de quelqu'un à son insu ou sans son consentement.
    Du côté positif, j'utilise sans cesse des données à des fins de recherche interne, et il est précisé que les renseignements en question doivent être dépersonnalisés avant leur utilisation. Il m'arrivait souvent de consulter les données personnelles des clients inscrits à des programmes de fidélisation ou de primes comme Air Miles, ce qui me donnait accès à un large éventail de renseignements.
    Est‑ce que les dispositions prévues ici empêcheraient une entreprise — de vente au détail, par exemple — d'analyser les données recueillies dans le cadre de ces programmes de fidélisation ou de primes, y compris celui qu'elle offre à l'interne?
    On pourrait effectivement l'interpréter de cette manière, ce qui est une autre raison selon moi pour supprimer cette disposition.
    Merci.
    Je crois que Mme Piovesan et M. Joli-Coeur ont tous les deux parlé des systèmes à incidence élevée. C'est également quelque chose qui me pose des difficultés, et je sais que nous en traiterons sans doute plus à fond dans le cadre de notre étude de la Loi sur l'intelligence artificielle et les données.
    Je me demande en fait ce qu'on entend exactement par système à incidence élevée. Pourriez-vous me dire, madame Piovesan, si la loi s'appliquera uniquement à ces systèmes à incidence élevée et non à ceux ayant un autre degré d'incidence, et quels sont ces autres degrés d'incidence?
    Pour ce qui est des systèmes à incidence élevée, si vous considérez les différentes lois adoptées dans le monde en matière d'intelligence artificielle, vous constaterez qu'elles s'appliquent aux systèmes susceptibles d'entraîner un risque considérable de préjudice.
    De nombreux systèmes que nous utilisons au quotidien, comme nos dispositifs de géolocalisation, ne risquent guère de causer des torts à un individu, et ne devraient donc pas faire l'objet de la forme de surveillance prévue dans la Loi sur l'intelligence artificielle et les données.
    Le constat d'incidence élevée est important du fait qu'il établit le seuil à partir duquel des mesures de gouvernance sont requises, comme le prévoit la loi.
    Qu'entend‑on exactement par risque élevé dans ce contexte?
    Cette notion est définie aussi bien par l'Union européenne qui parle de la criticité des risques que dans la lettre du ministre Champagne où il est question de facteurs préjudiciables ou biaisés — sans justification ni fondement juridique — susceptibles de causer des torts importants à un individu ou à un bien. Pour ce qui est des amendements proposés, on retrouve différentes catégories de systèmes ou d'utilisations possibles.
    Je veux qu'une chose soit bien claire. Il n'est pas question ici d'un système à incidence élevée, mais plutôt d'un système utilisé dans un contexte à incidence élevée.
    Voilà une distinction intéressante.
    Monsieur Joli-Coeur, vous avez la parole.
    J'abonde essentiellement dans le sens de Mme Piovesan.
    D'accord.
    Monsieur Young, j'ai une brève question pour vous. Je crois vous avoir entendu affirmer que certaines portions de l'article 15 sur le consentement pourraient ou devraient être supprimées. Est‑ce bien ce que vous avez dit?
(1620)
    Non. Cela porte vraiment à confusion. Je ne me souviens pas quel article du projet de loi indique essentiellement que les renseignements dépersonnalisés ne sont pas des renseignements personnels, sauf dans certains cas énoncés, après quoi on en énumère une bonne vingtaine. C'est ce à quoi je fais référence.
    Dans le contexte de la dépersonnalisation…
    Tout à fait. Dans la moitié des cas, on parle de renseignements dépersonnalisés. Il n'est donc pas nécessaire de préciser qu'il ne s'agit pas de renseignements personnels. C'est écrit noir sur blanc. C'est vraiment de cela qu'il est question ici.
    D'accord. J'aurais une dernière question, si possible.
    Je vais me montrer généreux, monsieur Perkins, en vous laissant poser une dernière question.
    Monsieur Young, vous avez aussi fait valoir que tous les renseignements dépersonnalisés doivent demeurer des renseignements personnels. Pourriez-vous nous expliquer pourquoi cela est si important et pourquoi la loi ne le précise pas?
    C'est essentiellement ce que je cherchais à faire valoir précédemment. Cela nous ramène au projet de loi C‑11 qui tentait de jouer sur deux tableaux. On y définissait le concept de « renseignements dépersonnalisés » en l'excluant implicitement de l'application de la loi du fait qu'il ne s'agit pas de renseignements personnels vu qu'ils ne permettent vraisemblablement pas d'identifier un individu. Il n'en demeure pas moins que l'on retrouvait ailleurs dans la loi plusieurs dispositions, dont un certain nombre demeurent, établissant les règles bel et bien applicables aux renseignements dépersonnalisés. C'était insensé.
    Je suis désolé, mais j'ai perdu le fil de ma pensée. Pourriez-vous me rappeler votre question?
    Elle portait sur les renseignements dépersonnalisés que l'on doit continuer de considérer comme des renseignements personnels.
    Ce sont effectivement des renseignements personnels. C'est ce qu'il faut retenir. Il y a en fait trois niveaux d'information: les renseignements personnels, les renseignements dépersonnalisés et les renseignements anonymisés. Il y a donc différents degrés d'identifiabilité, si je puis m'exprimer ainsi.
    Les renseignements personnels permettent d'identifier à tout coup la personne concernée. Conformément au Règlement général sur la protection des données et à la loi québécoise, les renseignements dépersonnalisés ne renferment aucune indication permettant d'identifier directement un individu, mais il y a un risque de réidentification avec les conséquences qui s'ensuivent pour les personnes touchées. La loi stipule qu'il s'agit tout de même de renseignements personnels.
    On prévoit toutefois certaines exceptions qui dérogent totalement de la vision de la loi. Selon le libellé actuel, cela demeure des renseignements personnels. Il n'est pas nécessaire de le spécifier. On peut simplement parler de renseignements dépersonnalisés.
    Il s'agit par conséquent de renseignements personnels qui sont bel et bien régis par la loi.
    En théorie, les renseignements anonymisés échappent complètement à l'application de la loi, mais, comme je l'indiquais, il ne devient pas impossible d'agir pour autant. Il y a encore des règles qui s'appliquent à de tels renseignements.
    Merci beaucoup.

[Français]

     Merci beaucoup.
    Monsieur Turnbull, vous avez maintenant la parole.

[Traduction]

    Nous avons vraiment droit aujourd'hui à d'excellents témoignages. Merci beaucoup. Je trouve ces échanges fort intéressants, et j'ai écouté vos observations préliminaires avec beaucoup d'intérêt. Merci à tous d'être des nôtres aujourd'hui.
    Monsieur Lamb, j'aimerais revenir à une question que M. Perkins vous a posée. Je sais que mon collègue essayait de bien gérer son temps, mais vous n'avez pas pu terminer ce que vous aviez à dire. J'aimerais donc revenir un instant à votre point de vue sur le consentement implicite.
    Sans vouloir vous prêter des propos, je crois que vous aviez commencé à dire qu'en l'absence d'un consentement implicite, il faudrait peut-être adopter des dispositions plus précises concernant l'intérêt légitime.
    Peut-être pourriez-vous simplement terminer votre réponse pour tirer tout cela au clair.
    Je pense qu'il faudrait alors s'inspirer du Règlement général sur la protection des données qui prévoit un droit autonome à cet égard. En l'absence du consentement implicite, il faut établir un droit autonome permettant de concrétiser ce concept d'intérêt légitime.
    Pourrais‑je poursuivre dans le même sens en vous demandant si vous ne convenez pas que le projet de loi à l'étude devrait traiter du consentement implicite?
    Je ne vois pas de problème avec la structure retenue qui établit l'intérêt légitime à titre d'exception. Je pense qu'il y a un équilibre à trouver. Si on s'affranchit du consentement implicite, je crois que l'on se dirige forcément vers un droit autonome.
(1625)
    Madame Piovesan, j'ai également pris bonne note de vos commentaires concernant les nouvelles exceptions au consentement. J'ai cru comprendre que vous étiez tout à fait favorable à cette approche. Vous avez indiqué que vous jugiez raisonnable l'utilisation à des fins légitimes et bénéfiques. Je crois que vous avez souligné que l'on avait procédé en la matière de façon plutôt mesurée, et j'aimerais que vous nous expliquiez un peu mieux ce que vous vouliez dire par là.
    Des mesures de protection ont été mises en place pour le recours à cette exception. Il y a un critère à remplir selon l'exception dont on souhaite se prévaloir. Le projet de loi prévoit différents mécanismes de protection, comme l'analyse de l'intérêt légitime. Tout cela s'ajoute à l'exigence de procéder à une évaluation des facteurs relatifs à la vie privée ou à un exercice du même ordre.
    Il y a une analyse que l'on doit mener. En outre, il faut satisfaire d'emblée au critère du caractère raisonnable. Est‑ce que l'individu concerné peut raisonnablement s'attendre à ce que l'on recueille ou utilise ses renseignements personnels?
    Il est possible que le dossier doive être transmis au commissaire à la protection de la vie privée s'il persiste des interrogations.
    Tout cela pour vous dire que des mesures de protection adéquates sont en place pour éviter les cas flagrants de recours inapproprié à cette exception relative au consentement.
    Monsieur Young, je vous ai vu hocher la tête. Partagez-vous cet avis?
    Je suis tout à fait d'accord, en effet.
    C'est bien.
    Madame Piovesan, vous avez également abordé la partie du projet de loi ayant trait à la Loi sur l’intelligence artificielle et les données, ou LIAD. Je sais que nous nous sommes concentrés sur la protection de la vie privée et la modernisation de la Loi sur la protection des renseignements personnels et les documents électroniques, ou LPRPDE, mais j'aimerais vous poser une question à ce sujet, puisque vous êtes ici aujourd'hui.
    Je pense que ce que vous disiez dans votre déclaration liminaire, c'est que les hauts rendements ou les avantages élevés de ces systèmes d'IA s'accompagnent aussi de risques. Je comprends donc très bien que le risque et le rendement vont souvent main dans la main.
    Pouvez-vous nous parler de l'approche fondée sur les risques et la décrire un peu plus? Vous avez mentionné dans votre déclaration liminaire à quel point c'est important pour la gouvernance de l'IA.
    Pouvez-vous nous en dire un peu plus à ce sujet, afin que l'information figure au compte rendu?
    Voilà qui cadre avec ce que je disais plus tôt. Prenons des administrations comme les États-Unis et l'Union européenne. L'UE est sur le point d'adopter une loi robuste sur l'intelligence artificielle, nous dit‑on.
    Prenons le contexte canadien. Le cadre de gouvernance s'applique en présence d'un scénario à risque élevé, de sorte que tous les systèmes d'IA ne seront pas assujettis au même type de surveillance et de rigueur qu'un système à risque élevé. Nous avons ainsi un peu plus de marge de manoeuvre dans la façon de gérer les utilisations qui présentent un risque élevé. On privilégie ainsi une démarche réfléchie à l'égard des objectifs visés par ces systèmes.
    Voilà qui me semble tout à fait logique. Autrement, on pourrait réglementer à outrance et ne pas tirer profit de certains de ces systèmes. Je pense que c'est un risque réel dans le cadre du projet de loi, n'est‑ce pas?
    Je suis d'accord avec vous.
    Pour revenir à ce que vous disiez au sujet de la loi et du travail de l'Union européenne, qui semblent être le modèle d'excellence auquel les gens font constamment référence, comment les dispositions de notre LIAD concordent-elles avec les lois sur l'intelligence artificielle de l'UE?
    Essentiellement, nos dispositions sont similaires étant donné qu'elles privilégient une approche fondée sur les risques pour encadrer l'intelligence artificielle. Notre projet de loi est réduit à sa plus simple expression comparativement à ce que vous voyez dans le contexte de l'UE. La loi sur l'intelligence artificielle, ou IA, de l'UE est beaucoup plus contraignante que notre LIAD. Il y a des différences claires entre la vision de notre projet de loi et leurs dispositions.
    Au fond, il s'agit d'une approche fondée sur les risques qui vise à régir les entrées de données, les modèles eux-mêmes et les résultats de ces modèles tout au long du cycle de vie du système d'IA. Essentiellement, cela correspond à ce qui se fait non seulement dans l'Union européenne, mais aussi aux États-Unis.
    Je crains que la LIAD ne soit dépassée d'ici à ce qu'elle soit finalisée, simplement à cause de la vitesse à laquelle évolue le domaine de l'intelligence artificielle générative. Vous avez également parlé, dans votre déclaration liminaire, de la quantité de données qui sont traitées, de la complexité de ces systèmes, et de la rapidité à laquelle ils évoluent.
    Est‑ce que le contexte nécessite une approche vraiment souple? Pour ma part, je pense que notre approche a commencé par un contenant, après quoi le ministre nous a appris que des amendements s'en venaient. Est‑ce la bonne façon de faire, selon vous, compte tenu de la vitesse à laquelle le domaine évolue?
    Si vous regardez l'ébauche de la LIAD, vous constaterez qu'il s'agit surtout d'un cadre de responsabilisation. Il s'agit d'une série d'évaluations assorties d'obligations de rendre des comptes qui se recoupent lorsque le seuil de répercussions importantes est atteint.
    Je suis d'accord pour dire qu'une méthode souple est utile dans un contexte où les choses évoluent très vite. Je suis donc favorable à cette souplesse, sans oublier, comme je l'ai dit en ouverture, qu'il y a des lacunes particulières dans cette ébauche.
(1630)
    Je vous remercie, monsieur le président. Je pense que j'ai terminé.

[Français]

     Merci, monsieur Turnbull.
    Je donne maintenant la parole à M. Lemire.
    Merci, monsieur le président.
    Ma question s'adresse à M. Lamb, mais les autres témoins peuvent ajouter à sa réponse, s'ils le souhaitent.
    À Trois‑Rivières, il y a quelques semaines, le Bloc québécois a tenu un colloque sur l'intelligence artificielle, et plusieurs personnes y ont dit craindre que la Loi sur l'intelligence artificielle et les données, la LIAD, ne protège suffisamment le droit d'auteur des créateurs. Cette question est d'importance primordiale, notamment au Québec, où la préservation culturelle et linguistique est d'actualité devant la menace de l'assimilation ou du déclin de la langue française.
    Selon vous, monsieur Lamb, quelles modifications précises pourrait-on apporter à la LIAD pour renforcer la protection du droit d'auteur des créateurs, particulièrement dans un contexte où la préservation culturelle et linguistique est une priorité?

[Traduction]

    Je crois qu'il y a une chose dont nous avons beaucoup discuté et qui est importante, à savoir les préjugés. Le projet de loi et la discussion ont porté sur les questions de préjugés visant à protéger la culture. À cet égard, les préjugés contenus dans le projet de loi ne devraient pas nuire à un groupe, un secteur ou une communauté de notre société. Bien sûr, les droits linguistiques des francophones sont très importants et devraient être compris et préservés.

[Français]

     Dans quelle mesure une protection insuffisante du droit d'auteur pourrait-elle nuire à la créativité culturelle et linguistique, particulièrement dans le contexte du Québec? Quelles mesures pourraient être prises en vue d'atténuer ces effets potentiels?

[Traduction]

    Parlez-vous de la législation en matière de protection de la vie privée ou d'intelligence artificielle?

[Français]

     Dans les deux cas, cela m'intéresse. Cela pourrait être pertinent, particulièrement pour ce qui est de l'intelligence artificielle, mais aussi pour ce qui est de la protection des données.

[Traduction]

    Je n'ai malheureusement pas entendu l'interprétation.
    La question s'inscrit plus particulièrement dans le contexte de la législation sur l'intelligence artificielle, mais il peut s'agir de n'importe quel contexte.
    Encore une fois, je pense que les problèmes se rapportent aux préjugés. C'est ce qui devrait vous préoccuper pour veiller à ce que les droits linguistiques des francophones soient protégés, et à ce que l'IA n'influence d'aucune façon l'utilisation du français comme langue commune au pays.

[Français]

    Comment la Loi sur l’intelligence artificielle et les données pourrait-elle s'inspirer des meilleures pratiques internationales pour renforcer la protection du droit d'auteur, tout en encourageant l'innovation dans le domaine de l'intelligence artificielle?

[Traduction]

    Comme vous l'avez vu dans mon exposé, l'innovation ainsi que la recherche et le développement sont fondamentaux. Nous devons être très prudents dans les prochaines étapes de ce projet de loi.
    Tout à l'heure, je voulais faire une distinction très claire entre la recherche et le développement et l'intelligence artificielle qui relèvent du domaine public ou de la société de consommation. Même si je suis d'accord avec mon collègue pour dire que les avantages qu'en retire la population sont énormes, nous devons aussi faire très attention de ne pas exclure la recherche de pointe sur l'intelligence artificielle si nous en limitons, en gérons et en réglementons le déploiement public.
    Encore une fois, je tiens à souligner que nous vivons parfois dans un monde désagréable. Les enjeux sont extraordinairement importants pour déterminer qui prendra les commandes de l’intelligence artificielle. Nous ne devrions rien faire qui y mette un frein, et nous devrions nous assurer que notre pays et nos alliés sont en première ligne de la recherche et du développement.
    Nous devons protéger notre population contre les effets pernicieux de l'intelligence artificielle.
    Vous avez soulevé des enjeux entourant les droits linguistiques et les préjugés. Il est très important d'avoir cette discussion pour protéger notre population et nos valeurs démocratiques, et aussi pour veiller à ce que la question fondamentale de la protection de la vie privée soit préservée dans notre pays.

[Français]

    Je vous remercie.
    Madame Piovesan, voulez-vous ajouter quelque chose?
(1635)

[Traduction]

    J'ai deux choses à dire en réponse à votre question.
    Tout d'abord, l’intelligence artificielle générative est la forme d'IA que nous voyons aujourd’hui avec ChatGPT et d’autres outils. On dit habituellement qu'il s'agit d'une IA à usage général. Dans sa lettre, le ministre propose un amendement pour que cette forme soit considérée comme un système à incidence élevée, de sorte qu'elle relèverait de la structure de gouvernance de la LIAD. Voilà qui protégerait sans doute les droits des auteurs et des créateurs de contenu, parce que l'utilisation de ces systèmes devrait être régie.
    Mon confrère, M. Joli-Coeur, a mis en doute le fait que ces systèmes devraient, en fait, être régis séparément. Je comprends son point de vue. Nous voyons des mesures qui pourraient être mises en place pour atténuer certains des risques grandissants — la provenance du contenu et la capacité de retracer la forme originale du tatouage numérique, afin que nous puissions savoir s'il a déjà été manipulé ou modifié d'une façon qui pourrait poser problème à un auteur ou un créateur de contenu lorsqu'il met ses systèmes en ligne.
    De plus, dans le cadre d'un processus entièrement distinct, nous procédons à un examen de la Loi sur le droit d'auteur, de sorte que ces conversations sont très pertinentes au Canada et dans d'autres administrations également.

[Français]

    Monsieur Jarvie, il ne me reste que quelques secondes. Je vous les laisse.

[Traduction]

    Je veux simplement ajouter que c'est l'une des raisons pour lesquelles je pense que la LIAD devrait tenir compte des préoccupations des groupes et des torts qui pourraient leur être causés. C'est un excellent exemple.

[Français]

    Tout à fait.
    Monsieur Young, je vous vois hocher la tête. Voulez-vous ajouter quelque chose?
    Non, pas vraiment.

[Traduction]

    J'aimerais simplement faire une observation générale. Mon expertise ne se limite pas à la LIAD. Je l'ai lue, et je connais la loi européenne. Les gens ont mentionné que le projet de loi comporte des lacunes et qu'il ressemble à une partie de la législation européenne — une partie. Il prévoit le cadre, mais ce qu'il manque... Je suis désolé, mais je n'ai pas pris connaissance de la lettre du ministre à ce sujet. La législation européenne définit les niveaux de risque, jusqu'à l'absence de risque, n'est‑ce pas? Elle prévoit environ quatre niveaux. Pourquoi n'avons-nous pas une échelle semblable? C'est logique.
    C'est comme si nous tentions de mettre en place un mécanisme avec une main attachée dans le dos. Si je disais... et je n'ai pas d'opinion sur ce qu'il faut faire. Je pense que le Comité et le Parlement ne savent pas trop que faire de la LIAD. Cela ne fait aucun doute. Ce qui me frappe, c'est ceci: pourquoi n'en sommes-nous pas là? En fait, si vous avez lu la loi de l'Union européenne, qui n'est pas en vigueur... Le processus est toujours en cours. Il y a encore beaucoup de pain sur la planche pour que les dispositions aient force de loi, mais le texte existe. C'est la loi. Vous l'avez lue et avez vu ces niveaux, les réponses et les niveaux de surveillance et d'attention. Voilà ce que nous devrions faire.

[Français]

     Merci beaucoup.
    Je dois dire que, en tant que législateur, j'apprécie particulièrement la discussion d'aujourd'hui.
    Je vous remercie.
    Monsieur Masse, vous avez la parole.

[Traduction]

    Je vous remercie, monsieur le président.
     Je crois que c'est M. Young qui a mentionné le projet de loi C‑27 et la loi 25 du Québec. Pouvez-vous nous expliquer un peu plus en détail pourquoi il est important que ce soit uniforme?
     Par ailleurs, pourrions-nous, par inadvertance, causer du tort au Québec relativement au projet de loi si nous ne traitons pas cette question comme il se doit? Je suis inquiet. Nous avons au moins pour objectif de n'avoir aucune incidence sur le Québec, mais je crains aussi de causer par inadvertance des dommages au régime actuel de la province.
    Je vous prie de lancer cette conversation.
    C'est d'accord. Ce qui peut causer du tort est la confusion pouvant en découler si nous n'harmonisons pas les législations — il y aurait surtout une confusion pour les Québécois si nous nous retrouvons avec des normes différentes. Cela s'applique en fait à d'autres catégories de renseignements dépersonnalisés. Les données anonymisées sont l'objectif principal. Il est donc logique d'harmoniser les normes dans tout le pays.
     Il y a deux éléments. En fait, je suppose que je peux les désigner ainsi.
    Les données sont recueillies essentiellement par des organisations nationales et pancanadiennes qui les mélangent. Allons-nous créer des règles qui, d'une manière ou d'une autre, vont permettre à ces organisations transnationales d'isoler les données du Québec? Cela n'arrivera pas. Les données seront mélangées. Il est vrai que des systèmes pourraient y arriver au moyen de règles, mais ce n'est pas logique. Je vais reformuler. Les organisations ne voudront pas avoir à créer une catégorie distincte de données pour le Québec, différente de celles du reste du pays. Il n'est pas exceptionnel que les mêmes règles s'appliquent. Je parle des données anonymisées.
     Par ailleurs, j'ai passé une grande partie de ma carrière à conseiller des spécialistes du marketing. Je sais qu'ils n'aiment pas dire que leurs règles les plus strictes ne s'appliquent qu'aux résidents du Québec. Comment serait‑ce possible? Cela n'arrivera pas. Ces entreprises affirmeront qu'elles appliquent les normes les plus strictes.
    Troisièmement, je pense en fait que la loi 25 va influencer les normes de protection de la vie privée dans tout le pays, et qu'elle influence votre comité et ce que nous faisons ici. Il est à espérer que...
(1640)
    En fin de compte, vous dites que sans une telle harmonisation, il y aura deux éléments préjudiciables majeurs. L'un portera sur la vie privée des individus et sur ce qu'ils doivent subir, et l'autre sur les conséquences économiques du fait que les entreprises ne voudront pas faire des affaires, s'installer ou fournir des produits et des services au Québec. Est‑ce essentiellement ce que...
    En fait, je n'y crois pas. Je l'ai entendu lors d'une conférence aujourd'hui: si nous n'adoptons pas des règles adéquates, personne ne viendra au Canada. En réalité, ce n'est pas ce qui va se passer. Les spécialistes du marketing le savent.
     Oui, je le sais. J'essayais juste de clarifier les choses.
    Non, je reformulerais l'affirmation, monsieur Masse. Un manque d'harmonisation aura un effet sur les entreprises, parce qu'il sera notamment plus coûteux et plus complexe de mettre en place des mécanismes de conformité. C'est l'incidence la plus importante sur la collecte de données par les organisations qu'aura le manque d'harmonisation des normes.
    Je vais vous laisser terminer, parce que j'aimerais que d'autres témoins en parlent aussi, s'ils le souhaitent.
    J'aimerais connaître votre opinion sur l'indépendance d'un commissaire à l'intelligence artificielle, un peu comme un haut fonctionnaire du Parlement.
    Qu'en pensez-vous? J'aimerais entendre les commentaires des autres témoins. Il y aurait un commissaire à l'intelligence artificielle à titre d'organisme de réglementation indépendant, semblable au vérificateur général, à l'abri de l'influence politique du ministre qui prend des décisions.
    Qu'en pensez-vous? Avez-vous une opinion à ce sujet? Je vais également céder la parole aux autres invités qui sont à la table.
    Me posez-vous la question? D'accord.
    Oui, le commissaire devrait absolument être indépendant, et nommé par le Parlement.
    Est‑ce que quelqu'un d'autre aimerait intervenir à ce sujet?
    Je peux le faire sans problème. Cet élément faisait partie de ma déclaration liminaire.
    En fait, il est impératif que le commissaire à l'intelligence artificielle et aux données soit indépendant du ministère. Un agent parlementaire semble être un bon mécanisme, pourvu qu'il soit indépendant, d'une certaine façon. Il y aura ainsi quelqu'un de l'extérieur du ministère qui s'occupe de tous ces règlements et qui demande des comptes.
    Préféreriez-vous que ce soit précisé dans la loi, ou que ce soit distinct? Ce serait encore plus difficile en ce moment. Pensez-vous que ce soit possible dans le cadre de la loi actuelle?
    Je vais également demander un avis juridique à ce sujet. Je suis à peu près certain que c'est possible, d'après ce que je comprends, mais je veux m'en assurer. Le commissaire à la protection de la vie privée et le Bureau de la concurrence sont un peu différents, mais c'est peut-être davantage attribuable aux données elles-mêmes.
    Je ne veux pas trop insister sur le mécanisme qui fonctionnerait ou non, pour ce qui est de l'enchâsser dans la loi. Je pense que ce serait possible, mais prenez ma réponse avec un grain de sel, car il faudrait que je fasse ma propre analyse juridique là‑dessus.
    C'est très bien.
    J'aimerais aussi savoir si quelqu'un a une opinion bien arrêtée sur le tribunal de l'éthique. J'aimerais savoir ce que vous en pensez, et si un témoin a une opinion sur le sujet.
    Monsieur Masse, je pense que l'éthique vous préoccupe, parce qu'il s'agit du Tribunal de la protection des renseignements personnels.
    C'est vrai. Je vous remercie. Après mon dernier passage au comité de l'éthique, je constate qu'il faut beaucoup de temps pour passer à autre chose. J'ignore si quelqu'un a regardé la séance. En effet, il s'agit du Tribunal de la protection des renseignements personnels.
    Je tiens à remercier le président de son aide. Je ne sais pas combien de temps il me reste — probablement environ une minute —, mais si quelqu'un veut intervenir à ce sujet, ce serait formidable. Sinon, nous pouvons poursuivre.
(1645)
    J'aimerais simplement répéter ce que j'ai dit au début, à savoir que je suis en faveur d'un tribunal distinct. Malgré les réticences du commissaire à la protection de la vie privée, je pense que ce serait une tribune utile pour protéger l'élaboration de la loi dans ce domaine.
    C'est très bien.
    Merci, monsieur le président.

[Français]

     Merci, monsieur Masse.

[Traduction]

    Monsieur Vis, vous avez la parole.
    Je tiens à remercier la présidence, ainsi que tous les témoins de leurs excellents témoignages et commentaires aujourd'hui.
    Monsieur Lamb, j'ai une petite précision à vous demander. Je crois que vous avez dit dans votre déclaration liminaire qu'en vertu du paragraphe 18(1) proposé dans le projet de loi, une organisation ne pourrait pas transférer ces données à une autre organisation.
    Est‑ce exact?
    C'est juste.
    Au cours des réunions précédentes, nous avons entendu dire qu'il y a certaines failles dans le projet de loi en ce qui concerne la portabilité des données, notamment en ce qui a trait au transfert des données à l'étranger.
    J'ai du mal à comprendre cette interprétation de la loi dans le contexte de l'article 20 proposé, qui porte sur les « renseignements dépersonnalisés », et de l'article 19 proposé, sur le « transfert à des fournisseurs de services », qui dit que l’organisation peut transférer à des fournisseurs de services les renseignements personnels d’un individu à son insu ou sans son consentement.
    Est‑ce que je saisis mal le projet de loi? Que comprenez-vous de ce que je viens de dire?
     Je pense que votre préoccupation est fondée, et le libellé m'inquiète aussi, en particulier dans le paragraphe 18(3) proposé.
    M. Perkins a déjà soulevé cette question. Je pense que vous devriez supprimer le mot « internes » du paragraphe 21 proposé, car la capacité de regrouper m'inquiète.
    Je vous remercie.
    Dans certains de vos commentaires, vous avez également évoqué le RGPD ou le Règlement général sur la protection des données. Ma question est liée à un débat qui commence à s'élever — nous n'avons pas abordé ce sujet de manière approfondie — entre la notion de protection de la vie privée dès la conception et… Contrairement au RGPD de l'Union européenne, la Loi sur la protection de la vie privée des consommateurs ne contient pas de référence explicite à la notion de protection de la vie privée dès la conception.
    Dans son mémoire sur le projet de loi C‑27, le Commissariat à la protection de la vie privée du Canada recommande que la Loi sur la protection de la vie privée des consommateurs exige des organismes qu'ils mettent en œuvre des mesures de protection de la vie privée dès la conception d'un produit, d'un service ou d'une initiative, et ce, dès les premières étapes de son développement.
    Cependant, lors de leur comparution devant le Comité, les représentants du gouvernement ont indiqué que plusieurs éléments de la Loi sur la protection de la vie privée des consommateurs, comme le fait qu'elle exige que les organismes élaborent un programme de gestion de la protection des renseignements personnels, signifient que la notion de protection de la vie privée dès la conception est déjà intégrée dans le projet de loi.
    Devons-nous adopter une mesure semblable au Règlement général sur la protection des données, où cette notion est expressément énoncée, ou l'approche actuelle visant la mise sur pied d'un programme de gestion de la protection des renseignements personnels, telle qu'elle est indiquée dans l'article 9 proposé, sera‑t‑elle suffisante?
    Je pense que le programme de gestion de la protection des renseignements personnels traite effectivement de la protection de la vie privée dès la conception. Il oblige les organismes à élaborer des politiques à cet égard et à prendre en compte l'incidence sur la vie privée. Je pense que, dans l'ensemble, cela permet d'obtenir le résultat souhaité.
    S'il n'y avait pas un tel programme de gestion de la protection des renseignements personnels, je pense qu'il faudrait adopter une approche comme la protection de la vie privée dès la conception pour s'assurer de créer, au sein de tous les organismes, une culture qui reconnaît les impacts sur la vie privée des personnes.
    Je vous remercie.
    Madame Piovesan, je crois savoir que vous avez joué un rôle actif dans certaines consultations menées au sujet de ce projet de loi avant son dépôt.
    Lors de réunions précédentes, j'ai beaucoup insisté sur les droits des enfants dans ce projet de loi. Pourquoi le droit fondamental à la vie privée des enfants n'a‑t‑il pas été inclus dans le projet de loi dès le départ?
    Ma deuxième question porte sur le fait qu'en vertu du projet de loi actuel, les renseignements relatifs aux enfants sont considérés comme étant de nature sensible, mais le projet de loi ne définit pas ce que sont des renseignements de nature sensible.
    Les renseignements de nature sensible relatifs aux enfants peuvent-ils être dépersonnalisés ou anonymisés en vertu de ce projet de loi ou si les renseignements sont de nature sensible, ne peuvent-ils jamais être utilisés?
(1650)
    Je ne connais pas la réponse à la première question. En effet, je ne sais pas pourquoi cette notion n'a pas été incluse dans le projet de loi initial, et je n'ai donc pas de réponse à cette question. Cela ne faisait pas partie des consultations auxquelles j'ai participé.
    En ce qui concerne la deuxième question, les renseignements de nature sensible ont toujours été — et sont toujours — déterminés par une analyse contextuelle de facteurs tels que les renseignements sur la santé, les renseignements financiers et la mesure dans laquelle certains éléments de ces renseignements doivent être protégés.
    Qu'en est‑il des données biométriques?
    Les données biométriques seraient également des renseignements de nature sensible. D'une manière générale, dans le contexte d'une analyse contextuelle, je les inclurais habituellement dans cette catégorie.
    La Loi 25 du Québec, fournit une définition des renseignements de nature sensible qui, à mon avis, peut être très informative. Donc, pour répondre au point soulevé par mon collègue, je pense que c'est important.
    Selon vous, devrions-nous adopter une définition de renseignements de nature sensible semblable à celle de la loi québécoise et l'inclure dans le projet de loi C‑27?
    J'appuierais une telle démarche.
    Je vous remercie.
    Je vous remercie, monsieur Vis.
    La parole est à M. Van Bynen.
    Je vous remercie, monsieur le président.
    Ma première question s'adresse à Mme Piovesan.
    Nous avons parlé des renseignements dépersonnalisés, mais l'article 39 proposé de la Loi sur la protection de la vie privée des consommateurs prévoit qu'un organisme a le droit de communiquer les renseignements personnels dépersonnalisés d'une personne à son insu et sans son consentement aux entités énumérées à l'alinéa 39(1)b) si la communication est faite à des fins socialement bénéfiques.
    À votre avis, la définition de fins socialement bénéfiques est-elle suffisamment précise pour assurer la protection de la vie privée des Canadiens?
    Je tiens d'abord à préciser que je pense qu'il peut être très utile de pouvoir utiliser des données pour le bien commun. Cette disposition est donc importante et j'appuie son inclusion.
    La définition donnée s'entend de « toute fin relative à la santé, à la fourniture ou à l’amélioration des services et infrastructures publics, à la protection de l’environnement ou de toute autre fin réglementaire ». Dans la mesure où elle n'est pas suffisante, il sera possible d'inclure une définition plus précise plus tard dans le processus.
    Cependant, pour une première mention, je suis satisfaite du libellé actuel.
    D'accord.
    Monsieur Joli-Coeur, qu'en pensez-vous?
    Je suis d'accord sur le fait qu'il devrait être possible d'utiliser des données dépersonnalisées à des fins socialement bénéfiques. Je pense que certains autres témoins dans ce groupe ont suggéré d'accorder cette permission de divulguer des renseignements personnels à des fins socialement bénéfiques à d'autres organismes que ceux du secteur public, et même à des organismes privés.
    Je vous remercie.
    Monsieur Joli-Coeur, le gouvernement a fourni une réponse écrite dans laquelle il indique qu'il s'attend à ce que les lois québécoises aient préséance sur les lois fédérales, car elles seraient considérées comme étant essentiellement similaires. En général, croyez-vous que ce projet de loi sera harmonisé avec les lois québécoises?
    En général, oui, même si quelques divergences ont été soulignées aujourd'hui.
    Je pense que, d'un point de vue général, le Québec atteindra le seuil de similarité substantielle. On pourrait apporter quelques améliorations sur le plan de l'interopérabilité pour aider les organismes, comme nous l'avons déjà mentionné. La notion d'anonymisation et sa définition représentent un exemple, mais de façon générale, le projet de loi est largement concordant.
    J'aimerais que vous répondiez en premier à ma prochaine question. Si vous ne pouviez proposer que deux amendements au projet de loi, quels seraient-ils et pourquoi pensez-vous que ce sont des amendements importants?
    Je pourrais reprendre les suggestions que j'ai formulées dans ma déclaration préliminaire.
    La définition de l'anonymisation est trop restreinte. Elle devrait être plus adaptable. Elle devrait contenir une norme de la décision raisonnable qui pourrait s'harmoniser aux normes du Québec et à d'autres normes mondiales.
    Une autre suggestion pourrait être celle que j'ai mentionnée à propos de la prise de décision automatisée. Il faudrait restreindre un peu la définition pour ne couvrir que les décisions qui peuvent être prises sans l'intervention d'un être humain, c'est‑à‑dire qu'il n'y a pas d'être humain dans le processus.
(1655)
    D'accord.
    Monsieur Jarvie, qu'en pensez-vous?
    Je suis d'accord avec plusieurs des autres témoins ici présents pour appuyer une modification à la définition de l'anonymisation, afin de l'harmoniser davantage à la définition du Québec et d'assurer une certaine interopérabilité. Le libellé actuel en fait une norme impossible à atteindre.
    L'autre proposition — et je ferai référence à ma déclaration préliminaire — consisterait à modifier le cadre de l'exception au consentement à des fins d'intérêt public. Cela vise les articles 35 et 39 proposés. Je pense que nous pourrions nous inspirer de la Loi 25, qui a introduit un nouveau cadre pour les divulgations par des entités du secteur privé à d'autres entités du secteur privé ou du secteur public. Il s'agit notamment de mener une évaluation des facteurs relatifs à la vie privée et de conclure un accord avec l'autre partie. Dans le cas du Québec, il s'agit de soumettre l'accord à la Commission d’accès à l’information. Dans le cas du projet de loi C‑27, il s'agit d'adapter le libellé de l'alinéa 35c) proposé, qui suggère d'aviser au moins le commissaire.
    En plus de permettre l'échange de renseignements entre des entités du secteur privé, ce qui pourrait être bénéfique, je pense qu'on pourrait également élargir la portée pour englober la collecte de renseignements sur le réseau Internet public. Comme nous le savons, les technologies d'apprentissage automatique, dans de nombreux cas, peuvent profiter d'un accès à ces renseignements, pourvu que des mesures de protection appropriées soient mises en place, comme il a déjà été suggéré.
    Pour revenir à la question sur les fins socialement bénéfiques que j'ai posée tout à l'heure, devrait‑on ajouter d'autres exigences pour les organismes à celles qui figurent dans l'article 39 proposé? Vous avez parlé d'informer le commissaire.
    Oui. Si nous décidions de suivre la suggestion de combiner ou de généraliser les articles 35 et 39 proposés afin de nous rapprocher un peu plus du cadre de la Loi 25 du Québec, qui commence à l'article 21 de cette loi, il faudrait se doter de ce que l'on appelle dans cette loi une « évaluation des facteurs relatifs à la vie privée ». Ce n'est pas une notion qui figure dans le projet de loi C‑27, mais je pense qu'elle fait l'objet de certaines discussions au sein de votre comité. Elle a au moins été décrite dans ses grandes lignes. Elle est bien comprise. Dans ce cas, vous examinez la divulgation ou la collecte de renseignements.
    Je suggère qu'après avoir évalué l'impact sur la vie privée, vous procédiez à une analyse de la proportionnalité et à bien d'autres vérifications. Si un accord est conclu entre les parties à l'échange, il doit prévoir certaines garanties contractuelles sur la manière dont les renseignements seront traités tout au long de leur cycle de vie à cette fin. Enfin, le commissaire devrait être informé.
    Comme je l'ai dit, dans le cas du Québec, l'accord est soumis au commissaire, et on ne peut pas l'activer ou le rendre opérationnel avant 30 jours, ce qui donne vraisemblablement au commissaire du Québec le temps de réagir. Une fois que le commissaire a reçu l'avis, il peut bien entendu simplement demander l'accord. Il peut demander l'évaluation des facteurs relatifs à la vie privée et entreprendre toute autre démarche. Ce qui compte, c'est de donner un avis au commissaire, de sorte qu'il soit au courant.
    Qu'en pensez-vous, madame Piovesan?
    Veuillez répondre brièvement, madame Piovesan.
    Pourriez-vous répéter la question?
    Que pensez-vous des déclarations qui ont été faites plus tôt au sujet d'une exigence plus stricte en matière d'évaluation de l'impact sur la vie privée?
    Je suis tout à fait d'accord avec mon collègue lorsqu'il dit qu'il est possible de combiner les articles 35 et 39 proposés. Cela peut être un moyen efficace d'utiliser les renseignements personnels de manière plus adaptable et responsable, mais cela serait fait sous la gouvernance de l'évaluation des facteurs relatifs à la vie privée, de sorte qu'une approche réfléchie et mesurée serait en place pour cerner les données qui seront collectées, les raisons qui justifient la collecte de ces données et les risques potentiels pour la vie privée liés à cette utilisation et pour vérifier qu'un plan clairement établi est en place pour atténuer ces risques.
    J'appuierais volontiers une telle proposition.
(1700)
    Cela inclurait‑il un avis à l'autorité compétente?
    Voulez-vous dire avant la collecte?
    Je voulais dire avant le décaissement.
    Je n'en suis pas nécessairement certaine. Je ne sais pas s'il est raisonnable d'exiger que ce soit présenté au commissaire à l'avance, mais je suis pour l'utilisation de l'évaluation des facteurs relatifs à la vie privée comme outil d'atténuation des risques.
    Je vous remercie, monsieur Van Bynen.

[Français]

     Je cède maintenant la parole à M. Lemire.
    Merci, monsieur le président.
    Madame Piovesan, au cours des derniers mois, en tant que députés, nous avons tenu plusieurs rencontres avec des entreprises menant des activités au Québec, ce qui inclut des petites et des moyennes entreprises québécoises en démarrage.
    En raison du manque de détails dans la LIAD et de la responsabilité pénale qu'elle impose aux entreprises utilisant des systèmes à incidence élevée, vous avez qualifié le projet de loi C‑27 de « brouillon de haut niveau », dans un balado auquel vous avez participé. Vous abordiez donc ainsi la responsabilité pénale.
    Pouvez-vous nous expliquer ce qui manque au projet de loi et nuit à la confiance et à l'aisance des entreprises à mener des activités, tant au Québec qu'au Canada? Quel élément de clarté serait-il nécessaire d'ajouter au projet de loi C‑27 pour passer d'un projet de loi « brouillon », selon votre définition, à un vrai projet de loi?

[Traduction]

    Si j'ai mal compris quelque chose, n'hésitez pas à me le faire savoir.
    Tout d'abord, je comprends très bien les préoccupations des petites et moyennes entreprises en ce qui concerne le niveau de conformité. C'est en partie la raison pour laquelle il est très important d'harmoniser les dispositions dans la mesure du possible, car le défi de la conformité réside en partie dans le degré de nuance.
    Permettez-moi de vous donner un petit exemple. À l'heure actuelle, si l'on considère seulement les projets de loi sur l'intelligence artificielle qui sont en élaboration dans plusieurs pays, on peut voir que l'Union européenne dispose d'un projet de loi rigoureux. Il y a ensuite le Canada, ainsi que d'autres pays. La Chine, Singapour… Plusieurs pays envisagent d'adopter des lois à cet égard. Rien qu'aux États-Unis, 200 projets de loi ont été déposés de l'échelon municipal à l'échelon fédéral, de sorte que, dans la mesure où nous pouvons réduire la complexité de la conformité, notre situation est de loin préférable.
    À mon avis, l'une des mesures d'application les plus frappantes que l'on trouve dans la Loi sur l’intelligence artificielle et les données est la composante criminelle. C'est celle qui me préoccupe le plus, car elle fait de nous une exception. En effet, cette composante n'apparaît pas dans d'autres lois ailleurs dans le monde. Bien honnêtement, je recommanderais d'éliminer la composante criminelle de notre loi et j'harmoniserais la Loi sur l’intelligence artificielle et les données, que ce soit sur le plan de l'application ou des sanctions, aussi étroitement que possible aux lois des autres pays de premier plan.
    J'espère avoir pleinement répondu à votre question.

[Français]

     Tout à fait.
    Je serais curieux de vous poser une autre question.
    Dans vos remarques préliminaires, vous avez mentionné que la partie sur l'intelligence artificielle comportait des lacunes. Pouvez-vous nous dire de quelle façon nous pourrions les combler?
    Quelles sont vos suggestions pour rendre la partie sur l'intelligence artificielle plus robuste?

[Traduction]

    La plupart des lacunes qui doivent être comblées se trouvent dans les amendements du ministre, c'est‑à‑dire dans la lettre qui a été déposée par le ministre et lue avec les documents d'accompagnement. Si tous ces éléments étaient pris en compte et que le projet de loi abordait tous ces points, je pense qu'il serait assez satisfaisant et complet. Je ne l'ai pas vu, et je ne peux donc pas me prononcer, mais je pense que nous serions beaucoup plus rassurés au sujet de certaines de ces énormes lacunes.

[Français]

    Merci beaucoup, madame Piovesan.

[Traduction]

     Je vous remercie.
    Monsieur Masse, vous avez la parole.
    Je vous remercie, monsieur le président.
    Je vais continuer avec la composante criminelle.
    Je présume que vous proposez donc essentiellement, dans ce cas, un système d'imposition d'amendes. Mais cela ne semble‑t‑il pas un peu faible lorsqu'il s'agit de protéger la vie privée de personnes qui pourraient subir des répercussions importantes? Ce qui me préoccupe, c'est que cela donne l'impression qu'on n'a qu'à payer pour se sortir de n'importe quelle situation. Pourquoi ne voudrions-nous pas qu'il y ait une composante criminelle, d'autant plus que la responsabilité des entreprises est déjà faible au Canada?
    Je ne suis pas certaine d'être tout à fait d'accord avec cela.
    Les activités criminelles sont généralement déjà visées par le Code criminel. Le problème avec la LIAD, dans sa forme actuelle, c'est qu'on veut en faire un cadre de responsabilisation pour les systèmes à incidence élevée. Dans sa forme actuelle, cette loi distingue le Canada en raison de sa composante criminelle. Si une personne s'engage dans une activité criminelle, il y a déjà une loi en vigueur qui couvre cette activité et qui prévoit la surveillance et les mesures nécessaires.
(1705)
    Le fait que nous avons quelque chose de différent... Est‑ce la seule raison ou est‑ce que…?
    Je ne sais pas si vous avez eu l'occasion de prendre connaissance de ce que l'administration Biden a publié et des mesures qu'elle a prises. Il me semble que si on ne met pas cela dans un article... Où pourrons-nous renforcer la responsabilité des entreprises? Pouvez-vous suggérer des dispositions que nous pourrions ajouter si nous éliminions cette composante? Je sais que de nombreux organismes, particuliers et intervenants chargés de la protection de la vie privée ont des attentes à cet égard. Si nous leur enlevons ce recours, avez-vous des suggestions sur ce que nous pourrions leur offrir en contrepartie pour au moins compenser ce qu'ils perdraient?
    Le décret de Biden n'a pas force de loi. Il nous faudrait voir ce que les États-Unis peuvent adopter comme loi.
    Dans le contexte canadien, les amendes sont plus sévères que dans le contexte de l'Union européenne. Il y a donc un important facteur dissuasif, du point de vue financier.
    Pour ce qui est du taux de criminalité qui préoccupe, d'après ce que j'ai compris, les concitoyens avec qui vous parlez, je répéterais que nous avons le Code criminel en place, qui décourage déjà ce comportement.
    D'accord, merci.
    Je sais que mes concitoyens, à tout le moins, sont très déçus relativement à la responsabilité des entreprises en matière d'environnement, de la protection de la vie privée, de consommation... C'est donc pour moi une chose à laquelle il faut réfléchir. Je vous suis reconnaissant de votre témoignage, car nous consacrons beaucoup de temps et d'efforts à la question.

[Français]

    Merci beaucoup, monsieur Masse.
    Monsieur Généreux, la parole est à vous.
    Je remercie également tous les témoins.
    La conversation que nous avons aujourd'hui est vraiment très intéressante. Nous accueillons vos témoignages avec grand intérêt.
    Madame Piovesan, si j'ai bien compris, vous avez participé à la rédaction du projet de loi C‑11, un projet de loi antérieur au projet de loi C‑27, que nous étudions aujourd'hui.

[Traduction]

    Si j'ai participé à la...?

[Français]

    Avez-vous participé aux consultations ou même à l'écriture du projet de loi lui-même?

[Traduction]

    D'accord.
    J'ai participé aux consultations nationales sur les données et la littératie numérique. Je pense que c'était en 2018. J'ai participé en tant qu'innovatrice — je faisais partie des principaux intervenants en matière d'innovation.
    Je n'ai pas participé à la rédaction de la charte numérique ni à la rédaction du livre blanc pour réformer la LPRPDE qui a été publié à ce moment‑là. Je n'ai pas plus participé à la rédaction de ces nouvelles lois, que ce soit le projet de loi C‑11 ou le projet de loi C‑27.

[Français]

     Je m'adresse aux autres témoins qui sont ici aujourd'hui.
    Avez-vous participé aux consultations qui ont eu lieu sur le projet de loi C-11 ou sur le projet de loi C-27 à l'étude? Hochez la tête pour dire oui ou non.
    Je vois que personne n'a été consulté. D'accord.
    À la lumière de ce que nous avons vécu depuis que nous avons commencé l'étude il y a quelques semaines, il ne semble pas y avoir eu de consultations. Pourtant, le ministres de l'Innovation, des Sciences et de l'Industrie a dit avoir consulté 300 personnes ou organismes au cours du processus suivant le dépôt du projet de loi. Nous aimerions trouver ces personnes ou ces organismes. Nous ne savons pas où elles sont.
    Je déposerai plus tard un avis de motion, mais, avant de le faire, je vais tout de même vous poser une question, madame Piovesan.
    M. Balsillie, qui s'est présenté devant nous et dont vous avez sûrement lu le témoignage, a comparé le projet de loi à un seau dans lequel il y avait des trous. Compte tenu des témoignages que nous avons entendus jusqu'à maintenant, on pourrait croire que le seau n'a carrément pas de fond. C'est l'impression que nous avons.
    Vous avez parlé plus tôt du fait que le Comité avait entendu des opinions extrêmes de la part des témoins. Prenons par exemple le tribunal. Des gens ont suggéré de l'oublier, ont dit qu'on n'en avait pas besoin, alors que d'autres ont dit que, au contraire, ce serait important qu'il y en ait un dans ce domaine.
    Comme les opinions des témoins sont si éloignées les unes des autres, trouvez-vous que ce projet de loi aurait dû être scindé au départ? En effet, depuis le début, on nous dit que c'est presque un monstre, que c'est trop gros et qu'il aurait fallu séparer toute la question de la vie privée de celle de l'intelligence artificielle.
    Qu'en pensez-vous?

[Traduction]

    Je ne pense pas être la meilleure personne pour dire si le projet de loi devrait être scindé, mais ce que je vais dire, c'est que les deux questions sont conceptuellement liées. Une grande partie de ce qui concerne l'intelligence artificielle dépend du type de données sur lesquelles on s'appuie, ce qui se rapporte ensuite à la partie 1 du projet de loi. Il y a des distinctions, sans aucun doute, et il y a aussi des liens conceptuels qui sont importants selon moi. Je comprends que la partie 1 a fait l'objet de consultations beaucoup plus vastes que la partie 3.
(1710)

[Français]

    Monsieur Young, vous avez dit plus tôt que le projet de loi à Québec était, si j'ai bien compris la façon dont vous vous êtes exprimé, supérieur à celui que nous avons devant nous.
    Est-ce vrai? Le pensez-vous?

[Traduction]

    Je suis désolé. J'écoute, mais peut‑on répéter la traduction? Il n'y avait pas assez de volume.

[Français]

    Selon ce que j'ai compris, vous avez parlé positivement du projet de loi du Québec. Si je ne m'abuse, c'est la loi 25, celle qui est actuellement en vigueur.
    Après vos bons mots à l'égard de la loi 25, trouvez-vous qu'elle est meilleure que le projet de loi qui est devant nous?

[Traduction]

    C'est une bonne question.
    Je pense que la loi établit, en grande partie, une excellente norme. C'est ce que je pourrais dire à ce sujet.
    Par rapport à ce projet de loi... Je pense qu'on pourrait s'inspirer de la loi 25 pour plusieurs points. L'anonymisation et la dépersonnalisation en font certainement partie. Il y a d'autres aspects, et nous n'en avons pas parlé aujourd'hui, pour lesquels le Québec offre ce que j'appellerais une norme plus élevée et plus rigoureuse en matière de protection de la vie privée.

[Français]

    D'accord. Merci beaucoup.
    Monsieur le président, je voudrais déposer un avis de motion si vous me le permettez.
    Je m'excuse auprès des témoins parce que cela prendra quelques minutes.
Que, relativement au projet de loi C‑27, Loi édictant la Loi sur la protection de la vie privée des consommateurs, la Loi sur le Tribunal de la protection des renseignements personnels et des données et la Loi sur l’intelligence artificielle et les données et apportant des modifications corrélatives et connexes à d’autres lois, et compte tenu du fait que

(i) le ministre de l’Innovation, de la Science et de l’Industrie a témoigné devant le comité le 26 septembre 2023, déclarant : « Mon bureau et mon ministère ont eu plus de 300 réunions avec des universitaires, des entreprises et des membres de la société civile au sujet de ce projet de loi. »

le Comité demande donc, par souci de transparence, que le cabinet et le ministère du ministre publient les détails relatifs aux plus de 300 réunions tenues par son cabinet et son ministère avec des universitaires, des entreprises et des membres de la société civile, au sujet du projet de loi C‑27, ventilés pour chaque réunion, y compris,

a) les noms de tous les participants à la réunion, y compris le nom des organisations qui les représentent, le cas échéant ;

b) le titre de chaque réunion et les ordres du jour s’il y a lieu ;

c) les documents soumis par les participants à la réunion ou les organisations au ministère ou au cabinet du ministre, y compris, mais sans s’y limiter, les propositions d’amendement, les notes d’information ou les lettres ;

et que ces informations soient déposées auprès du greffier du Comité au plus tard le 20 novembre 2023 et soient publiées sur le site Web du Comité.
    Merci, monsieur le président.
    Monsieur Généreux, présentez-vous un avis de motion ou la motion afin qu'elle soit débattue?
    Je donne un avis de motion afin qu'elle soit débattue ultérieurement.
    À bien y penser, comme la prochaine réunion se tiendra le 20 novembre, je crois que nous allons devoir en débattre maintenant.
    Cela vous appartient, monsieur Généreux. Si vous nous donnez un avis de motion…
    Nous allons en débattre maintenant. Je suis désolé, mais je pense qu'il faut le faire parce que nous avons besoin de ces informations.
    M. Généreux présente sa motion. Étant donné que la motion porte sur le projet de loi C‑27, qui est à l'étude aujourd'hui, la motion est recevable.
    Le débat est lancé.
    Monsieur Lemire, vous avez la parole.
    Merci, monsieur le président.
    J'aurais des petits amendements favorables à proposer qui pourront même être intégrés directement à la motion par le proposeur. Il s'agit d'ajouter que les documents doivent être traduits dans les deux langues officielles. En effet, ce n'est pas précisé dans la motion. Conséquemment, on pourrait repousser la date butoir du 20 novembre pour permettre la traduction des documents.
    J'aimerais aussi débattre du fait que je ne vois pas en quoi il est pertinent que ces informations soient rendues publiques sur le site Web. Cet élément me dérange un peu.
    Cela dit, je pense que tout le monde peut s'entendre sur la traduction dans les deux langues officielles.
    Un amendement à la motion est proposé par M. Lemire. J'en comprends le sens, mais il faudrait peut-être une terminologie plus exacte.
    Je poserais la question à la greffière, qui pourrait nous aider. Combien de temps serait nécessaire pour traduire les documents en question? Quel délai pourrait-on préciser?
    Sans savoir quel sera le volume des documents reçus, je pense qu'il est un peu difficile de se prononcer sur le temps requis. Cependant, on peut présumer que cela risque d'être assez long. On ne le sait pas.
(1715)
    Selon moi, les documents ne peuvent pas être remis tant qu'ils ne sont pas traduits dans les deux langues officielles. Conséquemment, je ne fixerai pas de date, à moins qu'il y ait une autre proposition de la part du Parti conservateur.
    L'amendement que propose M. Lemire serait de retirer les mots « au plus tard le 20 novembre 2023 ». 
    Il faudrait aussi ajouter « que ces informations soient déposées auprès du greffier du Comité pour communication auprès des membres ».
    J'imagine que cela inclut le fait de publier ces informations dans le cartable numérique du Comité.
    Voilà donc l'amendement qui est proposé par M. Lemire.

[Traduction]

    Pour la gouverne des témoins, je m'excuse de l'interruption, mais je vous ai prévenus avant la réunion qu'une motion avait été déposée et qu'elle était sujette à débat.
    Je crois comprendre que vous avez un vol à prendre, madame Piovesan.
    À vrai dire, je voulais juste rectifier les faits, car je crois que vous m'avez demandé si j'ai participé à la rédaction. Cependant, s'il était plutôt question de ma participation à la consultation, j'y ai effectivement pris part, contrairement à la rédaction. Je voulais juste rétablir les faits.
    Je vous remercie.
    Selon toute vraisemblance... Nous allons voir s'il est possible de procéder rapidement. Je suis toujours sceptique. Je pense peut-être laisser nos témoins partir, puisqu'il nous reste 15 minutes...
    M. Rick Perkins: Est‑ce tout le temps qu'il nous reste?
    Le président: Je ne pense pas que nous pourrons faire le tour de la question en 15 minutes, peu importe à quel point vous êtes optimiste, monsieur Perkins. Par conséquent, avec votre consentement, chers collègues, je vais remercier les témoins de s'être joints à nous aujourd'hui.
    Si vous voulez écouter le débat sur cette motion, vous êtes libres de rester. Nous vous encourageons certainement à le faire. Cependant, si vous voulez partir, sachez que nous vous sommes reconnaissants de vos témoignages, et s'il y a des choses que vous voulez soumettre aux membres du Comité, veuillez le faire par l'entremise de la greffière. Les documents seront révisés à mesure que nous poursuivons l'étude du projet de loi C‑27.
    Merci beaucoup.

[Français]

    Je vous remercie tous. Je suis désolé.
    Il reste 15 minutes à notre réunion de deux heures.
    Un amendement de M. Lemire est à l'étude.

[Traduction]

    Y a‑t‑il...

[Français]

    À l'ordre. Un amendement est à l'étude.
    Y a-t-il d'autres commentaires?

[Traduction]

    S'il n'y a pas d'autres commentaires, nous allons mettre aux voix l'amendement.
    Nos témoins partent. Voulez-vous que j'intervienne tout de suite?
    Oui, allez‑y.
    Je suppose que ce que j'essaie de comprendre, c'est si les gens remettent effectivement en question le fait que le gouvernement a mené des consultations. Est‑ce l'essentiel de la question ici? Il me semble que nous écoutons...
    Pardon?
    Une voix: [Inaudible]
    Si je comprends bien, monsieur Généreux, vous semblez remettre en question le fait que le gouvernement a mené 300 consultations, ce qui est manifestement le cas selon moi.
    Je ne suis pas certain de comprendre pourquoi vous pensez que c'est important pour nous, en tant que membres du Comité, pour pouvoir aller de l'avant. Je pense que nous faisons un excellent travail. Je trouve regrettable que nous ayons dû laisser partir nos témoins plus tôt, car nous avions de bonnes discussions approfondies. Pourriez-vous nous expliquer pourquoi vous pensez que ces documents sont nécessaires à la poursuite des travaux du Comité, qui se déroulent plutôt bien selon moi?
    Avant que je donne la parole à d'autres députés, je veux rappeler à tout le monde que nous discutons actuellement de l'amendement proposé par M. Lemire, qui vise à supprimer tout ce qui suit « soient déposées auprès de la greffière du Comité ». Nous supprimons « au plus tard le 20 novembre ».
    Le libellé dirait plutôt: « déposées auprès de la greffière du Comité pour distribution aux membres ».

[Français]

     Avez-vous noté « traduites dans les deux langues officielles »?

[Traduction]

    Et aussi « traduites dans les deux langues officielles ».
    Cela va de soi. Ce serait ajouté quelque part où c'est pertinent dans le long texte de la motion.

[Français]

    Je répète: « et que ces informations soient traduites dans les deux langues officielles et déposées auprès du greffier du Comité » dans le but d'être...
    Avez-vous bien entendu?

[Traduction]

    C'est l'amendement qui est débattu maintenant, avant que nous passions à d'autres aspects de la motion.
    Y a‑t‑il des observations sur l'amendement proposé par M. Lemire?
    Allez‑y, monsieur Généreux.
(1720)

[Français]

    Monsieur le président, nous partons pour une semaine dans nos circonscriptions. J'imagine qu'avec tout le personnel qu'il y a à la Chambre des communes, il sera possible de traduire les documents en une semaine.
    Au pire, nous pouvons accepter la proposition de M. Lemire. Par contre, je ne veux pas recevoir ces documents au mois de février, quand nous aurons fini nos travaux. C'est important de le mentionner. On sait ce qui se passe quand on enlève une date: cela se retrouve sous la pile et les autres passent avant. Voilà le danger. Évidemment, nous voulons certainement que les documents soient bilingues.
    Y a-t-il d'autres commentaires?

[Traduction]

    Quelqu'un a‑t‑il quelque chose à ajouter sur l'amendement proposé par M. Lemire?
    Dans la négative, nous allons le mettre aux voix.
    Je regarde autour de la table pour voir si quelqu'un veut intervenir.
    Monsieur Van Bynen, avez-vous levé la main.
    Votre micro est fermé.
    Je suis désolé.
    J'acquiesçais. Je pensais que vous alliez procéder au vote.
    C'est ce que je m'apprête à faire, pour l'amendement proposé par M. Lemire.
    Est‑il nécessaire de tenir un vote par appel nominal, ou avons-nous le consentement unanime?
    (L'amendement est adopté.)
    Le président: Nous revenons à la motion principale modifiée par M. Lemire.
    Allez‑y, monsieur Généreux.

[Français]

    Je répondrai à M. Turnbull, que je ne doute pas que le ministre a fait des consultations.
    Jusqu'à maintenant, nous avons tous invité des témoins, et Dieu sait que la liste en est encore très longue. Moi, je veux être en mesure de savoir qui a été consulté par rapport à l'ensemble des témoins qui viendront plus tard, pour nous préparer en fonction de nos futures réunions.
    Jusqu'à présent, parmi l'ensemble des experts de haut niveau, si je peux les qualifier ainsi, qui ont témoigné devant nous, il semble que personne n'a été consulté. Je veux savoir si nous avons oublié des gens qui figurent dans la liste de ceux qui ont été consultés. Dans un tel cas, nous aurions peut-être dû les inviter au Comité.
    Je comprends qu'il est un peu tard pour inviter de nouveaux témoins. Cela dit, la motion nous permettrait au moins d'obtenir des références, de prendre connaissance des recommandations que ces gens ont faites et qui n'ont pas été retenues, etc. Dans l'ensemble des documents que nous demandons, nous serons peut-être capables de trouver des réponses à ces questions.
    Je le répète, je ne mets pas du tout en doute le fait que le ministre ait consulté 300 organisations ou individus.
    Monsieur Turnbull, nous vous écoutons.

[Traduction]

    Je vous remercie pour ces précisions, monsieur Généreux. Je vous en suis reconnaissant.
    Je suppose que c'est ce qui me pose problème ici. De mon point de vue, toutes les réunions qui ont eu lieu doivent déjà figurer au registre des lobbyistes — chaque fois que le ministère rencontre un groupe d'après ce qui est indiqué. C'est donc déjà documenté. Vous pouvez vous-même consulter l'information, si vous voulez.
    De toute évidence, nous avons aussi un processus pour le Comité. Beaucoup de groupes ont déjà présenté un mémoire. Ils en ont parfaitement le droit et ils peuvent le faire. Dans la motion, nous parlons de fournir les « documents soumis ». Ils ont déjà cette option.
    Nous avons demandé à tous les témoins ici s'ils ont été consultés. Certains ne l'ont peut-être pas été, mais nous savons qu'il y a beaucoup d'intervenants, et plus de 300 ont été consultés.
    Je ne suis pas certain de comprendre ce que cela accomplit lorsque, essentiellement, les membres du Comité ont déjà accès à l'information dont il est question. De plus, les intervenants peuvent déjà présenter un mémoire au Comité.
    En gros, l'information est déjà disponible en grande partie. Je ne suis tout simplement pas certain de comprendre pourquoi nous aurions besoin d'une motion à ce stade‑ci.

[Français]

    Monsieur Williams, la parole est à vous.

[Traduction]

    Pour donner suite au point soulevé par M. Turnbull, si l'information est là, nous pouvons donc facilement l'obtenir. Je pense que la motion est plutôt simple.
    Y a‑t‑il d'autres commentaires, ou pouvons-nous mettre aux voix la motion?
    Allez‑y, monsieur Turnbull.
(1725)
    Je ne suis vraiment pas certain. Le libellé dit « par souci de transparence, que le cabinet et le ministère du ministre publient les détails relatifs aux ». L'amendement de M. Lemire a déjà enlevé la date. Il n'y aurait pas de date précise. Ce que nous demandons vraiment, ce sont « les noms de tous les participants à la réunion, y compris le nom des organisations qui les représentent », plus « le titre de chaque réunion et les ordres du jour »...
    Nous pouvons lire.
    Oui, eh bien, je réfléchis; je ne vois pas en quoi c'est absolument nécessaire pour...
    Vous l'avez déjà dit.
    Il se répète. Passons au vote. Il se répète constamment.
    Je suis désolé, monsieur Turnbull. Aviez-vous terminé?
    M. Turnbull a la parole.
    Oui, mais il n'est pas censé se répéter. Je sais comment faire de l'obstruction.
    Le président: M. Perkins...
    M. Rick Perkins: Si vous voulez faire de l'obstruction, vous ne pouvez pas vous répéter.
    Monsieur Perkins, je préside la réunion, et j'ai donné la parole à M. Turnbull.
    Encore une fois, je ne comprends pas pourquoi. Je suis préoccupé par l'intention derrière cette...
    M. Rick Perkins: Vous l'avez déjà dit.
    M. Ryan Turnbull: ... et je ne comprends pas pourquoi on doit fournir toute cette documentation lorsque nous pouvons déjà manifestement la consulter.
    M. Rick Perkins: [Inaudible]
    M. Ryan Turnbull: Eh bien, vous n'avez pas donné une bonne raison pour justifier la motion.
    Ce n'est pas nécessaire. Je n'ai pas de comptes à vous rendre.
    Vous vous montrez maintenant combatif.
    Monsieur Perkins, lorsqu'un député a la parole...
    M. Rick Perkins: [Inaudible]
    Le président: ... c'est lui qui parle. Je peux comprendre le chahut à la Chambre, mais c'est une réunion de comité. Je n'accepte pas...
    J'aimerais que vous fassiez respecter les règles sur la pertinence et la répétition.
    C'est ce que je fais. Je fais maintenant respecter les règles concernant le chahut ici. Par souci de décorum, je vous demanderais de baisser le ton.
    Monsieur Turnbull a la parole.
    Oui, monsieur Sorbara.
    J'invoque rapidement le Règlement. Nous pourrions peut-être éviter une partie des interruptions et mettre l'accent sur la question à l'étude.
    Monsieur Perkins, si M. Turnbull se répète, vous pouvez alors invoquer le Règlement pour le mentionner. Procédons comme il se doit, et nous pourrons régler ce que nous avons à régler.
    Oui, monsieur Turnbull.
    J'aimerais proposer un amendement.
    Je propose de supprimer les points b) et c) de la motion. Je pense que « les noms de tous les participants à la réunion » est tout à fait acceptable et que nous pourrions les obtenir en peu de temps.
    Je modifierais la motion en excluant les points b) et c).
    Nous sommes saisis d'un amendement pour supprimer les points b) et c). Vous avez tous entendu l'amendement proposé par M. Turnbull.
    Avons-nous le consentement unanime pour supprimer les points b) et c)?
    (L'amendement est adopté. [Voir le Procès-verbal])
    Le président: Nous revenons à la motion modifiée par M. Lemire puis par M. Turnbull.
    Avons-nous le consentement unanime pour adopter la motion, ou dois‑je tenir un vote? Je ne vois plus personne qui souhaite intervenir.
    Nous allons tenir un vote par appel nominal sur la motion modifiée.
    (La motion modifiée est adoptée par 10 voix contre 0. [Voir le Procès-verbal])
    Le président: Merci, monsieur Masse. Vous m'avez fait peur pendant un instant. Nous sommes revenus à la méthode de travail traditionnelle de type consensuel du Comité. Je m'en réjouis. La motion a été adoptée à l'unanimité.
    Je vous remercie tous de votre collaboration. Nous terminons pile à l'heure.

[Français]

     Nous avons respecté les contraintes de temps et de budget.
    Je remercie beaucoup les interprètes, le personnel de soutien et les analystes.
    À vous tous, je souhaite une bonne semaine dans vos circonscriptions respectives, une bonne fin de semaine et une bonne soirée.
    La séance est levée.
Explorateur de la publication
Explorateur de la publication
ParlVU