:
Chers collègues et amis, je déclare la séance ouverte.
Je vous souhaite la bienvenue à la 107e réunion du Comité permanent de l'industrie et de la technologie de la Chambre des communes.
La réunion d'aujourd'hui se déroule sous forme hybride, conformément au Règlement.
Avant que je fasse la présentation des témoins, nous avons une petite question à régler, soit l'élection du deuxième vice-président du Comité. Conformément à l'article 102 du Règlement, le deuxième vice-président doit être membre d'un parti de l'opposition autre que l'opposition officielle.
Je suis maintenant prêt à recevoir des motions pour l'élection du deuxième vice-président. Quelqu'un peut-il soumettre le nom de M. Garon?
[Traduction]
Chers collègues, j'ai besoin que quelqu'un…
C'est M. Bittle.
[Français]
M. Bittle propose que M. Jean‑Denis Garon soit élu deuxième vice-président du Comité.
Puisqu'il n'y a aucune autre motion, ai-je le consentement unanime du Comité pour que M. Garon soit élu deuxième vice-président?
Des voix: D'accord.
(La motion est adoptée.)
Conformément à l'ordre de renvoi du lundi 24 avril 2023, le Comité reprend son étude du projet de loi .
J'aimerais maintenant souhaiter la bienvenue aux témoins. Nous accueillons Mme Vass Bednar, directrice générale du programme de maîtrise en politique publique dans la société numérique de l'Université McMaster, qui se joint à nous par vidéoconférence. De plus, de l'Université de Toronto, nous recevons M. Andrew Clement, professeur émérite à la Faculté de l'information, qui se joint aussi à nous par vidéoconférence, ainsi que M. Nicolas Papernot, professeur adjoint et titulaire d'une chaire CIFAR en intelligence artificielle.
Je vous remercie tous trois de votre présence.
[Traduction]
Je tiens à m'excuser de notre retard. Nous avons eu une dizaine de votes à la Chambre des communes. En raison du retard, nous avons jusqu'à 19 heures environ pour les témoignages et les questions.
Sans plus tarder, nous allons commencer par vous, madame Bednar. Vous avez cinq minutes.
Je m'appelle Vass Bednar. Comme vous l'avez entendu, je dirige le programme de maîtrise en politique publique dans la société numérique à l'Université McMaster, où je suis professeure auxiliaire de sciences politiques. Je suis active au sein de la grande communauté des politiques au Canada en tant qu'agrégée supérieure au CIGI, comme membre du Forum des politiques publiques et par l'entremise de mon bulletin intitulé Regs to Riches. Je suis également membre du comité consultatif stratégique spécial de la commissaire provinciale à la protection de la vie privée.
Je vous remercie de me donner l'occasion de m'adresser à vous. J'apprécie le travail du Comité. Je suis d'accord pour dire qu'il est urgent de moderniser le cadre législatif du Canada pour qu'il soit adapté à l'ère numérique. Je tiens également à souligner que j'ai été en quelque sorte en congé sabbatique au cours de la dernière année et que je n'ai pas suivi le débat sur le projet de loi dans ses moindres détails. À cause de cela, j'étais un peu nerveuse à l'idée de comparaître devant vous, mais je me suis souvenue que je ne suis pas membre du Comité; je suis invitée à témoigner devant lui. J'ai donc décidé d'être aussi constructive que possible aujourd'hui.
En examinant ce cadre relatif à la protection de la vie privée, à la protection des consommateurs et à l'intelligence artificielle, je crois vraiment que nous traitons essentiellement de la confiance envers notre économie numérique et de ce que cela représente pour les citoyens, et nous définissons effectivement ce à quoi est censée ressembler une innovation responsable. C'est ce qui m'enthousiasme par rapport à l'orientation que nous prenons.
Très brièvement, en ce qui concerne la protection de la vie privée, il est bien connu, ou du moins il a été bien dit qu'il ne s'agit pas du projet de loi le plus axé sur le consommateur au monde. Il clarifie les choses pour les petites et les grandes entreprises — ce qui est une bonne chose —, et surtout pour les petites. Je ne pense pas que les exigences imposées aux petites entreprises soient trop lourdes.
Les éléments relatifs au consentement ont fait l'objet de nombreux débats. Le fait d'examiner le libellé au‑delà de ce qui est nécessaire constitue un élément très important du débat. Qui décide de ce qui est nécessaire et du moment où c'est nécessaire? Je pense que le précédent du consentement, bien sûr, est crucial. Je songe à un avenir où, en tant qu'individus évoluant dans un monde en ligne ou échangeant de l'information avec des entreprises, les consommateurs seront tout simplement beaucoup plus autonomes.
Par exemple, il y a la capacité de faire des recherches sans que des algorithmes autopréférentiels dictent l'ordre de ce que vous voyez; de voir des prix qui ne sont pas adaptés à vous ou même de savoir qu'une tarification dynamique personnalisée a lieu; d'accéder à des rabais au moyen de programmes de fidélisation sans sacrifier votre vie privée à cette fin; ou tout simplement de se rendre sur le site d'une boutique en ligne que vous avez déjà visitée sans qu'apparaissent de soi-disant offres spéciales fondées sur votre historique de navigation ou d'achat.
Je pense que cette tension sera probablement au cœur de notre conversation continue sur la nécessité pour les organisations de recueillir des données.
En ce qui concerne la collusion algorithmique, un récent reportage du New Statesman explique que les prix de la plupart des biens sont fixés non pas par des humains, mais par des processus automatisés conçus pour maximiser les gains de leurs propriétaires. Il y a un grand débat théorique au sujet de la ligne de démarcation entre exploitation et efficacité. Notre droit de la concurrence, qui est en constante évolution, pourrait bientôt commencer à prendre en compte la collusion algorithmique, ce qui pourrait aussi susciter davantage d'attention grâce aux progrès réalisés quant au projet de loi , car il incite à considérer les effets de la conduite algorithmique dans l'intérêt public.
Là encore, très brièvement, en ce qui a trait à l'intelligence artificielle, ou IA, je suis d'accord avec d'autres pour dire que le commissaire à l'intelligence artificielle devrait peut-être avoir plus de pouvoirs en tant qu'agent du Parlement. Son bureau doit être financé adéquatement pour pouvoir faire son travail. Il faut souligner que les provinces pourraient vouloir créer leurs propres cadres en matière d'IA afin de remédier à certaines ambiguïtés ou certains recoupements. Nous devrions accepter cela et nous en réjouir dans un contexte de fédéralisme canadien.
Dans un esprit constructif et tourné vers l'avenir, je me demande si nous ne devrions pas nous inspirer davantage des politiques bien connues en matière d'étiquetage et de fabrication simplement pour en arriver à une plus grande transparence. Pour ce qui est du degré de transparence proposé relativement aux gestionnaires de systèmes d'IA à usage général, nous devons veiller à ce que les gens puissent repérer le contenu généré par l'IA. Cela est également essentiel pour tout résultat d'un système généré par algorithme.
Il faudrait probablement appliquer une approche inspirée de l'étiquetage nutritionnel à la protection des renseignements personnels, ou bien imposer une exigence d'enregistrement. J'espère que nous pourrons éviter les lourdes vérifications ou l'éclosion d'économies secondaires étranges qui ne sont peut-être pas aussi nécessaires qu'elles le semblent. L'obligation d'enregistrer de nouveaux systèmes d'IA auprès d'Innovation, Sciences et Développement économique, ou ISDE, de manière à ce que le gouvernement puisse effectuer le suivi des éventuels préjudices et des motifs justifiant leur entrée sur le marché canadien, serait utile.
Je vais conclure dans un instant.
Bien sûr, nous devrions tous réfléchir à la façon dont le projet de loi interagira avec d'autres leviers politiques, surtout compte tenu du forum des organismes de réglementation numérique qui a été créé récemment.
Une grande partie de mon travail porte sur des questions relatives à la concurrence, comme l'équité et la liberté du marché. Je souligne qu'aux États-Unis, la commission fédérale du commerce a tenu tout juste la semaine dernière un sommet technologique sur l'intelligence artificielle dans le cadre duquel il a été constaté qu'un écosystème technologique avait concentré le pouvoir entre les mains d'un petit nombre d'entreprises tout en instituant un modèle d'affaires fondé sur la surveillance constante des consommateurs. Les décideurs canadiens doivent être plus honnêtes pour ce qui est du lien entre ces éléments. Nous devrions en faire davantage pour remettre en question ce modèle d'affaires de base et nous assurer de ne pas le mettre en place dans l'avenir.
J'aimerais formuler très rapidement une dernière préoccupation au sujet de la productivité, et je sais que tout le monde y pense.
Je crains que la crise de la productivité au Canada n'ait pour effet fondamental de décourager implicitement ou explicitement toute forme de réglementation au nom du risque fantôme d'entraver cette chose insaisissable que nous appelons l'innovation. Je tiens à vous rappeler qu'une réglementation intelligente clarifie la situation sur les marchés et égalise les règles du jeu.
Merci de m'avoir invitée.
:
Merci, monsieur le président et membres du Comité.
Je m'appelle Andrew Clement, et je suis professeur émérite à la faculté de l'information de l'Université de Toronto. En tant qu'informaticien qui a commencé dans le domaine de l'intelligence artificielle, je fais des recherches sur l'informatisation de la société et ses implications sociales depuis les années 1970.
Je suis l'un des trois contributeurs bénévoles au rapport du Centre pour les droits numériques sur le projet de loi C‑27 dont Jim Balsillie vous a parlé ici.
Mon exposé portera exclusivement sur la Loi sur l'intelligence artificielle et les données, ou LIAD.
L'intelligence artificielle, mieux comprise comme une intensification algorithmique, a une longue histoire. Malgré tous ses avantages, les mauvaises applications de l'IA — qui remontent à bien avant l'accélération actuelle touchant les réseaux neuronaux profonds — ont déjà fait du tort à de nombreuses personnes.
Malheureusement, ceux qui crient le plus fort pour susciter la peur du public sont les géants de la technologie, qui sont bien connus pour leur hostilité à l'égard des gouvernements et de la réglementation. Ces tenants de l'approche « agir vite et casser des choses » exigent maintenant une intervention urgente du gouvernement tout en se disputant la domination de l'industrie. Cela cause des distractions et exige notre scepticisme.
Une réglementation judicieuse de l'IA axée sur les risques réels se fait attendre depuis longtemps, et l'autoréglementation ne fonctionnera pas.
Le ministre Champagne veut faire du Canada un chef de file mondial en matière de gouvernance de l'IA. C'est un bel objectif, mais c'est comme si nous participions à un Grand Prix international. Apparemment, pour apaiser les craintes des Canadiens, il a subitement décidé d'y inscrire le Canada. Il est tout sourire au volant, mais son véhicule orné de la feuille d'érable — la LIAD — comporte à peine un châssis et un moteur. Il a insisté sur le fait qu'il faisait simplement preuve de « souplesse », promettant que si vous l'aidiez à franchir la ligne d'arrivée, tout serait réglé au moyen du règlement.
Comme l'a souligné Mme Scassa, aucun prix n'est remis à celui qui remporte la première place. La bonne gouvernance n'est même pas une course, mais un projet d'apprentissage mutuel continu. Comme il y a beaucoup d'incertitude quant aux promesses et aux dangers de l'IA, une consultation publique éclairée par l'expertise est une condition préalable essentielle à l'établissement d'un fondement législatif solide. Le Canada doit aussi étudier attentivement l'évolution de la situation dans l'Union européenne, aux États-Unis et ailleurs dans le monde avant de déterminer sa propre approche.
Comme de nombreux témoins l'ont souligné, la LIAD comporte depuis le début de graves lacunes sur le plan de la procédure. Le fait de l'avoir intégrée à la modernisation de la LPRPDE attendue depuis longtemps a rendu beaucoup plus difficile la tenue de l'examen approfondi que méritent ce texte législatif et celui sur l'IA.
Le ministre s'est d'abord attribué de vastes pouvoirs de réglementation, ce qui l'a placé en conflit d'intérêts avec son mandat de promotion de l'industrie canadienne de l'IA. Ses récents amendements sont loin d'être suffisants pour assurer l'indépendance réglementaire requise.
Le vous a dit que la LIAD offre un cadre durable fondé sur des principes. Ce n'est pas le cas.
La plus grave lacune tient au fait qu'aucune consultation publique n'a été menée, que ce soit auprès d'experts ou de Canadiens en général, avant ou depuis le dépôt de la LIAD. Cela signifie que ce texte n'a pas été examiné selon un éventail suffisamment large de points de vue. Plus fondamentalement, il manque de légitimité démocratique, lacune à laquelle le processus parlementaire actuel ne permet pas de remédier.
Le ministre semble sensible à cette question. Lors de son témoignage ici, il s'est vanté du fait qu'ISDE avait tenu « plus de 300 rencontres avec des universitaires, des entreprises et des gens de la société civile sur le projet de loi ». Dans sa lettre subséquente, dans laquelle il vous fournit la liste de ces réunions, il dit qu'ISDE a déployé des efforts particuliers afin de nouer le dialogue avec des intervenants représentant divers points de vue.
D'après mon analyse de cette liste de réunions, qui vous a été envoyée le 6 décembre, ces propos sont trompeurs. L'écrasante majorité des participants à ces réunions d'ISDE provenaient d'organisations commerciales. Il y a eu 223 réunions en tout, dont 36 avec des géants technologiques américains. Seulement neuf réunions rassemblant des organisations de la société civile canadienne ont eu lieu.
Ce qui est le plus frappant, c'est l'absence complète d'organisations représentant les personnes que la LIAD est censée protéger le plus, c'est‑à‑dire les organisations dont les membres sont susceptibles d'être directement touchés par les applications de l'IA. Il s'agit de citoyens, d'Autochtones, de consommateurs, d'immigrants, de parents, d'enfants, de communautés marginalisées ainsi que de travailleurs ou de professionnels des secteurs de la santé, des finances, de l'éducation, de la fabrication, de l'agriculture, des arts, des médias, des communications et des transports, soit tous les domaines où l'IA est prétendument bénéfique.
La LIAD viole les normes démocratiques d'une façon qui ne peut pas être corrigée par de seuls amendements. Ce texte doit donc être renvoyé en vue d'une refonte en bonne et due forme. Dans mon mémoire, je formule des suggestions sur la façon de faire cela avec souplesse, dans les délais initialement prévus pour la LIAD.
Cependant, je suis conscient que la volonté politique commune d'aller de l'avant avec cette option n'existe peut-être pas à l'heure actuelle. Si vous décidez d'aller de l'avant avec cette version de la LIAD, je vous exhorte à en corriger à tout le moins les nombreuses graves lacunes relatives aux huit aspects suivants.
Tout d'abord, séparer la LIAD des parties 1 et 2 du projet de loi afin que chacun des sous-projets de loi puisse être étudié comme il se doit.
Faire en sorte que le commissaire à l'IA et aux données soit indépendant d'ISDE, et qu'il dispose d'un effectif suffisant et d'un financement adéquat.
Assujettir la LIAD à un cycle d'examen obligatoire, et exiger que tout renouvellement ou toute révision soit fondé sur des données probantes, éclairé par des experts et modéré de façon indépendante par une véritable consultation publique. Cela devrait comprendre une sensibilisation proactive des intervenants n'ayant pas participé aux réunions tenues à ce jour par ISDE sur le projet de loi , en commençant par les consultations relatives au règlement. Cela me rappelle l'expression connue selon laquelle si vous n'êtes pas invité à table, c'est que vous figurez au menu.
Élargir la portée des préjudices au‑delà du soutien individuel pour inclure les préjudices collectifs et systémiques, comme d'autres vous l'ont mentionné.
Fonder les exigences clés sur des principes solides et largement admis dans la législation, et non uniquement dans des règlements ou des annexes.
Ancrer explicitement ce cadre fondé sur des principes dans la protection des droits fondamentaux de la personne et le respect du droit humanitaire international, conformément au traité en préparation du Conseil de l'Europe, auquel le Canada a contribué.
Remplacer la notion inadéquate de système à incidence élevée par celle de système entièrement échelonné et fondé sur le risque, comme c'est le cas dans la loi sur l'IA de l'Union européenne.
Dresser une liste très précise de systèmes interdits en raison des risques excessivement élevés qu'ils posent.
Je pourrais continuer.
Je vous remercie de votre attention. Je serai heureux de répondre à vos questions.
:
Je vous remercie de m'avoir invité à comparaître devant vous aujourd'hui. Je suis professeur adjoint d'ingénierie informatique et d'informatique à l'Université de Toronto, membre du corps professoral de l'Institut Vector, où je suis titulaire d'une chaire CIFAR d'IA au Canada, et membre du corps professoral affilié de l'Institut Schwartz Reisman.
[Français]
Mon domaine d'expertise se trouve à l'intersection de la sécurité informatique, de la protection des renseignements personnels et de l'intelligence artificielle.
Je vais d'abord commenter la Loi sur la protection de la vie privée des consommateurs proposée dans le projet de loi . Les arguments que je vais présenter sont le fruit de discussions avec les professeurs Lisa Austin, David Lie et Aleksandar Nikolov, des collègues.
[Traduction]
Je ne crois pas que, dans sa forme actuelle, la loi comporte les bonnes mesures pour inciter à l'adoption de normes en matière d'analyse de données préservant la confidentialité. Plus précisément, le fait que la loi s'appuie sur la dépersonnalisation comme outil de protection de la vie privée est inopportun. Par exemple, comme vous le savez, la loi permet aux organisations de divulguer des renseignements personnels à des fins socialement bénéfiques si ces renseignements sont dépersonnalisés.
En tant que chercheur dans ce domaine, je dirais que la dépersonnalisation crée un faux sentiment de sécurité. En effet, nous pouvons utiliser des algorithmes pour repérer des modèles dans les données, même lorsque des mesures ont été prises pour cacher ces modèles.
Par exemple, l'État de Victoria, en Australie, a publié des données sur le transport en commun qu'on avait dépersonnalisées en remplaçant le numéro d'identification du titulaire de chaque carte à puce par un numéro d'identification aléatoire unique. Le raisonnement était qu'il n'y a pas d'identification sans identificateur. Cependant, des chercheurs ont cartographié leurs propres déplacements en utilisant leur carte chaque fois qu'ils montaient dans un véhicule de transport en commun et qu'ils en descendaient, et ils ont pu se réidentifier eux-mêmes. Forts de cette connaissance, ils ont ensuite appris les numéros d'identification aléatoires attribués à leurs collègues, ce qui leur a permis de se renseigner sur n'importe quel autre déplacement — voyage de fin de semaine, visite chez le médecin — que la plupart des gens considéreraient comme confidentiel.
[Français]
En tant que chercheur dans ce domaine, cela ne me surprend pas.
[Traduction]
De plus, l'IA peut automatiser la recherche de ces modèles.
L'IA permet de réidentifier une grande partie des personnes au sein de l'ensemble de données. Ainsi, la loi est problématique pour ce qui est de réglementer la protection de la vie privée dans un monde d'IA.
Au lieu de la dépersonnalisation, la communauté technique a adopté différentes approches en matière d'analyse des données confidentielles, notamment la confidentialité différentielle. Il a été démontré que la confidentialité différentielle fonctionne bien avec l'IA et peut préserver la confidentialité, même si certaines choses sont déjà connues au sujet des données. Cela aurait protégé la vie privée des collègues dans l'exemple que j'ai donné plus tôt. Comme la confidentialité différentielle ne dépend pas de la modification de renseignements personnels, cela crée un décalage entre les exigences de la loi et les nouvelles pratiques exemplaires techniques.
[Français]
Je vais maintenant commenter la portion du projet de loi proposant une loi sur l'intelligence artificielle et les données. Le texte initial était ambigu quant à la définition d'un système d'intelligence artificielle et d'un système à incidence élevée. Les amendements proposés en novembre à ce sujet semblent aller dans la bonne direction. Cependant, la loi proposée doit être plus claire en ce qui concerne la gouvernance des données.
[Traduction]
À ce moment‑ci, d'importants aspects de la gouvernance des données pouvant donner lieu à des systèmes d'IA nuisibles sont absents du projet de loi. Par exemple, une gestion inadéquate des données se traduit par un ensemble de données non représentatif. Mes collègues et moi avons illustré ce risque au moyen de données synthétiques utilisées pour entraîner des systèmes d'IA générant des images ou du texte. Si on alimente ces systèmes d'IA au moyen de leurs propres résultats, c'est‑à‑dire pour entraîner de nouveaux systèmes d'IA, ces nouveaux systèmes fonctionnent mal. Pour utiliser une analogie, la photocopie d'une photocopie n'est plus fiable.
De plus, ce phénomène peut toucher particulièrement des populations déjà exposées au risque d'être sujettes à des biais nuisibles liés à l'IA, ce qui peut propager la discrimination. J'aimerais que des considérations plus larges concernant la gestion des données figurent dans la loi.
Pour revenir au projet de loi lui-même, je vous encourage à envisager de produire des documents de soutien pour faciliter sa diffusion. L'IA est un domaine qui évolue très rapidement, et il n'est pas exagéré de dire qu'il y a de nouveaux développements chaque jour. En tant que chercheur, il est important que j'explique à la prochaine génération de talents en IA ce que signifie la conception d'une IA responsable. Lorsque vous mettrez la dernière main au projet de loi, veuillez tenir compte des documents en langage clair que des universitaires et d'autres peuvent utiliser en classe ou en laboratoire. Ce sera très utile.
[Français]
Enfin, puisque le Comité travaille sur la réglementation de l'intelligence artificielle, j'aimerais faire remarquer que le projet de loi n'aura pas de répercussions s'il n'y a plus d'écosystème de l'intelligence artificielle à réglementer.
[Traduction]
Si j'ai choisi le Canada en 2018 plutôt que les autres pays qui essayaient de me recruter, c'est parce que le Canada m'a offert le meilleur environnement de recherche possible pour faire mon travail sur l'IA responsable, grâce à la Stratégie pancanadienne en matière d'IA. Sept ans après le lancement de la stratégie, le financement de l'IA au Canada n'a pas suivi le rythme. D'autres pays offrent un financement plus important aux étudiants et une meilleure infrastructure informatique, deux éléments nécessaires pour demeurer à l'avant-garde de la recherche sur l'IA responsable.
[Français]
Je vous remercie de vos travaux, qui posent les fondements d'une intelligence artificielle responsable. J'ai cru important de souligner ces quelques pistes d'amélioration dans l'intérêt de l'intelligence artificielle au Canada.
Je reste à votre disposition pour répondre à vos questions.
:
Merci, monsieur le président.
Je vais commencer par nos invités qui témoignent par vidéoconférence pour les faire participer à la conversation, d'abord M. Clement, puis Mme Bednar.
Monsieur Clement, vous avez mentionné le nombre de réunions, soit 223, auxquelles ont participé des représentants du secteur des affaires. M. Gaheer a posé une question que j'ai trouvé intéressante, et elle portait sur les algorithmes. Je me demande, si l'on se concentre uniquement sur les consultations auprès des entreprises… Par le passé, le Comité a examiné, par exemple, le prix de l'essence. Il s'agit d'une industrie verticalement intégrée où il n'y a pas de véritable concurrence parce que le raffinage est effectué par un groupe restreint de sociétés. En fait, une partie de l'essence de marque s'est essentiellement déplacée d'un marché à l'autre. Il y a aussi eu la fixation des prix du pain. Nous avons également reçu des représentants du Bureau de la concurrence à ce sujet. Les PDG nous ont même avoué qu'ils n'avaient même pas eu à s'entendre pour éliminer la rémunération des héros offerte au personnel des magasins d'alimentation. Ils l'ont tous éliminée le même jour. Comme par miracle, ils en sont arrivés à la même conclusion.
Ma question est la suivante: est‑il possible, par l'entremise du secteur privé, je suppose, de créer des algorithmes qui réduiraient aussi davantage la concurrence? Il n'est même pas nécessaire qu'il y ait collusion s'il n'y a pas de concurrence, comme c'est le cas dans de nombreux marchés au Canada.
J'aimerais entendre d'abord M. Clement au sujet des préoccupations soulevées par l'utilisation d'un plus grand nombre d'algorithmes pour définir le marché canadien au détriment des consommateurs.
L'autre élément qui a été soulevé à plusieurs reprises, c'est que la loi comprend deux volets à la fois complémentaires et tout à fait distincts: l'intelligence artificielle, et tout ce qui concerne la vie privée. Il y a donc des liens à faire entre les deux.
D'un autre côté, comme vous l'avez mentionné, on doit s'adapter aux nouvelles technologies de l'intelligence artificielle, qui évoluent rapidement, ainsi qu'aux réglementations mises en place en Europe, aux États‑Unis et un peu partout dans le monde.
La majorité des experts qui sont venus témoigner, comme vous, depuis le début de l'étude de ce projet de loi nous ont dit qu'il aurait fallu qu'il y ait des consultations bien avant, et qu'à la lumière de celles-ci, on n'aurait probablement pas combiné ces deux éléments dans le même projet de loi.
Aujourd'hui, nous sommes cependant en train d'étudier un projet de loi comportant deux éléments qui, selon la majorité des gens, devraient être séparés. Croyez-vous vous aussi qu'on devrait les séparer, que l'intelligence artificielle est un élément extrêmement important qu'il faudrait traiter de façon indépendante, et qu'il devrait y avoir des consultations beaucoup plus vastes que ce qui a été fait jusqu'à maintenant?
:
Merci, monsieur le président.
Je vais m'adresser à vous, professeure Bednar. Aux XIXe et XXe siècles, des industries ont beaucoup vanté les bénéfices d'un libre marché, sans aucune réglementation. Ça a mené à de grandes fortunes, à de vastes monopoles, ainsi qu'à des abus à l'endroit des consommateurs.
Tout ceci a donné lieu à des réglementations historiques. Il y a d'abord les lois antitrusts que nous connaissons aujourd'hui et les grandes lois sur la protection des consommateurs. Or, avec l'industrie de l'intelligence artificielle qui avance à une vitesse exponentielle, j'ai l'impression que nous avons besoin d'encadrement pour que le marché fonctionne.
Je vais vous citer en anglais, une langue que j'emploie rarement. Vous avez dit plus tôt: « Smart regulation clarifies markets ».
En français, on dirait qu'une réglementation intelligente permet de mieux faire fonctionner les marchés. Comme on le sait, c'est en quelque sorte la base, en science économique.
Pensez-vous que, dans ce contexte, la meilleure solution est que cette industrie et le marché se réglementent eux-mêmes? À votre avis, sommes-nous à un stade du développement de l'intelligence artificielle où la réglementation, considérée d'un point de vue historique, est aussi importante qu'ont pu l'être les lois antitrusts à une certaine époque?
:
Merci, monsieur le président, et bonjour, mesdames et messieurs les députés. Je devrais plutôt dire bonsoir.
Comme on l'a dit, je m'appelle Leah Lawrence et je suis l'ancienne présidente-directrice générale de Technologies du développement durable Canada, ou TDDC. J'y ai travaillé de 2015 à 2023.
Lorsque j'ai commencé à travailler à TDDC, l'organisation était sur le point de fermer ses portes, mais j'ai pu mettre en place une équipe qui l'a transformée. Nous sommes passés d'un dépassement de budget constant de 20 % à un budget sous-utilisé. Le vérificateur général du Canada et le Secrétariat du Conseil du Trésor nous ont félicités officiellement pour notre souplesse accrue, nos divers volets de financement et nos coûts indirects qui représentaient la moitié de ceux de programmes fédéraux comparables. Par conséquent, ISDE, c'est‑à‑dire Innovation, Sciences et Développement économique Canada, a augmenté le financement de TDDC de plus de 200 % pendant mon mandat.
Au cours de la dernière année, j'ai passé beaucoup de temps à répondre à diverses demandes de renseignements à la suite des actions d'un dénonciateur. Cette situation et l'attention médiatique qui en a découlé ont eu de graves répercussions sur moi et sur l'organisation. J'ai eu l'impression que mon leadership était devenu une distraction qui empêcherait TDDC, une organisation à laquelle je me consacrais depuis plus de huit ans, de remplir son mandat. J'ai donc démissionné, même si j'avais la confiance soutenue du conseil d'administration de TDDC. Je souligne que, lorsque j'ai démissionné, je n'ai reçu aucune indemnité de départ, et que, comme les employés de TDDC ne sont pas des fonctionnaires, je n'ai pas reçu de pension du gouvernement.
J'ai décidé de démissionner deux jours après avoir comparu devant le comité de l'éthique de la Chambre des communes, après avoir écouté avec incrédulité le témoignage de Doug McConnachie, le dirigeant principal des finances d'ISDE, devant le même groupe de témoins. Il a dit au Comité qu'il avait passé 30 heures à discuter avec le dénonciateur de TDDC, à formuler des hypothèses, comme en témoignent les enregistrements obtenus par les médias, sur les résultats des diverses enquêtes en cours alors qu'elles se poursuivaient toujours, et a affirmé notamment que ces enquêtes « auraient pu faire les choses de manière à exonérer le conseil et à faire de Leah un bouc émissaire ».
Les agissements de M. McConnachie, en tant que superviseur de l'enquête pour ISDE, étaient contraires à l'éthique et ont compromis l'enquête. Malgré ses agissements, l'enquête n'a révélé aucun acte répréhensible ou inconduite, et plusieurs recommandations administratives, que l'équipe et moi mettions en œuvre lorsque j'ai décidé de démissionner, ont été faites. Toutefois, je suis ici aujourd'hui pour parler principalement de gouvernance et de conflits d'intérêts.
La Loi sur la Fondation du Canada pour l'appui technologique au développement durable et le gouvernement du Canada établissent le cadre de politique publique. Le conseil d'administration établit le cadre de gouvernance. Dans le cas de TDDC, la moitié des membres du conseil sont nommés par le gouvernement du Canada. De plus, un sous-ministre adjoint d'ISDE assiste à toutes les réunions du conseil et a accès à tous les documents. Cela comprend toutes les recommandations de financement et toutes les discussions sur les conflits d'intérêts.
Le travail du directeur général et de la direction consiste à prendre l'orientation stratégique du gouvernement ainsi que l'orientation en matière de gouvernance du conseil et à en faire des pratiques opérationnelles pour l'organisation. Je souligne que le conseil approuve également tous les financements de projet.
De 2015 à 2019, j'ai beaucoup travaillé à la réforme de la gouvernance avec Jim Balsillie, l'ancien président et Gary Lunn, le président de la gouvernance.
Un changement clé — harmoniser les règles sur les conflits d'intérêts pour nos deux catégories de membres du conseil, y compris limiter et éliminer les conflits directs et instaurer des périodes de réflexion — a été bloqué lorsqu'une personne non nommée par le gouvernement a obtenu une décision du commissaire à l'éthique selon laquelle elle n'avait pas à respecter les mêmes normes de gouvernance que les personnes nommées par le gouvernement. Il devenait donc impossible pour la direction d'imposer les mêmes règles à tous les membres du conseil.
Au début de 2019, il m'est apparu très clairement que le gouvernement voulait remplacer le président du conseil. En mai ou juin 2019, j'ai été informée par le représentant officiel d'ISDE, le sous-ministre adjoint Andy Noseworthy, du fait que Mme Annette Verschuren allait être nommée pour remplacer M. Balsillie.
J'ai exprimé mon inquiétude quant au fait que TDDC finançait un projet pour son entreprise. J'ai dit que je craignais qu'il y ait un risque de conflit d'intérêts et de perception de conflit d'intérêts. J'ai dit que je m'inquiétais du fait que cette nomination pourrait nuire à Mme Verschuren et à TDDC.
Dans les jours qui ont suivi, notre responsable des relations gouvernementales a communiqué avec le personnel du ministre afin de lui faire part de nos préoccupations au sujet de la nomination de Mme Verschuren, en faisant remarquer qu'aucun président précédent n'avait été en situation de conflit d'intérêts direct ou perçu et que, de plus, la nomination du président était auparavant conditionnelle à l'absence de conflits. Par la suite, le sous-ministre adjoint Noseworthy m'a dit qu'en l'absence d'une politique écrite interdisant explicitement à un bénéficiaire de fonds de devenir président, la nomination aurait lieu.
Je crains que mes efforts soutenus visant à continuer de renforcer le régime de gouvernance du conseil d'administration aient été en grande partie contrecarrés à partir de ce moment‑là. Il s'agissait désormais principalement d'un exercice de gestion des conflits, plutôt que d'empêcher ou d'éliminer les conflits.
J'ai continué de travailler à la réforme de la gouvernance avec des conseillers juridiques, et j'ai été heureuse lorsque le conseil d'administration a finalement adopté une politique sur les périodes de restriction après le mandat d'administrateur et a embauché un conseiller en éthique du conseil. Il s'agit là de bonnes avancées, mais elles ne sont pas suffisantes. Une autre réforme importante demeure en suspens: que toute personne nommée au conseil d'administration ne soit pas en situation de conflit d'intérêts.
Ma deuxième recommandation, c'est que le Secrétariat du Conseil du Trésor convoque un groupe de présidents et de directeurs généraux des nombreux organismes indépendants qui fournissent des fonds au nom du gouvernement et leur demandent de quel soutien ils ont besoin pour s'acquitter de leur mandat du point de vue de la gouvernance et de la responsabilité publique.
En conclusion, les organisations indépendantes financées par le gouvernement comme TDDC jouent un rôle important. Elles ont accès à des personnes et à des ressources que le gouvernement n'a pas, et elles peuvent obtenir des résultats qui complètent et appuient les politiques gouvernementales.
Le plan d'action qu'ISDE a exigé de TDDC et que l'organisation a mis en œuvre ne traite pas des questions de gouvernance et de conflit d'intérêts que j'ai soulevées devant vous aujourd'hui et que j'ai défendues tout au long de mon mandat à TDDC.
Je vous remercie du temps que vous m'avez accordé aujourd'hui et je serai heureuse de répondre à vos questions.
Madame Lawrence, bienvenue au Comité. Je vous remercie d'être parmi nous et de prendre le temps de répondre à nos questions.
On est dans un monde où les perceptions sont extrêmement importantes. On comprend que Technologies du développement durable Canada, ou TDDC, est encadré par la Loi sur la Fondation du Canada pour l’appui technologique au développement durable et par des règles. On comprend aussi que cet organisme distribue des fonds publics et que, par ailleurs, il est sujet à la curiosité des parlementaires et à l'œil du public, ce qui est légitime.
Dans ce contexte, j'en reviens à l'exemple du cas de Mme Verschuren, qui avait accepté la présidence du conseil d'administration de TDDC alors que certaines de ses entreprises recevaient des fonds de l'organisme. Nous savons aussi que d'autres montants leur avaient été alloués par la suite, mais on nous a dit que des avis juridiques avaient été produits.
Nous comprenons donc que, d'une part, on considérait qu'il n'était pas illégal de procéder ainsi, mais que, d'autre part, on avait déjà des doutes importants sur l'éthique de la chose. Or, normalement, quand on demande un avis juridique dans une situation comme celle-là, ne devrait-on pas tout simplement faire un pas en arrière et refuser le poste ou, encore, ne pas accepter les fonds?
:
Je mentionnerais deux ou peut‑être trois choses.
Lorsque j'ai commencé à travailler à TDDC, en 2015, j'ai été surprise de constater que les politiques sur les conflits d'intérêts étaient les mêmes pour les employés que pour le conseil d'administration. Autrement dit, les employés avaient le droit à ce moment‑là d'être en conflit d'intérêts direct. Une de mes premières décisions comme PDG a été de faire la distinction entre ces deux politiques et de m'assurer que les employés n'étaient pas en conflit direct. Cette décision s'applique toujours de nos jours.
Concernant le conseil d'administration, tout ce qu'un PDG peut faire est d'émettre des conseils. La politique sur l'éthique applicable au conseil d'administration a toujours permis à ses membres d'avoir des conflits. Lorsque j'ai été nommée, ce n'était pas le cas de la plupart des administrateurs nommés par le gouverneur en conseil, mais la pratique de longue date était que les administrateurs non nommés par le gouvernement gèrent les conflits, comme nous en avons parlé plus tôt.
Le processus en place se déroule comme suit: avant de nous lancer dans une ronde du comité d'investissement, nous gérons les conflits permanents des administrateurs nommés au conseil. Le vice‑président et le directeur de l'investissement évaluent toujours les conflits qui existent en pareil cas.
Ensuite, nous demandons bien avant la réunion que le conseil d'administration déclare les conflits d'intérêts réels ou perçus avec un récipiendaire potentiel et ses partenaires de consortium. Il faut en être informé avant que les membres du conseil ne reçoivent de documents. S'ils déclarent un conflit d'intérêts, ceux‑ci ne recevront pas de documents liés au conflit dans le cartable qui leur est remis.
Dans le cartable, toutes les déclarations sont résumées, et le président demande durant la réunion s'il faut faire des ajouts ou apporter des changements. Tout membre du conseil qui s'est rendu compte de quelque chose entre ces dates peut alors faire part de ces nouvelles informations.
Voilà le processus.
L'idée, c'est que ces informations soient consignées au procès‑verbal et qu'un suivi soit effectué, selon le cas.
C'est ainsi que cela fonctionne. Il y a eu un suivi dans la plupart des cas. C'est la gestion des conflits que nous avions en place.