:
Je déclare la séance ouverte.
Bon après-midi, tout le monde, et bienvenue à la 101e réunion du Comité permanent de l'industrie et de la technologie de la Chambre des communes.
La réunion d'aujourd'hui se déroule sous forme hybride, conformément au Règlement.
Conformément à l'ordre de renvoi du lundi 24 avril 2023, le Comité reprend l'étude du projet de loi .
J'aimerais souhaiter la bienvenue aux témoins. Aujourd'hui, nous accueillons M. Jean‑François Gagné, consultant stratégique en intelligence artificielle, à qui nous allons laisser la chance de faire son allocution quand il va se joindre à nous un peu plus tard. Nous recevons également Mme Erica Ifill, journaliste et fondatrice d'un balado sur l'intelligence artificielle, ainsi que M. Adrian Schauer, fondateur et président-directeur général d'AlayaCare.
[Traduction]
Je tiens à vous remercier, monsieur Schauer, de vous être libéré de nouveau aujourd'hui. Je sais que nous avons déjà eu des difficultés techniques, mais le casque d'écoute semble bien fonctionner cet après-midi. Merci d'être revenu.
Merci également, madame la greffière, de votre aide.
Nous accueillons Nicole Janssen, co‑fondatrice et présidente directrice générale d'AltaML Inc., et Jérémie Harris, de Gladstone AI.
[Français]
Finalement, nous recevons Mme Jennifer Quaid, professeure agrégée et vice-doyenne à la recherche à la Section de droit civil de la Faculté de droit de l'Université d'Ottawa. Elle est accompagnée de Céline Castets‑Renard, professeure titulaire de droit civil à cette même faculté.
Comme nous recevons plusieurs témoins, nous allons commencer la discussion sans plus tarder. Chaque intervenant aura la parole pendant cinq minutes.
[Traduction]
Madame Ifill, vous avez la parole.
:
Bonjour au Comité de l'industrie et de la technologie, ainsi qu'à ses adjoints et à tous ceux qui sont dans la salle.
Je suis ici aujourd'hui pour parler de la partie 3 du projet de loi , Loi édictant la Loi sur la protection de la vie privée des consommateurs, la Loi sur le Tribunal de la protection des renseignements personnels et des données et la Loi sur l’intelligence artificielle et les données et apportant des modifications corrélatives et connexes à d’autres lois. La partie 3 est la Loi sur l'intelligence artificielle et les données.
Ce projet de loi présente des problèmes et des difficultés au départ, surtout en raison de ses effets sociétaux et publics.
Primo, lorsqu'il a été rédigé, il y avait très peu de surveillance publique. Il n'y a pas eu de consultations publiques, et il n'y a pas de documents accessibles au public expliquant comment les réunions ont été menées par le conseil consultatif du gouvernement sur l'intelligence artificielle, ni les points qui y ont été soulevés.
Les consultations publiques sont importantes, car elles permettent à divers intervenants d'échanger et d'élaborer des politiques novatrices qui tiennent compte des besoins et des préoccupations des collectivités touchées. Comme on l'a mentionné dans le Globe and Mail, le manque de consultations publiques sérieuses, en particulier auprès des Noirs, des Autochtones, des personnes de couleur, des personnes trans et non binaires, des personnes défavorisées sur le plan économique, des personnes handicapées et d'autres groupes méritants, explique pourquoi la Loi sur l'intelligence artificielle et les données, la LIAD, ne relève pas les préjugés systémiques qui caractérisent l'intelligence artificielle, notamment le racisme, le sexisme et l'hétéronormativité.
Secundo, la LIAD nécessite une surveillance publique adéquate.
Le commissaire à l'intelligence artificielle et aux données qui est proposé est un haut fonctionnaire désigné par le et, par conséquent, n'est pas indépendant du ministre et ne peut pas prendre de décisions publiques indépendantes. De plus, à la discrétion du ministre, le commissaire pourra se faire déléguer le « pouvoir, le devoir » et la « fonction » d'administrer et d'appliquer cette loi sur l'intelligence artificielle. Autrement dit, le commissaire ne peut l'appliquer de façon indépendante, puisque ses pouvoirs dépendent du pouvoir discrétionnaire du ministre.
Tertio, il y a la question des droits de la personne.
Tout d'abord, la définition de « préjudice » est tellement précise, cloisonnée et individualisée que la loi n'a aucun pouvoir. Selon ce projet de loi:
a) préjudice physique ou psychologique subi par un individu;
b) dommage à ses biens; ou
c) perte économique subie par un individu.
C'est tout à fait inadéquat quand il est question de dommages systémiques qui vont au‑delà de la personne et qui sont subis par certaines collectivités. J'ai écrit ce qui suit dans le Globe and Mail:
« À première vue, le projet de loi semble contenir des dispositions visant à atténuer les préjudices », comme l'a dit Sava Saheli Singh, chercheuse agrégée en surveillance, société et technologie au Centre de recherche en droit, technologie et société de l'Université d'Ottawa, « mais la terminologie se limite aux préjudices sur le plan individuel. Nous devons reconnaître les préjudices potentiels pour l'ensemble des populations, en particulier pour celles qui sont marginalisées et qui sont manifestement touchées de façon disproportionnée par ces types de [...] systèmes. »
Les préjugés raciaux constituent également un problème pour les systèmes d'intelligence artificielle, en particulier ceux utilisés dans le système de justice pénale, les préjugés raciaux figurant en tête de liste sur le plan des risques.
Une étude fédérale réalisée en 2019 aux États-Unis a montré que les Asiatiques et les Afro-Américains étaient jusqu'à 100 fois plus susceptibles que les hommes blancs d'être erronément identifiés, suivant l'algorithme et la nature de l'enquête dans chaque cas. Les Amérindiens représentent le taux de faux positifs le plus élevé de toutes les ethnies, selon l'étude, qui a révélé que les systèmes variaient considérablement sur le plan de l'exactitude.
Une étude réalisée au Royaume-Uni a montré que la technologie de reconnaissance faciale testée dans le cadre de l'étude était beaucoup moins performante à l'heure de reconnaître les visages noirs, en particulier ceux des femmes noires. Ces activités de surveillance soulèvent d'importantes préoccupations en matière de droits de la personne, surtout qu'il est avéré que les Noirs sont déjà criminalisés et ciblés de façon disproportionnée par la police. La technologie de reconnaissance faciale touche également de façon disproportionnée les manifestants noirs et autochtones de bien des façons.
Du point de vue de la protection de la vie privée, les systèmes algorithmiques soulèvent des questions de construction, car leur construction exige la collecte et le traitement de grandes quantités de renseignements personnels, ce qui peut être très intrusif. La réidentification de renseignements anonymisés, qui peut se produire par la triangulation de points de données recueillis ou traités par des systèmes algorithmiques, constitue un autre risque important pour la vie privée.
Il y a des conséquences ou des risques délétères découlant de l'utilisation de la technologie concernant la situation financière ou le bien-être physique ou psychologique des personnes. Le principal problème, c'est qu'il est possible de recueillir toutes sortes de renseignements personnels qui servent à surveiller et à trier socialement, ou à établir le profil, des personnes et des collectivités, ainsi qu'à prévoir et à influencer leur comportement. C'est ce que font les services de police prédictifs.
En conclusion, les systèmes algorithmiques peuvent également être utilisés dans le contexte du secteur public pour évaluer si une personne a droit à recevoir des services sociaux, comme l'aide sociale ou l'aide humanitaire, ce qui peut entraîner des effets discriminatoires en fonction du statut socioéconomique et de l'emplacement géographique, parmi d'autres données analysées.
Je pense que ce sera un point de vue intéressant à côté de celui de Mme Ifill.
Je suis le fondateur et président-directeur général d'AlayaCare. C'est une entreprise de logiciels de soins à domicile. Nous offrons nos solutions aux fournisseurs du secteur privé et aux autorités sanitaires du secteur public.
Dans le domaine de l'apprentissage automatique, nous offrons toutes sortes de modèles de risque. Ce que nous bâtissons, c'est un modèle qui s'appuiera sur les données sur les patients et leur évaluation, pour aider à déterminer la façon optimale d'affecter les ressources du système de santé pour la santé de la population. Dans cette optique, il est évident qu'il s'agit d'un système qui aura une incidence considérable.
Il y a deux choses que j'aime bien au sujet du cadre du projet de loi. Premièrement, vous cherchez à respecter les normes internationales. À titre de concepteurs de logiciels qui cherchent à générer de la valeur dans notre société, nous ne pouvons pas absolument tout contrôler. Permettez-moi de commencer par vous remercier. La deuxième chose que j'apprécie vraiment, c'est votre segmentation des acteurs entre les gens qui génèrent les modèles d'intelligence artificielle, ceux qui les transforment en produits utiles, et ceux qui les exploitent en public. Je pense que c'est un cadre très utile.
Quant à la partialité, je pense qu'elle soulève des questions intéressantes. Je pense qu'il faut s'attacher à légiférer en bonne et due forme pour éviter les préjugés. Dans l'élaboration du modèle, la seule différence entre une régression linéaire — songez à ce que vous pourriez faire à l'aide d'Excel — et un modèle d'intelligence artificielle, c'est l'aspect de la boîte noire. Certes, s'il s'agit de déterminer comment répartir les ressources du système de santé, on ne veut probablement pas inclure certains éléments qui pourraient être sectaires dans le modèle, parce que ce n'est pas ainsi qu'une société veut répartir les ressources en santé. Avec un modèle d'apprentissage automatique, on va insérer un paquet de données dans une boîte noire pour qu'il en sorte une prédiction ou une optimisation. On peut dès lors imaginer toutes les sortes de préjugés qui peuvent s'insinuer. Disons, par exemple, qu'une certaine identité permet aux gauchers d'éviter l'hospitalisation parce qu'ils réussissent à s'en tirer avec un peu moins de soins à domicile que d'autres... Ce détail ne serait pas programmé dans l'algorithme, mais ce pourrait certainement être un extrant de l'algorithme.
Je pense que nous devons faire attention en attribuant la bonne responsabilité au bon intervenant dans le cadre, et que les concepteurs de modèles doivent sélectionner les données de formation de manière attentive. Pour ce qui est de l'exemple précédent — et je peux le dire avec une certaine certitude —, la raison pour laquelle le modèle de reconnaissance faciale ne fonctionne pas aussi bien pour les communautés autochtones, c'est que le modèle n'a tout simplement pas reçu suffisamment de données sur la formation de ce groupe particulier. Lorsqu'on élabore le modèle d'intelligence artificielle, il faut faire preuve de prudence et démontrer qu'on a pris soin d'avoir un ensemble de formation représentatif qui n'est pas subjectif.
Lorsqu'on met au point un algorithme et qu'on le met sur le marché, il est essentiel à mon avis de fournir le plus de transparence possible aux gens qui l'utiliseront. Ensuite, au niveau de l'usage et du résultat de cet algorithme, il faut un ensemble de formation représentatif et les bonnes mises en garde. Je pense qu'il faut faire attention à ne pas exiger des comptes inappropriés aux concepteurs de modèles. C'est ce qui me préoccupe. Autrement, ce sont des cadres de partialité qui pourraient l'emporter au détriment de l'utilité.
Je pense que nous devons faire attention, avec ce projet de loi, de ne pas nous délester outre mesure des préoccupations à l'égard de la façon dont les ressources devraient être affectées — quel que soit l'usage qui leur est réservé — en les mettant sur le dos du concepteur de l'outil, mais de regarder plutôt du côté de l'utilisateur.
C'est mon point de vue sur le projet de loi.
:
Merci et bonjour, monsieur le président et membres du Comité.
Je suis ici au nom de Gladstone AI, une entreprise de sécurité en intelligence artificielle que j'ai cofondée. Nous collaborons avec des chercheurs de tous les meilleurs laboratoires d'intelligence artificielle au monde, y compris OpenAI et des partenaires du milieu de la sécurité nationale des États-Unis, afin de trouver des solutions à des problèmes urgents en matière de sécurité de l'intelligence artificielle avancée.
Les systèmes d'aujourd'hui peuvent rédiger des programmes logiciels de façon presque autonome, de sorte qu'ils peuvent même rédiger des maliciels. Ils peuvent générer des clones vocaux de gens ordinaires en n'utilisant que quelques secondes d'enregistrement audio, ce qui leur permet d'automatiser et d'élargir des campagnes de vol d'identité sans précédent. Ils peuvent guider les utilisateurs néophytes tout au long du processus de synthèse de composés chimiques contrôlés. Ils peuvent écrire du texte semblable à celui d'un humain et produire des images photoréalistes qui peuvent alimenter, et ont alimenté, des opérations d'ingérence électorale sans précédent et à grande échelle.
Soit dit en passant, ces capacités sont essentiellement survenues inopinément au cours des 24 derniers mois. Les choses se sont transformées à cette époque, invalidant par la même occasion des hypothèses clés en matière de sécurité intégrées aux stratégies, aux politiques et aux plans des gouvernements du monde entier.
La situation ne fera que s'aggraver et elle le fera rapidement. Avec les techniques actuelles, l'équation derrière le progrès de l'intelligence artificielle est devenue fort simple: l'argent entre sous forme de puissance de calcul, et ce qui en sort, ce sont des points sous forme de quotients d'intelligence. Il n'y a pas de moyen connu de prédire les nouvelles capacités qui surgiront à mesure que les systèmes d'intelligence artificielle se répandront en utilisant une plus grande puissance de calcul. En fait, quand les chercheurs d'OpenAI ont utilisé une quantité inédite de puissance informatique pour construire le GPT‑4, leur dernier système, ils n'avaient aucune idée qu'ils étaient en train de développer la capacité de tromper les êtres humains ou de découvrir des cyber-exploits de manière autonome, mais c'est arrivé.
Nous travaillons avec des chercheurs des meilleurs laboratoires au monde sur des problèmes liés à la sécurité de l'intelligence artificielle avancée. Il n'est pas exagéré de dire que dans les milieux pionniers de la sécurité de l'intelligence artificielle, on estime extraofficiellement que celle‑ci ne tardera pas à devenir une arme de destruction massive. La technologie y est. Les laboratoires publics et privés nous disent que les systèmes d'intelligence artificielle seront selon toute attente capables de mener des attaques catastrophiques de maliciels et de soutenir la conception d'armes biologiques, entre autres capacités alarmantes, au cours des prochaines années. Nos propres recherches indiquent que c'est tout à fait plausible.
Au‑delà du côté armement, les données probantes suggèrent également que, à mesure que l'intelligence artificielle avancée approche des capacités générales surhumaines, elle peut devenir incontrôlable et afficher ce qu'on appelle des comportements en quête de pouvoir. Il s'agit notamment de systèmes qui empêchent les gens de les éteindre, qui s'arrangent pour contrôler leur environnement et qui s'améliorent de leur propre chef. Les systèmes les plus avancés d'aujourd'hui présentent peut-être déjà des signes précurseurs de ce comportement. La quête de pouvoir est une catégorie de risque bien établie. Elle s'appuie sur des études empiriques et théoriques réalisées par d'éminents chercheurs et publiées lors des plus grandes conférences mondiales sur l'intelligence artificielle. La plupart des chercheurs en sécurité avec lesquels je parle quotidiennement dans les laboratoires des régions pionnières considèrent que cette quête de pouvoir peut causer une catastrophe mondiale.
Tout cela pour dire que si nous ancrons la législation sur le profil de risque des systèmes actuels d'intelligence artificielle, nous échouerons très probablement à ce qui s'avérera être le plus grand critère de gouvernance de la technologie que nous ayons jamais eu à aborder. Le défi que doit relever la LIAD consiste à atténuer les risques dans un monde où, si les tendances actuelles se poursuivent, le Canadien moyen aura accès à des outils semblables aux armes de destruction massive et où le simple fait de développer des systèmes d'intelligence artificielle pourrait entraîner des risques catastrophiques.
D'ici l'entrée en vigueur de la LIAD, nous nous retrouverons en 2026. Les systèmes d'intelligence artificielle des régions pionnières auront été mis à l'échelle des centaines à des milliers de fois au‑delà de ce que nous voyons aujourd'hui. J'ignore quelles seront les capacités. Comme je l'ai mentionné plus tôt, personne ne peut le savoir. Cependant, lorsque je parle à des chercheurs en intelligence artificielle des régions pionnières, les prévisions que j'entends laissent supposer que le risque à l'échelle des armes de destruction massive est absolument là qui guette sur cet horizon temporel. La LIAD doit être conçue en tenant compte de ce degré de risque.
Pour relever ce défi, nous estimons que la LIAD devrait être modifiée. Voici nos trois principales recommandations:
Premièrement, la LIAD doit interdire explicitement les systèmes qui présentent des risques extrêmes. Étant donné que les systèmes d'intelligence artificielle au‑dessus d'un certain niveau de capacité sont susceptibles d'introduire des risques comme armes de destruction massive, il devrait exister un niveau de capacité, et donc un niveau de puissance informatique, au‑delà duquel le développement de modèles sera tout simplement interdit, et ce, jusqu'à ce que les concepteurs puissent prouver que leurs modèles sont dépourvus de certaines capacités dangereuses.
Deuxièmement, la LIAD doit s'attaquer au développement à source ouverte de modèles d'intelligence artificielle dangereusement puissants. Dans sa forme actuelle, d'après ce que j'ai lu, la LIAD me permettrait de créer un modèle qui peut concevoir et exécuter automatiquement des attaques sous forme de maliciels paralysants et les publier pour que n'importe qui puisse les télécharger gratuitement. S'il est illégal de publier des modes d'emploi pour la fabrication des armes biologiques ou des bombes nucléaires, il devrait être tout aussi illégal de publier des modèles d'intelligence artificielle qui peuvent être téléchargés et utilisés par quiconque voudra suivre le mode d'emploi pour quelques centaines de dollars.
Enfin, la LIAD devrait traiter explicitement de la phase de recherche et de développement du cycle de vie de l'intelligence artificielle. C'est très important. À partir du moment où le processus de développement commence, de puissants modèles deviennent des cibles attrayantes pour le vol par un pays, un État et d'autres acteurs. À mesure que les modèles acquièrent de plus en plus de capacités et de connaissances du contexte pendant le processus de développement, la perte de contrôle et les accidents sont à craindre de plus en plus. Les concepteurs devraient assumer la responsabilité de veiller au développement et au déploiement de leurs systèmes en toute sécurité.
La LIAD est une amélioration par rapport au statu quo, mais il faut y apporter des modifications importantes pour relever tous les défis qui découleront probablement des capacités d'intelligence artificielle dans un proche avenir.
Vous trouverez nos recommandations complètes dans mon mémoire et je serai heureux de répondre à vos questions. Merci.
:
Monsieur le président, messieurs les vice-présidents et chers membres du Comité permanent de l'industrie et de la technologie, c'est avec grand plaisir que je me présente à nouveau devant vous; cette fois-ci pour parler du projet de loi .
[Traduction]
Je suis reconnaissante de pouvoir partager mon temps de parole avec ma collègue Céline Castets‑Renard, qui est en ligne et qui est titulaire de la chaire de recherche de l'université sur l'intelligence artificielle responsable dans un contexte mondial. À titre d'experte juridique en intelligence artificielle au Canada et dans le monde, elle est amplement au courant de ce qui se passe à l'étranger, particulièrement dans l'Union européenne et aux États‑Unis. Elle dirige également un projet de recherche sur la gouvernance de l'intelligence artificielle au Canada financé par le Conseil de recherches en sciences humaines du Canada, le CRSH, dont je fais partie. Le projet de loi vise directement à répondre à la question qui vous occupe aujourd'hui dans le cadre de l'étude de ce projet de loi, c'est‑à‑dire la façon de créer un système qui soit conforme aux grandes lignes de ce que font les pays européens, le Royaume‑Uni et les États‑Unis, tout en restant néanmoins fidèles à nos valeurs et aux fondements de notre environnement juridique et institutionnel. Bref, nous devons créer un projet de loi qui fonctionnera chez nous, et c'est ce que visent nos commentaires, du moins pour ma part. Mme Castets‑Renard vous parlera plus précisément des détails du projet de loi qui portent sur la réglementation de l'intelligence artificielle.
Notre message commun est simple. Nous croyons fermement que le projet de loi est une étape importante et positive dans le processus d'élaboration d'une gouvernance solide en faveur de l'intelligence artificielle responsable. De plus, il est essentiel et urgent que le Canada établisse un cadre juridique à l'appui de cette gouvernance responsable. Les principes éthiques ont leur place, mais ils sont complémentaires et ne sauraient remplacer des règles rigoureuses et des normes exécutoires contraignantes.
Notre objectif est donc de vous fournir une rétroaction et des recommandations constructives pour vous aider à peaufiner le projet de loi. À cette fin, nous avons présenté un mémoire écrit, en anglais et en français, qui met en lumière les points qui, selon nous, gagneraient à être clarifiés ou mieux précisés avant son adoption.
Cela ne signifie pas que d'autres améliorations ne sont pas souhaitables. Au contraire, il faut croire qu'elles le sont. L'ennui c'est que le temps presse et nous devons nous contenter de ce qui est réalisable pour le moment, parce que le retard n'est tout simplement pas une option.
Dans cette déclaration d'ouverture, nous attirons votre attention sur un sous-ensemble de ce dont nous discutons dans le mémoire. Je vais aborder brièvement quatre points avant de céder la parole à ma collègue, Mme Castets‑Renard.
Premièrement, il importe d'établir qui est responsable de quels aspects du développement, du déploiement et de la mise en marché des systèmes d'intelligence artificielle. C'est important pour déterminer la responsabilité, en particulier des organisations et des entités commerciales. Si on s'y prend comme il faut, cela peut aider les responsables de l'application de la loi à recueillir des preuves et à évaluer les faits. Autrement, il y aura une immunité structurelle contre la reddition de comptes et il sera impossible de trouver de quoi prouver des infractions à la loi.
J'ajouterais également que la conception actuelle de la reddition de comptes est fondée uniquement sur l'action de l'État, et je me demande si nous ne devrions pas également tenir compte des droits d'action privés. Ces droits sont examinés dans d'autres domaines, y compris, je le précise, dans le projet de loi , qui modifie la Loi sur la concurrence.
Deuxièmement, nous devons faire preuve de prudence à l'heure d'établir les obligations et les devoirs de ceux qui participent à la chaîne de valeurs de l'intelligence artificielle. Les règlements devraient être rédigés en fonction des indicateurs qui peuvent servir à mesurer la conformité. Surtout dans le contexte de la responsabilité réglementaire et des sanctions administratives, les tribunaux examineront ce que les organismes de réglementation exigent des intervenants de l'industrie pour décider ce qui constitue une diligence raisonnable et ce à quoi on peut s'attendre d'une personne raisonnablement prudente dans les circonstances.
Bien que la preuve de la conformité à la réglementation incombe habituellement à l'entreprise qui l'invoque, il est important que les enquêteurs et les procureurs puissent examiner les réclamations. Ces paramètres et indicateurs doivent être vérifiables indépendamment et fondés sur des recherches solides. Dans le contexte de l'intelligence artificielle, leur opacité et la difficulté pour les gens de l'extérieur de comprendre la capacité des systèmes font qu'il soit d'autant plus important d'établir des normes.
Troisièmement, les obligations de déclaration devraient être obligatoires et non ponctuelles. À l'heure actuelle, la loi confère au commissaire à l'intelligence artificielle et aux données le pouvoir d'exiger des renseignements. Les demandes ponctuelles ne sont pas suffisantes pour garantir la conformité. Il devrait plutôt s'agir par défaut de rapports réguliers aux organismes de réglementation, avec des exigences normalisées en matière d'information. Ces organismes sauront ainsi au fur et à mesure ce qui se passe au niveau de la recherche, du déploiement et du marketing, même si l'intelligence artificielle se développe de façon exponentielle.
Cela permet de renforcer les connaissances et les capacités institutionnelles des organismes de réglementation et d'application de la loi afin de faire la distinction entre les situations qui exigent l'application de la loi et celles qui ne l'exigent pas. Cela semble être le nœud du problème. Tout le monde veut savoir quand intervenir et quand laisser les choses évoluer. Cela permet également l'élaboration interne de nouveaux règlements en fonction des tendances et d'autres nouveautés.
Je me ferai un plaisir de vous donner quelques exemples. Inutile de réinventer la roue.
Enfin, l'application et la mise en œuvre de la LIAD, ainsi que l'élaboration continue de nouveaux règlements, doivent être appuyées par une structure institutionnelle indépendante et solide dotée de ressources suffisantes.
Le commissaire à l'intelligence artificielle proposé ne peut pas y arriver seul. Même si ce n'est pas une analogie parfaite — et je sais que certaines personnes ici savent que je suis l'experte en matière de concurrence —, je crois que la création d'un organisme semblable au Bureau de la concurrence serait un modèle à envisager. Ce n'est pas parfait. Le Bureau est un bon exemple parce qu'il combine l'application de tous les types de la loi — criminelle, réglementaire, administrative et civile — avec l'éducation, la sensibilisation du public, l'élaboration de politiques et, maintenant, le renseignement numérique. Il dispose d'une main-d'œuvre hautement spécialisée formée dans les disciplines pertinentes dont il a besoin pour s'acquitter de son mandat. Il représente également les intérêts du Canada dans des forums multilatéraux et collabore activement avec les administrations homologues. Je pense que c'est important d'avoir tout cela pour l'intelligence artificielle.
Je vais maintenant céder le temps qu'il me reste à ma collègue, Mme Castets‑Renard.
Merci.
:
Je vous remercie beaucoup, monsieur le président, messieurs les vice-présidents et chers membres du Comité permanent de l'industrie et de la technologie.
Je voudrais également remercier ma collègue, la professeure Jennifer Quaid, de partager son temps avec moi.
Je limiterai mon intervention à trois commentaires généraux. Tout d'abord, je pense qu'une réglementation de l'intelligence artificielle est absolument nécessaire aujourd'hui, et ce, pour trois raisons principales. Premièrement, l'importance et l'ampleur des risques actuels sont déjà très bien documentées. Certains témoins ici ont déjà parlé des risques actuels, comme les risques de discrimination, et des risques futurs et existentiels. Il faut absolument considérer aujourd'hui l'impact de l'intelligence artificielle, en particulier sur les droits fondamentaux, y compris la vie privée, la non-discrimination, la protection de la présomption d'innocence et, bien sûr, le respect des garanties procédurales de transparence et de redevabilité, notamment dans le cadre de l'administration publique.
La réglementation de l'intelligence artificielle est aussi nécessaire, parce que le déploiement de ces technologies est très rapide et que les systèmes se développent et se déploient maintenant dans tous les pans de nos vies professionnelle et personnelle. À l'heure actuelle, ils peuvent se déployer sans aucun contrôle, puisqu'il n'y a pas de réglementation spécifique. On l'a bien vu avec l'arrivée sur le marché de ChatGPT.
Également, on peut constater que le Canada a développé une stratégie pancanadienne depuis plusieurs années dans le domaine de l'intelligence artificielle, et le moment est venu aujourd'hui de sécuriser ces investissements et d'apporter une sécurité juridique aux entreprises. Cela ne veut pas dire qu'il faut laisser faire, mais, au contraire, donner un cadre simple et surtout lisible des obligations qui doivent s'appliquer tout au long de la chaîne de responsabilité.
La deuxième remarque générale que je voudrais faire est que cette réglementation doit être compatible avec le droit international. Il y a déjà aujourd'hui plusieurs initiatives et le Canada est loin d'être seul à vouloir réglementer l'intelligence artificielle. Je pense en particulier, à l'échelle internationale, aux différentes initiatives de l'Organisation de coopération et de développement économiques, du Conseil de l'Europe, et surtout de l'Union européenne et de son projet de loi sur l'intelligence artificielle qui devrait, demain, recevoir un accord politique dans le cadre des négociations interinstitutionnelles, du trilogue, entre le Conseil de l'Union européenne, le Parlement européen et la Commission européenne. On est vraiment en phase finale de l'adoption de ce texte, qui est sur le tapis depuis deux ans. Il faut aussi considérer l'Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence du président Biden, auquel s'ajoutent les normes techniques élaborées notamment par le National Institute of Standards and Technology et par l'Organisation internationale de normalisation.
Ma dernière remarque porte sur la façon de réglementer l'intelligence artificielle. La loi proposée ici n'est pas parfaite, mais nous pouvons considérer que l'approche fondée sur les risques est bonne, mais elle doit être renforcée. On devrait notamment penser aux risques inacceptables à l'heure actuelle, qui ne sont pas forcément des risques existentiels, mais bien des risques que l'on peut voir aujourd'hui, comme l'utilisation de la reconnaissance faciale à grande échelle. Nous pouvons aussi considérer que les risques des systèmes à incidence élevée doivent être mieux définis.
Nous soulignons et saluons les amendements qui ont été apportés par le devant votre Comité il y a quelques semaines. D'ailleurs, nos remarques suivantes et notre mémoire sont basés sur ces amendements. Il a été souligné précédemment qu'il faudrait tenir compte des risques individuels, mais aussi des risques collectifs aux droits fondamentaux, notamment des risques systémiques.
J'ajouterais qu'il est absolument nécessaire, comme les amendements du ministre Champagne invitent à le faire, de considérer à part l'intelligence artificielle à usage général, qu'il s'agisse de systèmes ou de modèles de fondation. Nous pourrons y revenir.
À mon avis, l'approche fondée sur la conformité, qui transparaît des amendements apportés récemment, est celle à adopter et elle est tout à fait compatible avec celle de l'Union européenne.
Enfin, l'approche doit être la plus globale possible et, à l'heure actuelle, le champ d'application du projet de loi est, à mon sens, trop limité, et essentiellement concentré sur le secteur privé. Il faudrait l'étendre au secteur public et engager une discussion et une collaboration avec les provinces selon leurs champs de compétences, et aussi mettre en œuvre un fédéralisme coopératif.
Nous vous remercions de votre attention. Nous nous tenons prêts à la discussion.
Cela me fait plaisir de témoigner devant vous à titre personnel.
Je suis consultant stratégique en intelligence artificielle. J'ai passé toute ma carrière à utiliser cette technologie, qui a vu le jour au début des années 2000. J'ai travaillé en recherche opérationnelle, en intelligence artificielle et en mathématiques appliquées. J'ai développé des outils et des logiciels qui ont été déployés partout sur la planète. En 2016, j'ai créé l'entreprise Element AI et j'ai été son président jusqu'à sa vente à ServiceNow en 2021.
Sur le plan international, j'ai eu de multiples collaborations. J'ai été le coprésident du groupe de travail sur l'innovation et la commercialisation du Partenariat mondial sur l'intelligence artificielle pendant deux ans. J'ai aussi représenté le Canada au sein du Groupe d’experts de haut niveau sur l’intelligence artificielle nommé par la Commission européenne. Le Canada est d'ailleurs le seul pays hors de l'Union européenne à y avoir participé. J'ai coprésidé la rédaction de l'élément livrable principal sur la réglementation et l'investissement pour une intelligence artificielle digne de confiance.
En outre, j'ai participé à plusieurs événements de l'Organisation de coopération et de développement économiques et de l'Institut des ingénieurs électriciens et électroniciens, sans compter plusieurs autres contributions internationales. J'ai également été membre des tables sectorielles fédérales de stratégies économiques pour les industries numériques.
Malgré la présence du Canada dans le domaine de la recherche en intelligence artificielle et sa contribution indéniable à la recherche fondamentale, il perd graduellement son rôle de chef de file. Il faut être conscient du fait que nous ne sommes plus à l'avant-plan. Nos chercheurs ont désormais des ressources limitées. Faire de la recherche et comprendre ce qui se passe dans ce domaine aujourd'hui coûte extrêmement cher, et beaucoup des innovations vont émerger du secteur privé. C'est un fait. Beaucoup des publications des chercheurs sont en fait issues d'une collaboration avec des entreprises étrangères, car c'est de cette manière qu'ils ont accès à des ressources pour faire l'entraînement des modèles et des tests et qu'ils sont capables de continuer à publier et à avoir des idées.
Le Canada a toujours été un peu moins compétitif que les États‑Unis, une situation qui, si elle n'a pas empiré, ne s'est pas améliorée. Lorsqu'on parle d'une technologie aussi fondamentale que l'intelligence artificielle, que j'aime comparer littéralement à l'énergie, on parle d'intelligence, de savoir-faire et de capacités. C'est une technologie qui se déploie déjà dans toutes les industries et dans toutes les sphères de notre vie. Il n'y a absolument aucun recoin de la société qui n'est pas touché par cette technologie.
Ici, je tiens à souligner l'importance de ne pas traiter l'intelligence artificielle de façon uniforme, tout comme on n'aborde pas tous les règlements et les lois entourant le pétrole, le gaz naturel et l'électricité de la même manière. Je pourrais même décliner tous les sous-aspects de la production de chacune de ces ressources. Il est très difficile d'aborder l'intelligence artificielle de la même manière pour l'ensemble de ses applications. Tout avance très vite et est très complexe, et quand on combine tous ces faits, on se sent dépassé. C'est ce qu'on entend trop souvent dans les médias, malheureusement. Nous sommes ici depuis très peu de temps et nous avons déjà entendu les mots « peur » et « avancement », parmi d'autres. Nous avons également entendu parler de l'incertitude quant à l'avenir.
Alors, pour revenir au sujet qui nous occupe, oui, il est absolument urgent d'agir. Je ne suis pas en train de sous-entendre qu'on ne doit pas prendre de mesures, mais ces mesures doivent être à la hauteur de la situation à laquelle nous sommes confrontés.
Nous faisons face à une situation qui évolue rapidement, qui est complexe et qui touche à toutes les sphères de la société. Il faut faire très attention à ne pas adopter une réponse unique, simple et trop forte. Qu'est-ce qu'il va se passer si nous prenons une approche comme cela? Nous allons peut-être nous protéger, mais nous allons certainement nous empêcher de saisir des occasions, de favoriser le développement économique et la croissance de notre productivité, et d'enrichir tout le pays. C'est un fait, tout simplement. Nous ne pourrons pas attraper toutes les situations, car c'est trop complexe.
Si nous essayons de tout faire et d'être pondérés, nos règlements seront trop vagues, ne seront pas efficaces et seront mal compris. La conséquence économique du flou réglementaire — vous le savez mieux que moi — sera que les investissements ne suivront pas. Si nous ne sommes pas certains des conséquences, si ce n'est pas clair ou si les choses seront définies plus tard, les entreprises vont simplement investir ailleurs. Il s'agit d'un domaine numérique hautement mobile. Plusieurs travailleurs canadiens compilent et entraînent les modèles en sol américain, hors de l'application de nos règles, dans nos entreprises et dans nos universités. Il faut en être conscient.
Ces éléments sont vraiment structurants, à mon avis. Ils sont au cœur de notre réflexion sur la manière d'écrire ces règles et, surtout, la manière dont ce sera affiné. Plus encore, ils guident l'effort requis pour faire un bon travail et pour nous offrir un cadre réglementaire clair et précis qui favorise les investissements. Avec un tel cadre, nous saurons exactement ce que nous obtiendrons si nous faisons tel ou tel investissement, nous comprendrons exactement les coûts engendrés pour assurer la transparence, être capables de publier les données et vérifier si elles ont bien été anonymisées.
Cela permettra aux organisations de faire tous les investissements qu'elles veulent faire et que nous souhaitons. Si nous sommes clairs, ces organisations vont être en mesure de faire le calcul et de choisir d'investir au Canada et d'y déployer leurs services ou pas. Il nous reviendra alors de voir si la barre est trop haute et si les critères sont trop restrictifs.
Le flou réglementaire va garantir que les choses ne vont pas déboucher. Les entreprises vont simplement aller ailleurs, car c'est trop facile. Plusieurs autres éléments figurent sur ma liste et je vais vous fournir un résumé de ceux-ci. Je vous prie de m'excuser de ne pas avoir pu le faire avant ma présentation. Je vais faire parvenir au Comité tous les détails et les recommandations concernant les ajustements qui devraient être faits.
Dans ce cadre réglementaire, je crois que la transparence sera très importante pour assurer un climat de confiance. Il faut s'assurer que les utilisateurs de la technologie sont conscients qu'ils interagissent avec celle-ci. Il y a des questions ou des sujets communs à toutes les industries: il s'agit d'être capables de savoir ce que nous obtenons.
Je pense à tous les principes de base: déclarer les services auxquels nous avons accès, leurs paramètres et leurs spécifications. Si un service change ou si son modèle est mis à jour, nous serons ainsi capables d'évaluer les répercussions de son utilisation. Il y a aussi tous les autres principes permettant de s'assurer que les gens ne sont pas manipulés et de respecter les questions d'éthique, entre autres. Ces principes sont fondamentaux et doivent faire partie du cadre réglementaire.
L'une de mes plus grandes préoccupations est le manque de précision et la possibilité que la loi ait une portée trop vaste. J'ai tiré une leçon de ma participation à ce qui a mené à la loi sur l'intelligence artificielle de l'Union européenne: l'Europe a essayé de se doter de mesures législatives exhaustives, qui essaient d'encadrer presque tout. Or, beaucoup des recommandations faites par le comité, à l'époque, visaient le besoin de travailler avec les industries, d'être précis et de ne pas aboutir à une loi qui essaie de tout couvrir.
En effet, il y a toujours une nouvelle situation qui se présente. Il peut s'agir de l'intelligence artificielle générative, ou de la prochaine génération d'intelligence artificielle appliquée à la cybersécurité, à la santé et à toutes les sphères de l'économie, des services et de nos vies. Il y aura toujours quelque chose à amender ou changer.
Selon mon opinion, il faut être prudent à cet égard, avoir une approche extrêmement chirurgicale et élaborer une réglementation particulière à chacun des secteurs et chacune des industries avec leur aide, comme pour le secteur de l'automobile, par exemple.
:
Merci, monsieur le président.
Je remercie tous les témoins.
Monsieur Harris, tantôt, j'avais l'impression d'être dans un film dans lequel un comité parlementaire était en train de mener l'étude d'un projet de loi sur l'intelligence artificielle. Vous disiez aux gens de ce comité que la troisième guerre mondiale arrivait et qu'elle serait technologique, c'est-à-dire qu'on n'utiliserait ni armes ni autre chose. Aujourd'hui, en vous écoutant, j'avais le goût de jurer, mais je ne pouvais pas, malheureusement.
Ma plus grande frustration, qui, je pense, est aussi celle de plusieurs personnes à cette table, c'est que le projet de loi qui est devant nous inclut toute une série d'éléments, dont les trois principaux sont la vie privée, le tribunal et l'intelligence artificielle. Or, selon les témoignages que nous avons entendus aujourd'hui, l'intelligence artificielle aurait dû être traitée dans un projet de loi distinct.
On nous dit qu'il y a déjà eu des avancées importantes en matière d'intelligence artificielle depuis le début de notre étude, dont la signature d'un protocole en Angleterre. Des pays ont décidé de mettre en place un code volontaire en attendant l'adoption de différents projets de loi.
Madame Castets‑Renard, vous avez parlé d'un trilogue, qui traitera certaines questions. J'imagine que vous parliez de l'Europe. Monsieur Gagné, vous avez aussi parlé, tantôt, des mesures proposées dans les rapports que vous avez remis à l'Union européenne. Parlez-vous de la même chose? Je ne suis pas certain de bien comprendre.
:
J'aborde cette question comme avocate de la responsabilité criminelle des personnes morales, ce qui relève principalement du droit pénal. C'est l'une des choses qui m'ont frappée lorsque j'ai parcouru le projet de loi pour la première fois. Invoquer le Code criminel entraîne des coûts pour ce qui est de la façon de préparer les preuves et de tout mettre à point.
Ce qui me préoccupe, c'est le manque de transparence quant aux personnes qui participent aux décisions relatives à cette technologie. Je ne peux pas vous dire ce qu'il en est exactement. Les experts ici présents pourraient peut-être vous illustrer. Cela dit, il nous faut insister sur la nécessité de la transparence, savoir qui fait quoi, parce qu'on ne peut pas condamner une société ou une organisation dans ce pays sans savoir qui a fait quoi, quel est son statut et quel est son pouvoir décisionnel au sein de l'organisation. Je vous invite à consulter l'article 2 du Code criminel, si vous voulez le lire.
Même dans le cas de la responsabilité réglementaire, où un employé peut engager la responsabilité de l'organisation, il n'est pas nécessaire d'avoir un acte constitutif indiquant qu'il s'agit d'un cadre supérieur. Mais il faut quand même savoir qui a fait quoi, sans quoi on n'aura aucune preuve. Je pense qu'il est vraiment important de créer un régime qui force la divulgation de l'information afin que nous puissions l'évaluer.
Cela ne veut pas dire que nous allons condamner ou poursuivre les gens tout le temps, mais si tout est caché, ce n'est qu'un peu de parure superflue. Il n'y aura jamais, à mon avis, de condamnation, ni même de responsabilité administrative.
:
Merci. C'est un témoignage très utile.
Monsieur Harris, j'aimerais vous poser une question semblable à celle de M. Généreux.
J'ai moi aussi eu l'occasion de vous écouter et de me sentir dans un film d'horreur, un roman de science-fiction ou un peu à l'intersection des deux lorsque je vous ai entendu parler. Je sais que vous évoquez ces risques et les préjudices potentiels comme étant très réels, alors je ne veux pas prendre les choses à la légère, mais c'est assez effrayant d'entendre cela.
J'aimerais vous poser une question d'ordre éthique ou philosophique. Vous avez parlé d'atténuer les risques. Vous avez parlé d'une interdiction générale ou explicite de certains types d'intelligence artificielle avancée. Une question qui me vient à l'esprit, c'est de savoir si cette intelligence avancée surpasse l'intelligence humaine. Je pense que c'est ce que j'entends. Vous avez dit que les comportements surhumains et la quête de pouvoir représentaient un risque réel.
Je m'intéresse à la façon dont nous élaborons un cadre éthique ou juridique. Je crois que c'est un défi fondamental dans le cadre de ce travail, avec lequel je suis aux prises. Bon nombre de nos concepts éthiques et juridiques reposent sur des choses comme des avenirs raisonnablement prévisibles. Ils reposent sur des concepts de devoir, etc., dont la plupart dépendent de la capacité humaine à examiner les résultats possibles, compte tenu de notre expérience passée.
Vous avez dit que certaines de nos hypothèses en matière de sécurité nationale avaient été invalidées. Est‑ce en raison des progrès de l'intelligence artificielle? Comment les êtres humains peuvent-ils créer un système ou un ensemble de lignes directrices pour quelque chose qui va au‑delà de notre intelligence?
C'est une question difficile.
:
Ce sont d'excellentes questions.
Heureusement, nous ne manquons pas d'outils pour aborder ces questions. Pour faire suite au témoignage de Mme Quaid, je pense qu'il est tout à fait juste de nous demander comment adapter cela à nos cadres juridiques. Nous n'allons pas remanier entièrement la Constitution du jour au lendemain, ce serait impossible.
Nous devons cependant reconnaître que nous ne pouvons pas prévoir les capacités des systèmes, alors à la conception, nous attendons de pouvoir établir des mesures de sécurité. Nous ne parlons pas d'une interdiction totale. Jusqu'à ce que nous puissions fixer des mesures de sécurité, incitons le secteur privé à faire progresser la science de l'intelligence artificielle et à nous fournir une théorie scientifique qui nous permette de prédire l'émergence de ces capacités dangereuses.
Je dirais aussi que nous pouvons nous inspirer du décret que la Maison‑Blanche a publié récemment. Entre autres choses, ce décret comprend une exigence de production de rapports. On dit que la lumière du soleil est le meilleur désinfectant, alors il faut mettre les choses au grand jour. En entraînant un système d'IA à utiliser une certaine capacité de traitement, il faudra signaler les résultats de diverses vérifications, de diverses évaluations. Ces évaluations porteront sur la capacité de conception d'armes biologiques, sur la capacité de synthèse chimique et sur la capacité d'autoreproduction. Tout cela se trouve dans le décret.
Nous pouvons établir un processus à plusieurs niveaux qui reflète essentiellement ce que contient ce décret. Ce processus serait fondé sur des seuils de capacité de traitement informatique; au‑dessus d'un seuil, il faudra faire ceci, et au‑dessus d'un autre seuil, il faudra faire cela. Ce serait un processus de ce genre.
:
Je suis d'accord sur le fait qu'il est urgent d'établir une base.
Vous connaissez mieux que moi le fonctionnement des lois, entre autres. Je ne sais pas combien de temps il faut pour recommencer les choses, mais j'imagine que cela peut être long. À mon avis, il faudrait donc essayer d'avoir une version qui s'assure d'avoir une base solide, qui s'applique à la majorité des cas et, surtout, qui sera précise. À mon avis, c'est ce qui est gagnant.
Le danger, c'est de commencer à ajouter des choses. J'ai lu les amendements. D'ailleurs, je me suis senti mal quand M. Généreux a dit qu'ils n'avaient pas été publiés, parce que je les ai lus dans le train en venant ici. Je me suis demandé pourquoi j'avais eu accès au texte des amendements.
On a présenté la liste de catégories de systèmes d'intelligence artificielle à incidence élevée. À cet égard, j'aimerais dire qu'il y a tellement d'applications que je me demande pourquoi il existe une catégorie distincte. Il faut être précis, exiger un niveau de transparence plus élevé, s'assurer de se conformer à ces règlements, et prendre en considération tous les coûts qu'implique la mise en place de l'infrastructure. Si on a des idées en tête pour le secteur de la santé, pour le secteur des médias ou pour les médias sociaux, il faudrait être plus précis. Si on ratisse trop large, cela laisse place à l'interprétation.
Si les compagnies en démarrage qui font de la recherche ou qui essaient de développer des produits pour le domaine de la santé doivent aller chercher des capitaux pour mettre en place quelque chose de très élaboré, les coûts seront élevés. C'est le genre de considération qu'il faut avoir en tête. Il faut être précis dans ce qu'on cherche.
Votre témoignage m'a fait du bien, dans la mesure où j'ai l'impression que cela fait plusieurs mois que je suis les questions sur l'intelligence artificielle. Le premier constat, c'est que le Canada était un chef de file, mais il ne l'est plus, malheureusement.
Il faudrait retrouver la bonne locomotive plutôt que de vouloir générer quelque chose nous-mêmes. Personnellement, en tant que Québécois, je me préoccupe toujours de préserver notre différence culturelle et de trouver une façon de protéger l'avenir de nos jeunes entreprises. Cela a des conséquences sur le plan économique.
Une des critiques faites au projet de loi est son manque de clarification quant à l'aspect pénal. Le projet de loi vise l'industrie et, si on adopte une loi, ce n'est pas pour les bons, mais pour les voyous, évidemment. Or, les voyous ont-ils peur de ce qui est présenté dans le projet de loi? Ce dernier impose-t-il une réelle réglementation? Comment peut-on réglementer les voyous de l'industrie?
J'aimerais ajouter une précision concernant le projet de loi : il y a quand même une approche fondée sur le risque qui fait que tous les systèmes d'intelligence artificielle ne seraient pas considérés de la même façon ni soumis aux mêmes obligations. Il y a notamment cette notion d'incidence élevée et, dans les amendements proposés par le ministre Champagne, on a précisé ce que cette notion signifiait dans sept secteurs d'activité différents.
Je ne pense donc pas qu'il soit juste de dire que cela va s'appliquer partout, à tout le monde et n'importe comment. On peut quand même discuter de la façon dont cela va s'appliquer dans sept secteurs d'activité différents. On peut dire que cela ne va pas assez loin, sans doute, mais on ne peut pas dire que c'est une loi qui va manquer de précisions, parce que les amendements en apportent.
Pour revenir à ce qui a été dit tout à l'heure, cela signifie aussi qu'on peut avoir une approche globale avec des principes généraux, ainsi qu'une approche par secteur ou par domaine. C'est ce que fait l'Union européenne dans ses amendements. Il faut donc aussi faire attention à la façon dont on considère les lois à l'étranger.
En ce qui concerne ce qui a été dit sur le Royaume‑Uni tout à l'heure, le Canada a signé une déclaration politique, qui n'a aucune valeur juridique ou contraignante. C'est un texte très général qui n'ajoute rien à ce qu'on a déjà dit sur l'éthique de l'intelligence artificielle. Cela n'empêche absolument pas le Canada de suivre sa propre voie, comme les États‑Unis l'ont fait lorsqu'ils ont divulgué leur décret présidentiel la veille du sommet anglais. Les Américains n'attendent pas particulièrement les Anglais pour aller de l'avant.
Voilà les précisions que je voulais apporter à ce sujet.
:
J'aimerais revenir à la question de savoir s'il faut réglementer le modèle ou les applications finales. Cette question est cruciale, en ce qui nous concerne. Nous devrons intervenir sur les deux tableaux. Les modèles posent irréductiblement des risques. Pensez un peu au ChatGPT d'OpenIA. Cette société construit un système, un modèle. Je ne sais pas si je peux... En fait, je sais que je ne peux pas. Je sais que personne, techniquement, ne peut compter la multitude d'applications finales d'un tel outil. On l'utilise aujourd'hui dans les soins de santé, on l'utilisera demain dans l'exploration spatiale et après-demain dans le l'ingénierie logicielle.
L'idée de créer un modèle générique comme celui‑ci et de l'appliquer à l'aveuglette… Il ne nous dépeindra pas la réalité, malheureusement. Il détectera certains sous-ensembles de risques extrêmes. Nous pourrons nous fier aux risques, par exemple, de modèles génériques capables de s'orienter dans le monde et de bien comprendre le contexte. Ensuite, il faudra les réglementer, parce qu'ils seront une source de risques irréductibles.
Pour d'autres risques, oui, nous devrons établir une réglementation et une législation au niveau de l'application. Encore une fois, vous le voyez dans le décret, nous jouons sur les deux tableaux. Cependant, je tiens à souligner que même s'il semble y avoir une tension entre ces deux approches, elles ne sont pas du tout incompatibles. En fait, à certains égards, elles sont profondément complémentaires.
Je voulais simplement vous faire part de cette idée.
:
C'est tout un défi, mais je vais faire de mon mieux.
Voilà en quoi cela consiste.
Je ne dis pas que nous imiterions absolument le Bureau de la concurrence. Certaines choses seront faites différemment. Le projet de loi envisagé comporte des éléments qui ressemblent aux mesures législatives de la Loi sur la concurrence. Il couvre toute une gamme de mesures pénales, réglementaires, administratives et civiles. Il s'accompagne d'un tribunal spécialisé, mais nous n'avons pas besoin d'en parler tout de suite.
Le fait est qu'il a développé de l'expertise et qu'il compte un important personnel permanent divisé en directions. Il a mis sur pied une agence de renseignement numérique.
Ces éléments appuient ce qui, je crois, a suscité le scepticisme d'autres témoins, à savoir la capacité de livrer les résultats attendus.
Les États‑Unis ne l'ont pas caché. Ils ont simplement dit: « Utilisons nos solides institutions antitrust en attendant de créer autre chose ». D'une certaine façon, nous reproduirions ce qui se fait là‑bas.
L'autre chose sur laquelle je tiens vraiment à insister, si vous voulez bien m'accorder 10 secondes de plus, c'est qu'un organisme dirigé par un commissaire indépendant permettrait au Canada de participer aux activités internationales. C'est ainsi que nous pourrons résoudre ces problèmes d'application, en collaborant avec nos amis.
Au Canada, nous ne ciblons peut-être que les enjeux locaux, mais nous devons travailler avec nos alliés et nous avons besoin d'un intervenant à la table pour cela.
:
Je pense que ces mesures sont cruciales. Il ne fait aucun doute que l'éducation est fondamentale, surtout dans le cas des enfants. Ce sera difficile, ne sous-estimons pas cette tâche. De nouveau, je m'en remets aux experts qui connaissent cette technologie, mais il ne fait aucun doute que l'éducation est utile.
Pendant toute cette réunion, je ne cesse de citer l'exemple du Bureau de la concurrence. Il fournit très activement de l'éducation, notamment sur la publicité trompeuse, tout comme les organismes de protection des consommateurs des provinces. Il y a là une excellente collaboration. Cela est dû au fait que de nos jours la fraude, en particulier la manipulation numérique, grimpe en flèche.
Il faut que les gens soient bien informés. Nous faisons du rattrapage. Vous savez que cela a toujours été le cas du droit pénal et du système de justice pénale. Cela ne va pas changer, mais nous devons quand même essayer et suivre le mieux possible ce qui se passe.
La pire chose que nous pourrions faire serait de nous croiser les bras en affirmant que la tâche est trop difficile. C'est pourquoi je suis ici, et mon collègue est entièrement d'accord avec moi. Il faut absolument agir. Nos démarches seront imparfaites, parce que nous ferons du rattrapage, mais il faut le faire.
Vous savez, bien des gens pourront mettre leur expertise au service de l'élaboration des outils. En réalité, je ne pense pas que cette tâche soit impossible. Elle sera difficile, mais pas impossible.
:
Oui, je serai heureux d'y répondre.
Je travaille beaucoup dans ce domaine. Une partie de mon travail consiste à former des fonctionnaires américains, surtout des cadres supérieurs, dans le domaine de la défense et de la sécurité nationale. L'un des défis de la formation est... nous avons déjà mentionné cela à maintes reprises. Ce domaine évolue si rapidement que nous devons continuellement mettre le contenu de la formation à jour.
Il faut que le public comprenne quelques éléments fondamentaux des moteurs de cette technologie, les capacités. La notion, par exemple, d'étendre les systèmes d'intelligence artificielle pour nous faire une idée générale... En sachant à peu près combien de calculs seront nécessaires pour développer un système, on se fait une idée approximative, bon, c'est un système de type ChatGPT. On peut établir une comparaison. Nous pouvons faire ce genre de choses fondamentales.
Il y a d'autres choses. À mon avis, c'est faisable. Nous trouvons facilement des façons d'étendre les systèmes pour y parvenir.
Quoi qu'il en soit, il y a beaucoup de partenaires avec qui collaborer pour faire cela. Je suis optimiste à cet égard.
:
Je pense que c'est un défi primordial. Il faut trouver...
Nous tenons la même conversation sur la concurrence. Comment nous adapter à l'économie numérique? C'est un terme que je n'aime pas. C'est la nouvelle économie, elle a beaucoup d'artefacts numériques. On mène beaucoup d'expériences partout dans le monde. Les gens essaient différentes choses. C'est en partie parce que nous avons tous des structures juridiques et institutionnelles ainsi que des cultures différentes.
À mon avis, l'équilibre à trouver réside dans un petit nombre de valeurs — et vous êtes les représentants élus qui doivent faire cette évaluation pour le pays — qui nous importent vraiment, nous les Canadiens, des valeurs qui nous sont propres. M. Lemire a évoqué notre identité linguistique et la spécificité culturelle du Québec, mais il y a d'autres valeurs qui pourraient être très importantes pour nous. Pensez à nos communautés autochtones. Si ces éléments sont très importants, nous devons les intégrer à notre système. Ensuite, à l'échelle internationale, nous essayons de nous assurer d'être sur la même longueur d'onde dans la plupart des grands dossiers. Nous pouvons nous attacher à deux ou trois valeurs qui sont très importantes pour nous, et peut-être avons nous des règles spéciales à leur sujet, mais nous devons nous harmoniser au reste du monde, sinon cela ne fonctionnera pas.
Le défi consiste à nous assurer de traduire les principes d'accord général en règles juridiques opérationnelles. Dans mon rôle d'avocate, je m'attache aux détails pratiques de ce genre de choses. Nous devons reconnaître les limites structurelles et juridiques de notre système.
Nous vivons dans une fédération. Il y a une division des pouvoirs, et beaucoup de règlements relèvent des provinces. Il est clair que ce projet de loi est axé sur le commerce interprovincial et international et sur un pouvoir de droit pénal qui ne réglemente pas tout. Il nous faudra une bonne dose de fédéralisme coopératif.
La coopération internationale est importante, mais nous devrons aussi nous entendre au sein de notre fédération.
:
On pourrait demander si les Européens s'en tirent bien. Peut-être que Mme Castets-Renard pourrait ajouter quelques observations sur la nécessité d'intégrer ces considérations.
Je pense que le système européen se prête déjà à cette nécessité du dialogue. Ce trialogue, ce sont les trois entités qui représentent les trois puissances politiques fondamentales de l'Union européenne — je sais que je massacre la présentation de ce concept —, et elles doivent s'unir et s'entendre.
Je pense qu'il faudrait peut-être imaginer quelque chose de ce genre. Je sais que personne n'aime cette idée, mais je crois qu'il faut que les provinces et le gouvernement fédéral entament cette conversation. Il faudra probablement aussi y inviter les collectivités locales. Il faut que tout le monde mette la main à la pâte.
Je comprends que nous ne pouvons pas tout réglementer avec un seul cadre général, mais nous avons besoin d'un cadre général pour installer les fondements.
Certaines choses sortent des sentiers battus. Pouvons-nous interdire cela aux enfants, un point c'est tout? Nous pouvons imposer des interdictions générales. Nous le faisons, n'est‑ce pas? Cela peut se faire, mais il faut cibler ces interdictions. Quant autres autres choses disparates, nous devons veiller à ce qu'elles forment une mosaïque cohérente.
Je vais vous faire part d'une de mes préoccupations, puis je m'arrêterai. Ce qui m'inquiète, c'est que si nous ne coopérons pas au sein de la fédération, que va‑t‑il se passer? Il y aura une série de litiges fondés sur le partage des pouvoirs, comme nous l'avons fait il y a 25 ans en droit de l'environnement, où les grands intérêts économiques qui ont de l'argent affirmeront que ce pouvoir n'est pas de compétence fédérale, et les provinces répondront qu'il n'est pas de compétence provinciale. Il faudra des années pour régler la question.
Si les ordres de gouvernement s'entendent, il n'y aura pas de lacunes, et les Canadiens seront protégés.
:
On peut dire que, au Canada et dans les provinces, l'utilisation de la reconnaissance faciale, de manière générale et en particulier par les corps de police, n'est pas encadrée. Évidemment, quand il n'y a pas de cadre légal, les pratiques gouvernent l'usage. Comme l'a prouvé l'affaire Clearview AI, on sait de source sûre que la reconnaissance faciale a été utilisée par plusieurs corps de police sur le territoire canadien, dont la Gendarmerie royale du Canada.
C'est un problème quand on n'a pas de cadre légal. Des pratiques se développent et il n'y a pas de limites. C'est pour cela que, d'une part, un cadre légal peut faire peur parce qu'il signifie qu'on accepte et reconnaît la technologie, mais que, d'autre part, il serait être un peu naïf d'imaginer qu'on n'a pas recours à cette technologie qui, on ne peut le nier, peut avoir de grands avantages pour les enquêtes policières.
Il s'agit toujours de trouver l'équilibre entre le fait de tirer les avantages de l'IA, tout en écartant les risques. Plus précisément, une loi sur l'utilisation de la reconnaissance faciale devrait idéalement prévoir des principes de nécessité et de proportionnalité. Il faudrait, par exemple, limiter dans le temps et dans l'espace l'utilisation de la technologie à des objectifs particuliers ou à certains genres d'enquêtes. Il faudrait que le recours à la technologie soit permis par une autorité judiciaire ou administrative. Les cadres légaux sont possibles. On a des exemples ailleurs ou dans d'autres domaines. Effectivement, cela fait partie des choses dont il faut traiter.
J'ajoute que le projet de loi n'est pas directement lié à ce sujet, parce qu'il s'agit ici de réglementer le commerce international et interprovincial. Il ne traite pas du tout de l'utilisation de l'IA dans le secteur public. On peut ultimement réglementer les entreprises qui proposent ces produits ou ces systèmes d'IA de reconnaissance faciale à la police, mais pas son utilisation par la police. Il faut aussi se poser la question sur l'ampleur de la réglementation qu'on veut adopter pour l'IA, ce qui ira sans doute au-delà du projet de loi C‑27.
:
Malheureusement, ces modèles tendent à mal identifier non seulement les personnes racisées, mais aussi les personnes non binaires. Certaines voitures autonomes ont de la difficulté à reconnaître les femmes. Lorsque ces technologies commencent à toucher une plus grande proportion de la population sans être assujetties à une reddition de comptes, elles provoquent une très mauvaise fragmentation de la société sur le plan économique et social. Ce phénomène finit par diviser notre politique. Honnêtement, je pense qu'il est possible de réduire ce risque à un minimum.
Je voudrais que l'on isole la Loi sur l'intelligence artificielle et les données. Personnellement, je pense qu'il faudrait l'isoler pour que nous puissions examiner ces choses plus clairement parce que, dans l'état actuel des choses, il n'y a rien pour... Par exemple, si vous demandez un prêt et que l'intelligence artificielle prévoit que votre prêt devrait être refusé pour divers facteurs, ou peut-être à cause de votre race, de votre sexe, de la classe à laquelle vous appartenez, de votre situation géographique, de votre religion, de votre langue et autres... Si nous voulons construire ces systèmes, nous devons protéger les gens contre ces effets négatifs, surtout s'ils se produisent à grande échelle et encore plus si ces systèmes sont utilisés par des organismes gouvernementaux.
Je pense que l'un des problèmes que pose ce projet de loi, c'est que beaucoup d'organismes gouvernementaux, notamment dans les domaines de la sécurité nationale et de l'application de la loi — et aussi dans celui de l'immigration —, seront exemptés. L'IA sera largement utilisée dans ces domaines.
Quant à l'éducation, je dirais qu'au fil du temps, les journalistes et le journalisme devraient en assumer la responsabilité. Il nous faudrait un journalisme technologique plus solide qui nous informerait tous et qui examinerait les enjeux de l'intelligence artificielle et de la technologie en général.
:
Je vais commencer par répondre en mon nom personnel.
Je pense que le projet de loi actuel est nettement mieux que rien. L'un des facteurs clés, à mon avis, c'est l'échéancier. Voulons-nous faire face aux années 2024, 2025 et 2026 sans réglementation? Je suis fortement tenté de dire non, il faut que nous ayons quelque chose.
Compte tenu de l'échéancier, comme m'ont expliqué les gens qui travaillent sur ce projet de loi, il semble improbable que nous ayons quelque chose d'ici là. C'est ce que je crois comprendre, mais peut-être que je me trompe.
Si c'est le cas, le projet de loi dans sa forme actuelle est mieux que rien. C'est ainsi que je vois les choses. On y trouve d'excellents éléments. Je pense que les dispositions générales du projet de loi concernant l'intelligence artificielle et la cessation des activités sont très bonnes.
Dans l'ensemble, compte tenu du contexte actuel et des délais, je serais en faveur de l'adoption de ce projet de loi. Cependant, j'y vois des problèmes importants, que j'ai déjà soulignés, notamment les seuils de capacité de traitement et les autres facteurs que j'ai mentionnés dans mon témoignage.
:
Pour vous faire part de mon point de vue personnel, pourquoi OpenAI, Google DeepMind et Anthropic ont-ils tous leur siège social dans la Silicon Valley et n'ont-ils pas d'équivalent canadien?
Je suis un fondateur chevronné d'entreprises en démarrage. J'ai bâti toutes mes entreprises en démarrage dans la Silicon Valley; je ne les ai pas construites ici. Je suis né et j'ai grandi au Canada, et j'y ai vécu pratiquement tout le temps. J'ai déménagé à Mountain View pour mettre sur pied mes entreprises en démarrage, puis je suis revenu, mais je les ai toujours basées là‑bas.
Il y a certains facteurs réglementaires. C'est bien d'avoir une société Delaware C, mais ce n'est pas la raison fondamentale. La raison fondamentale pour laquelle ces entreprises sont établies dans la région de la Silicon Valley, c'est simplement que les meilleurs investisseurs du monde s'y trouvent. C'est tout. C'est littéralement le facteur le plus important, et de loin.
Lorsque je vais à Y Combinator, j'entends les meilleurs conseils sur la construction d'une entreprise en démarrage sur la planète Terre. Il n'y a pas l'équivalent de Y Combinator au Canada. C'est le meilleur accélérateur d'entreprises en démarrage au monde, point à la ligne.
Les meilleurs investisseurs sont dans la Silicon Valley, les gens comme Vinod Khoslas et Sam Altmans. C'est la raison pour laquelle cela se produit là‑bas.
Il y a, en marge, des choses réglementaires qui se passent ici, mais en tant que fondateur d'un grand nombre d'entreprises en démarrage qui a dû prendre ce genre de décision à de nombreuses reprises, que ce soit pour l'intelligence artificielle ou d'autres choses, il y a là‑bas une sorte de concentration de talents en ce qui concerne les meilleurs capitaux de risque, les meilleurs investisseurs providentiels. C'est l'écosystème.
Tobi Lutke, de Shopify, a lancé son entreprise ici, à Ottawa, mais il y a une raison pour laquelle leur table de capitalisation est remplie d'argent de la Silicon Valley. C'est parce que c'est là que se trouvent les meilleurs investisseurs.
Au bout du compte, c'est toujours la même histoire. Je pense que nous voyons simplement la même chose avec l'intelligence artificielle. Je ne pense pas qu'il y ait quoi que ce soit de différent ici.
:
Je suis d'accord. Pour revenir au fait que nous avons des exemples ailleurs, nous avons déjà des industries à risque élevé. L'industrie nucléaire en fait partie, mais il y a aussi le secteur de la finance.
Je suis un peu en désaccord avec M. Gagné, parce que dans la mesure où les Américains font quelque chose, ils ont la force d'insister. Il est important d'être un joueur à la table internationale avec un défenseur,c'est‑à‑dire un commissaire vraiment indépendant et capable de prendre des décisions. Vous pouvez ensuite vous assurer d'être d'accord avec tout. Je crois qu'au bout du compte, la coopération internationale est essentielle, mais je suis d'accord pour dire qu'il faut prévoir les dangers avant de lancer quelque chose sur le marché. Nous insistons déjà là‑dessus dans d'autres domaines, comme la sécurité des produits et d'autres choses, alors pour moi, ce n'est pas nouveau. Nous devons adapter cela à l'intelligence artificielle.
L'autre chose que j'ajouterais, et qui est importante parce que parfois cela ressort, c'est que nous ne pouvons pas forcer les entreprises à partager les renseignements sensibles, parce qu'il y a une dynamique concurrentielle. Mais les administrations publiques traitent constamment des renseignements confidentiels. C'est ce qu'elles font. Le commissaire de la concurrence le fait constamment. Oui, bien sûr, il y a un risque de fuite, mais je ne pense pas que ce risque soit plus élevé que les autres. Je pense que c'est parfois exagéré. Les organismes de réglementation gouvernementaux peuvent traiter des renseignements de nature délicate et les utiliser dans l'intérêt public. C'est pourquoi nous leur faisons confiance, dirais‑je.
:
Mesdames et messieurs, chers collègues, nous reprenons la séance et continuons la 101
e réunion du Comité permanent de l'industrie et de la technologie de la Chambre des communes.
J'en profite pour présenter mes excuses pour le retard que nous avons accumulé à cause des votes qui ont eu lieu après la période des questions orales et de ceux qui viennent d'avoir lieu, mais nous voici.
Conformément à la motion adoptée le 7 novembre 2023, le Comité reprend l'étude de l'enquête et des rapports récents sur Technologies du développement durable Canada.
J'aimerais souhaiter la bienvenue aux témoins d'aujourd'hui.
Nous accueillons M. George E. Lafond, conseiller stratégique en développement. Pour sa part, M. Stephen Kukucha, président-directeur général de CERO Technologies, se joint à nous depuis Vancouver par vidéoconférence, et nous recevons en personne M. Guy Ouimet, ingénieur à Technologies du développement durable Canada.
S'il le souhaite, chaque témoin dispose de cinq minutes pour présenter son allocution.
Monsieur Lafond, vous avez la parole pour cinq minutes.
:
Merci beaucoup, monsieur le président et honorables membres du Comité, de m'accueillir ici aujourd'hui.
Je tiens d'abord à souligner que nous nous trouvons sur le territoire non cédé du peuple algonquin anishinabe.
Je m'appelle George Lafond. Je suis un citoyen de la Saskatchewan Muskeg Lake Cree Nation, sur le territoire visé par le Traité no 6. Je suis actuellement conseiller auprès d'entreprises, d'établissements d'enseignement et d'organismes sociaux et culturels et je suis reconnu pour diriger avec succès des initiatives stratégiques nécessitant la participation des Premières Nations.
Auparavant, j'ai rempli deux mandats à titre de commissaire aux traités de la Saskatchewan, et j'ai été le premier Indien visé par un traité à occuper cette fonction. J'ai été nommé par le gouvernement Harper en 2012, puis reconduit dans mes fonctions en 2014. J'ai été vice-chef tribal, puis chef tribal du Conseil tribal de Saskatoon, un premier parmi des égaux, avec sept chefs des Premières Nations et leurs diverses collectivités des Premières Nations.
J'ai consacré l'ensemble de mon service public à soutenir la réconciliation, le mieux-être, le développement économique et l'innovation au sein de mes communautés. L'amélioration de l'accès et de la qualité de l'éducation pour les jeunes Autochtones est à la base de tous mes efforts, et ce travail s'appuie sur ma formation et mon expérience en tant qu'enseignant dans une école publique il y a environ 42 ans.
Dans le secteur de l'éducation, j'ai été conseiller de trois recteurs d'université et j'ai également été gouverneur du conseil d'administration d'une université. Je les ai conseillés sur la façon de veiller à ce que les étudiants autochtones puissent réussir non seulement leurs études postsecondaires, mais aussi leurs carrières futures. C'est à ce titre que j'ai travaillé avec le Saskatchewan Indian Institute of Technologies, communément appelé maintenant le SIIT.
Ce sont ces rôles de service public qui m'ont amené, en 2012, à être nommé par le gouvernement Harper comme expert chargé d'examiner l'éducation des Premières Nations dans les réserves et de formuler des conseils pour établir une nouvelle relation entre le gouvernement fédéral et les communautés des Premières Nations en matière d'éducation. C'est là que j'ai constaté que les membres des Premières Nations réussissaient bien dans les industries primaires, mais qu'ils étaient presque inexistants dans l'industrie des technologies propres.
Depuis ma nomination au conseil d'administration de TDDC en 2015, il y a eu un changement notable dans la façon dont cette organisation s'est modernisée afin de mieux répondre aux besoins des marchés et de l'industrie canadienne des technologies propres. Il était primordial de veiller à ce que les communautés autochtones soient également prises en compte dans l'équation afin de déterminer comment les peuples autochtones pourraient être dotés des compétences et de la formation nécessaires pour participer à ce secteur essentiel, et aussi pour que ce secteur puisse répondre aux besoins particuliers de nos communautés.
Des progrès ont été réalisés au cours de la dernière décennie, mais il ne fait aucun doute que le programme des technologies propres et de l'innovation présente une pente encore plus abrupte à gravir compte tenu du manque d'accès à la formation et à l'éducation pour les jeunes Autochtones. Les Autochtones risquent d'être exclus de l'innovation au Canada. Nous sommes sous-représentés dans les STGM, et Statistique Canada rapporte que l'emploi total dans cette industrie est inférieur à 2,5 % pour les Autochtones qui ont une formation postsecondaire.
Alors que je siégeais au conseil d'administration de TDDC, j'ai eu des conversations à ce sujet avec la direction de TDDC et j'ai informé les organisations et les établissements d'enseignement postsecondaire de leur obligation de veiller à ce que les jeunes Autochtones ne ratent pas l'avenir de l'innovation.
En 2020, TDDC a approuvé le financement d'un centre pour le SIIT, le premier accélérateur d'innovation du Canada voué à l'éducation et à l'autonomisation des entrepreneurs autochtones. Ce projet pilote a été réalisé dans le cadre du volet de financement de l'écosystème de TDDC, qui encourage l'innovation et la collaboration entre diverses personnes du secteur privé, du milieu universitaire et des organismes sans but lucratif. Cela fait partie du mandat de TDDC et de ses accords de contribution.
Je veux être clair. Même si j'ai parlé à TDDC de ces questions importantes et de la recherche de solutions pour assurer la participation des Autochtones et si j'ai présenté ces solutions aux dirigeants du SIIT, je n'ai aucunement participé au processus décisionnel concernant le financement du projet du SIIT. Lorsque le SIIT a entamé des conversations avec TDDC, j'ai divulgué de façon proactive mon conflit et je me suis récusé de toutes les discussions à venir.
À la suite du rapport de RCGT, j'ai été informé que le SIIT avait inclus par erreur mes services dans ses dépenses en vertu des lignes directrices du projet de TDDC. C'était une erreur. J'ai immédiatement communiqué avec le SIIT, qui a rapidement présenté de nouveau ses demandes de remboursement de dépenses. Je n'ai jamais reçu de paiement du SIIT pour ce projet. Mon contrat avec SIIT est à titre de conseiller du président et n'a rien à voir avec ce projet.
Comme je l'ai dit, j'ai travaillé pendant des années dans le domaine de l'éducation autochtone et de l'amélioration des résultats pour les communautés autochtones. Bien que je sois un conseiller du SIIT, ce programme ne m'a procuré aucun avantage personnel. Toutefois, il peut être avantageux pour des milliers de jeunes Autochtones, en leur donnant l'occasion de combiner les connaissances traditionnelles avec des idées nouvelles et de contribuer à l'innovation au Canada.
Dans le contexte de l'étude du Comité, je ne voudrais pas que ce travail important se perde. Il est important que, grâce à la création de programmes d'innovation comme cet accélérateur d'innovation, nous aidions à encadrer les dirigeants et les entrepreneurs autochtones et que nous veillions à ce que non seulement les collectivités de la classe moyenne, mais tous les Canadiens bénéficient d'une contribution importante à une économie canadienne moderne.
Merci beaucoup, monsieur le président.
:
Merci, monsieur le président et honorables députés.
Je m'appelle Stephen Kukucha et je siège au conseil d'administration de TDDC depuis février 2021. Je vis à Vancouver. Je suis avocat à la retraite et je suis certifié par l'Institut des administrateurs de sociétés.
Le travail de TDDC est essentiel au développement et au succès de l'écosystème des technologies propres du Canada. Je crois que mon point de vue et mes positions uniques au sein du secteur des technologies propres ajoutent de la valeur à mon rôle au conseil d'administration. Mes plus de 20 ans d'expérience dans le domaine des technologies propres m'ont permis de comprendre les défis que doivent relever les entreprises pour obtenir des capitaux. Ces difficultés ont été exacerbées par le ralentissement du marché à la fin de 2021, l'augmentation spectaculaire des investissements du gouvernement américain dans ce secteur, et maintenant la pause dans le travail de TDDC.
Quoi qu'il arrive en raison de ces audiences ou d'autres enquêtes, il est essentiel de souligner le rôle important et unique que joue TDDC et le mandat que cet organisme a pour le Canada. Je demande au Comité de tenir compte de son importance pour toutes les entreprises naissantes qu'il soutient.
En plus de mon travail dans le domaine des technologies propres, je dois révéler que j'ai fait de la politique dans le passé, tant au niveau fédéral qu'en Colombie-Britannique, et que je suis très fier de cet engagement. Je crois que l'engagement dans le processus démocratique de notre pays, peu importe le parti qu'on appuie, est important pour la société civile. Par exemple, j'ai un profond respect pour toutes les décisions que vous avez prises de vous présenter aux élections et de faire carrière dans la fonction publique. C'est l'une des choses les plus importantes qu'un Canadien puisse faire.
J'aimerais également vous dire que j'ai reçu l'appel que le lanceur d'alerte a fait au conseil d'administration. J'aimerais que cela figure au compte rendu. Notre conversation a été enregistrée à mon insu. Je n'ai toutefois aucune hésitation à déposer la transcription de cet enregistrement pour démontrer le professionnalisme dont j'ai fait preuve, de bonne foi, envers cette personne. À de nombreuses reprises, j'ai demandé au lanceur d'alerte de communiquer son dossier et les faits sur lesquels il fondait ses allégations afin que le conseil puisse y répondre, et cela dans les règles. Malheureusement, il ne l'a pas fait.
Après ma conversation d'une heure avec cette personne, je me suis rapidement rendu compte qu'il fallait en informer le conseil, engager un conseiller juridique, et suivre le processus approprié. Une enquête immédiate a été amorcée sans informer les personnes visées par les allégations. J'ai agi de bonne foi, j'ai respecté les règles de gouvernance et, à mon avis, le conseil s'est acquitté de son obligation fiduciaire.
En ce qui concerne mes investissements dans des entreprises de technologies propres, j'ai divulgué tous mes conflits d'intérêts avant ma nomination. En fait, on m'a demandé de démissionner du conseil d'administration d'une entreprise qui avait déjà reçu des fonds de TDDC, et je l'ai fait. J'ai également divulgué tout conflit, réel ou perçu, que j'ai pu avoir après ma nomination. Enfin, je n'ai eu accès à aucun dossier lié à ces conflits d'intérêts, et je me suis récusé de toute décision.
En ce qui concerne les paiements versés aux entreprises de TDDC pendant la pandémie de COVID‑19, j'aimerais également vous faire part de mon point de vue. À ma première réunion du conseil d'administration, deux semaines après ma nomination, une recommandation a été présentée pour donner à la direction le pouvoir discrétionnaire, dans le cadre d'une réserve de capital allouée, d'effectuer des paiements d'aide si nécessaire. Aucune entreprise n'était désignée par son nom dans les documents du conseil. Je suis prêt à déposer une copie de ce document pour vous montrer au besoin, ce que le conseil a reçu. Des conseils juridiques ont également été donnés aux membres du conseil lors de cette réunion, à savoir que s'ils avaient déjà déclaré des conflits d'intérêts, ils n'avaient pas à les déclarer de nouveau. J'avais déclaré les miens deux semaines auparavant.
Enfin, je n'ai pas reçu un seul dollar d'une entreprise qui a reçu des fonds de TDDC, et aucune des entreprises dans lesquelles j'ai investi ne s'est retirée ou ne m'a rapporté quoi que ce soit. Je n'ai reçu aucune compensation de la part de ces entreprises ou d'autres organisations auxquelles je suis affilié. Je n'ai reçu aucun paiement, aucun dividende et aucune rémunération. En fait, mes partenaires et moi-même avons consacré beaucoup de temps et de ressources financières personnelles pour que ces entreprises et d'autres entreprises de technologies non propres continuent de contribuer à l'économie canadienne au cours de ces dernières années très difficiles.
En terminant, d'après mon expérience, l'équipe de TDDC a fait preuve de professionnalisme et a produit des résultats. Bien qu'aucune personne ou organisation ne soit parfaite et qu'elle doive toujours chercher à s'améliorer, je suis très fier de l'équipe de TDDC et du travail que j'ai accompli au sein de son conseil d'administration.
Je me ferai un plaisir de répondre à vos questions.
:
Merci, monsieur le président, et merci aux membres du Comité de m'accueillir aujourd'hui.
Je m'appelle Guy Ouimet. Je suis originaire de Montréal et y vis toujours. Je suis ingénieur industriel diplômé de l'École polytechnique de l'Université de Montréal. Je détiens une maîtrise en administration des affaires de l'Université McGill et je suis certifié par l'Institut des administrateurs de sociétés.
En début de carrière au sein de multinationales, je me suis vite orienté vers un rôle de professionnel dans le domaine de l'investissement industriel. Pour la majeure partie de ma carrière, j'ai œuvré dans les domaines du capital-risque, du placement privé, du financement de projets et des fusions et acquisitions. À ce titre, j'ai travaillé comme cadre supérieur pour la Société générale de financement du Québec pendant dix ans pour ensuite lancer ma pratique privée sous forme de firme-boutique de banquier d'affaires.
Au fil des ans, ma pratique s'est développée sur la base de mon expertise multisectorielle et technologique, notamment dans les domaines de l'énergie, des métaux et minéraux, de la chimie et pétrochimie, de l'industrie automobile et d'autres secteurs manufacturiers, et dans l'évolution de ces domaines vers la décarbonation de l'économie.
Pendant 25 ans, j'ai eu divers clients pour des projets relevant de fonds institutionnels et gouvernementaux, ainsi que des projets relevant de nombreuses entreprises privées. Ainsi, j'ai participé au montage de multiples projets et transactions d'investissement. Entre autres choses, j'ai travaillé comme conseiller externe pour Technologies du développement durable Canada, ou TDDC, entre 2006 et 2014, qui avait fait appel à mon expertise combinée en capital-risque multisectoriel et en montage de projets d'envergure, notamment pour le Fonds des biocarburants de la prochaine génération, pour lequel 500 millions de dollars avaient été alloués à TDDC en 2007 par le gouvernement fédéral de l'époque.
Depuis 2020, je suis exclusivement administrateur de sociétés et je siège à six conseils d'administration et divers comités.
Après avoir pris mes distances pendant quatre ans avec TDDC et sa nouvelle direction, je me suis joint à son conseil d'administration le 8 novembre 2018 à la suite de ma nomination résultant de ma participation à un processus de recrutement du gouverneur en conseil qui s'est échelonné sur un an. N'ayant aucune affiliation politique et n'ayant sollicité aucune référence, sauf les références requises par les procédures de validation lors du processus de recrutement, j'ai déclaré tous mes antécédents et mes compétences, y compris mon rôle antérieur à titre de conseiller à TDDC. Au terme du processus du gouverneur en conseil, on m'a recruté sur la base de mon expertise pour que j'apporte ma contribution au conseil d'administration de TDDC.
En plus d'être membre de ce conseil d'administration, je suis membre du comité d'examen des projets et du comité de gouvernance et nominations. Lors de ma nomination, les nominations aux comités étaient alors sujettes à l'approbation du président du conseil d'administration, en l'occurrence M. Jim Balsillie.
Au cours du processus de recrutement du gouverneur en conseil, j'ai déclaré un conflit d'intérêts en lien avec une entreprise pour laquelle j'avais travaillé comme conseiller. L'octroi de financement par TDDC à cette entreprise avait été approuvé avant ma nomination au conseil d'administration. Une fois nommé au conseil d'administration, j'ai discuté de ce conflit d'intérêts avec M. Gary Lunn, alors président du comité de gouvernance et nominations du conseil d'administration de TDDC. Celui-ci m'a fourni des conseils, et j'ai suivi ses recommandations par la suite. Le tout s'est fait dans le cadre de la gouvernance déjà établie.
Depuis ma nomination au conseil d'administration, j'ai périodiquement déclaré tous les conflits réels, apparents ou potentiels, je n'ai pas eu accès aux dossiers en cause et je me suis récusé sur toute décision afférente.
En ce qui concerne les versements aux entreprises par TDDC au titre de la prestation d'urgence liée à la COVID‑19, comme il a déjà été indiqué, le conseil s'est reporté à l'opinion juridique de la firme Osler, qui reposait sur la déclaration préalable des conflits d'intérêts, l'urgence de la situation et le caractère universel de la mesure pour laquelle aucune entreprise ne bénéficiait d'un traitement individuel. Comme le reste du conseil, j'ai agi diligemment et de bonne foi, et je me suis conformé à cette opinion.
La mission de TDDC m'interpelle en ce sens qu'elle est absolument pertinente pour la conversion de l'économie canadienne à la décarbonation, comme en font foi son cheminement et ses résultats depuis plus de 20 ans. La pertinence et l'efficacité de TDDC ont été reconnues à plusieurs reprises dans le cadre d'audits de performance périodiques. Par ailleurs, les entrepreneurs en technologie de décarbonation louangent sa contribution et les investisseurs en capital-risque considèrent la contribution de TDDC comme une validation préalable de leur propre investissement. Ces faits sont bien connus dans l'industrie partout au Canada.
Au moment de me joindre au conseil d'administration, j'ai noté la qualité de la gouvernance de TDDC, ainsi que l'envergure et la réputation de mes collègues administrateurs. Comme professionnel de la finance et administrateur de sociétés, c'est une condition préalable essentielle que j'ai toujours respectée avant de me joindre à chacun des 21 conseils d'administration auxquels j'ai siégé durant ma carrière.
Je suis maintenant disponible pour répondre à vos questions.
:
Les processus de gestion des conflits d'intérêts sont rigoureusement suivis. Il est important de préciser que la loi créée en 2001 afin de constituer TDDC exige que les administrateurs proviennent de l'industrie des technologies vertes et qu'ils y soient branchés. Le législateur a donc mis en place une recette pour créer des conflits d'intérêts. En conséquence, depuis le début, nous avons des pratiques absolument rigoureuses pour les gérer.
Chaque fois qu'un dossier est soumis au comité de gouvernance, on procure à ceux qui le recevront une liste des entreprises, des parties prenantes, des actionnaires et des dirigeants impliqués et on leur demande s'ils ont des conflits d'intérêts. Ainsi, une personne peut voir immédiatement si elle a un conflit réel, perçu ou potentiel et, le cas échéant, elle s'exclut dès lors. À partir de là, elle ne reçoit pas la documentation et ne prend pas part aux décisions.
Chaque fois qu'il y a une réunion d'un comité de décision, d'investissement ou de conseil, la liste des personnes en conflit d'intérêts est notée dès le début. Selon ce que j'ai compris des rapports qui ont suivi, dans certains cas, on n'y a pas indiqué que telle personne était sortie à tel moment et était revenue par la suite. Or, la pratique étant connue de tous, cette personne a déclaré un conflit d'intérêts dès le début, elle s'est récusée lors de l'étude du dossier en question et a repris sa place par la suite. J'assiste à des réunions de conseils depuis 2018 à titre d'administrateur, j'y ai assisté à partir de 2006 dans un autre rôle, et j'ai vu régulièrement des récusations de la part de tous les administrateurs, de plusieurs générations.
:
Merci, monsieur le président.
Monsieur Ouimet, je vais d'abord m'adresser à vous.
Pour un administrateur de société comme vous, votre réputation est probablement ce qu'il y a de plus important, évidemment. Dans ce contexte, vous avez mentionné tantôt qu'il était normal qu'il y ait des conflits d'intérêts, compte tenu de la façon dont l'organisme TDDC a été constitué.
Il faut bien comprendre le niveau d'expertise dont on avait besoin autour de la table. C'était particulièrement le cas au moment de la création de TDDC, et c'est la même chose aujourd'hui, 20 ans plus tard. Le contexte exigeait la présence de personnes qui comprenaient très bien ce que c'était que de créer une jeune pousse dans le milieu des économies émergentes et de l'économie verte. Cela exigeait un niveau d'expertise très poussé.
Aurait-on pu faire autrement que d'avoir des personnes possédant une expérience confirmée et une fine connaissance de ce milieu? Aurait-on pu créer ce programme différemment?
:
À l'origine, en 2001, le mandat de TDDC portait sur des domaines beaucoup plus restreints, notamment l'eau, l'air, le sol, les procédés et les projets de décontamination. Son mandat était donc très restreint, mais complexe.
Aujourd'hui, son mandat s'est complexifié, parce que les technologies propres se sont étendues à peu près à tous les domaines de l'économie. Il suffit de regarder les investissements qui se font partout dans le monde, notamment aux États‑Unis, pour le constater.
Il faut donc une connaissance assez approfondie de plusieurs secteurs. TDDC compte 15 administrateurs. L'organisme doit donc attirer des administrateurs qui possèdent des compétences sectorielles verticales, dans tous les domaines. TDDC doit aussi avoir une matrice de compétences technologiques et des connaissances sur les divers stades de développement d'une entreprise. Il y a donc trois dimensions à prendre en compte: le secteur, le genre de technologie et le stade de développement de l'entreprise.
Parmi les jeunes entreprises que TDDC finance, certaines sont à l'échelle du banc d'essai, d'autres sont en démarrage et d'autres sont en croissance. Selon leur stade de développement, elles ont des dynamiques de gestion et de développement technologique complètement différentes. TDDC doit donc avoir un conseil d'administration capable d'évaluer la situation de ces entreprises, parce qu'il y a un très grand volume et une très grande diversité d'investissements.
:
En 2015, 2016 et 2017, nous nous sommes rendu compte que notre organisation commençait vraiment à répondre aux besoins du marché. Autrement dit, nous répondions à la mission qui nous avait été confiée et à nos obligations en vertu de nos exigences législatives par décret. Nous avons reconnu que nous nous engagions dans un profil de risque beaucoup plus élevé avec des entreprises à risque élevé, et que nous devions donc changer nos règles à l'égard des conflits d'intérêts pour suivre le rythme. Nous devions aussi reconnaître les types de risques auxquels nous nous exposions.
Nous avons vraiment commencé à nous occuper des conflits d'intérêts en obtenant de bons conseils de la part, je crois, de KPMG, qui nous donnait des exemples de ce qui se passait dans le domaine de la propriété intellectuelle, de l'intelligence artificielle, des données et de la façon dont nous pouvions nous assurer de les protéger.
Essentiellement, ce qui se passait, c'est que, en tant que membres du conseil d'administration, avant une réunion, nous obtenions la liste des sociétés au sujet desquelles nous allions prendre une décision lors de notre prochaine réunion. Nous devions déclarer tout conflit d'intérêts apparent ou réel. Il s'agissait d'un profil de gauche à droite indiquant le montant, les acteurs, qu'il s'agisse d'un vice-président ou... et les autres investisseurs. Il énumérait le secteur — qu'il s'agisse du secteur de la technologie ou du secteur pétrolier et gazier — et ce qu'il avait l'intention de faire.
Ensuite, nous répondions: « J'ai un conflit d'intérêts. » Lorsque la discussion avait lieu au conseil d'administration, les gens disaient qu'ils avaient un conflit d'intérêts, se récusaient et quittaient la salle.
:
Vous avez répondu « oui ». Je ne sais pas si on a pu l'entendre.
Nous avons entendu parler de la rigueur avec laquelle les règles relatives aux conflits d'intérêts ont été respectées au sein de l'entreprise. Je voudrais revenir sur ce point avec vous.
J’ai sous les yeux le procès-verbal de la réunion du lundi 23 mars 2020, au cours de laquelle un montant de 192 100 $ a été versé à Lithion au titre de la campagne de lutte contre la COVID‑19.
M. Guy Ouimet: Oui.
M. Michael Barrett: Vous avez dit oui.
Le mardi 9 mars 2021, cette entreprise dans laquelle vous avez des parts a reçu 201 705 $.
M. Guy Ouimet: Oui.
M. Michael Barrett: Il y a donc eu un paiement de 192 000 $ et un autre de 201 000 $. Vous avez voté en faveur de l’attribution de ces contrats aux deux entreprises.
Maintenant, votre nom figure sur la liste des participants à ces deux réunions. Avez-vous assisté à ces réunions, monsieur? Répondez simplement par oui ou par non.
:
Je me souviens d'avoir reçu une note explicative qui indiquait où nous nous apprêtions à implanter TDDC, à savoir dans un secteur à haut risque. Nous avons examiné ce que j'appelle les « silos », pour déterminer s'il s'agissait du type de recherche indispensable à la technologie ou quoi que ce soit.
Vous avez dit avoir été banquier. Comme vous le savez, quand on lance une entreprise, on s'intéresse d'abord aux coûts d'investissement, aux actifs tangibles, comme une usine. En Saskatchewan, une usine de trituration du canola coûte environ 200 millions de dollars. Qui dispose de telles sommes? On peut penser aux banques, à des investisseurs, etc. Nous savions que nous devions être des acteurs de premier plan. Quand nous avons commencé à parler des types de prêts ou de subventions, de prêts de faveur, peu importe, nous savions que nous allions être au cœur des questionnements entourant les nouvelles stratégies de financement pour soutenir les entreprises en phase de démarrage et d’expansion.
Je vous dirais que la rigueur était de mise, car à bien des égards, quand on observe la croissance rapide de certains projets qui débutaient à peine, notre succès est indéniable. Nous parions sur des entreprises qui nous présentaient leurs plans d'action, et elles faisaient exactement ce qu'elles promettaient.
Ce n’était certainement pas une pratique courante. Je sais que le rapport produit a mis en évidence certains problèmes au niveau de la documentation. Je pense que certains des procès-verbaux et des documents ne reflètent peut-être pas fidèlement... Je ne peux parler de tous les cas avec précision.
Je sais pertinemment que, lorsqu’il y a un conflit entre administrateurs, le processus de récusation dont M. Lafond a parlé est en effet la manière de procéder. Le conflit d'intérêts doit être déclaré avant la réception des documents et la récusation. Il est possible que, dans le cas d’un paiement lié à la COVID‑19 — soit le deuxième cas, je ne peux pas parler du premier —, certaines personnes, dont moi, aient eu un intérêt, mais aucune liste d’entreprises ne nous a été soumise.
À ce jour, pour être honnête, je ne connaissais même pas les entreprises qui [inaudible] conflit d'intérêt, ont reçu des fonds.