Passer au contenu

INDU Réunion de comité

Les Avis de convocation contiennent des renseignements sur le sujet, la date, l’heure et l’endroit de la réunion, ainsi qu’une liste des témoins qui doivent comparaître devant le comité. Les Témoignages sont le compte rendu transcrit, révisé et corrigé de tout ce qui a été dit pendant la séance. Les Procès-verbaux sont le compte rendu officiel des séances.

Pour faire une recherche avancée, utilisez l’outil Rechercher dans les publications.

Si vous avez des questions ou commentaires concernant l'accessibilité à cette publication, veuillez communiquer avec nous à accessible@parl.gc.ca.

Publication du jour précédent Publication du jour prochain
Passer à la navigation dans le document Passer au contenu du document






Emblème de la Chambre des communes

Comité permanent de l'industrie et de la technologie


NUMÉRO 101 
l
1re SESSION 
l
44e LÉGISLATURE 

TÉMOIGNAGES

Le mardi 5 décembre 2023

[Enregistrement électronique]

(1550)

[Français]

    Je déclare la séance ouverte.
     Bon après-midi, tout le monde, et bienvenue à la 101e réunion du Comité permanent de l'industrie et de la technologie de la Chambre des communes.
    La réunion d'aujourd'hui se déroule sous forme hybride, conformément au Règlement.
    J'aimerais souhaiter la bienvenue aux témoins. Aujourd'hui, nous accueillons M. Jean‑François Gagné, consultant stratégique en intelligence artificielle, à qui nous allons laisser la chance de faire son allocution quand il va se joindre à nous un peu plus tard. Nous recevons également Mme Erica Ifill, journaliste et fondatrice d'un balado sur l'intelligence artificielle, ainsi que M. Adrian Schauer, fondateur et président-directeur général d'AlayaCare.

[Traduction]

     Je tiens à vous remercier, monsieur Schauer, de vous être libéré de nouveau aujourd'hui. Je sais que nous avons déjà eu des difficultés techniques, mais le casque d'écoute semble bien fonctionner cet après-midi. Merci d'être revenu.
    Merci également, madame la greffière, de votre aide.
    Nous accueillons Nicole Janssen, co‑fondatrice et présidente directrice générale d'AltaML Inc., et Jérémie Harris, de Gladstone AI.

[Français]

    Finalement, nous recevons Mme Jennifer Quaid, professeure agrégée et vice-doyenne à la recherche à la Section de droit civil de la Faculté de droit de l'Université d'Ottawa. Elle est accompagnée de Céline Castets‑Renard, professeure titulaire de droit civil à cette même faculté.
    Comme nous recevons plusieurs témoins, nous allons commencer la discussion sans plus tarder. Chaque intervenant aura la parole pendant cinq minutes.

[Traduction]

     Madame Ifill, vous avez la parole.
     Bonjour au Comité de l'industrie et de la technologie, ainsi qu'à ses adjoints et à tous ceux qui sont dans la salle.
    Je suis ici aujourd'hui pour parler de la partie 3 du projet de loi C-27, Loi édictant la Loi sur la protection de la vie privée des consommateurs, la Loi sur le Tribunal de la protection des renseignements personnels et des données et la Loi sur l’intelligence artificielle et les données et apportant des modifications corrélatives et connexes à d’autres lois. La partie 3 est la Loi sur l'intelligence artificielle et les données.
    Ce projet de loi présente des problèmes et des difficultés au départ, surtout en raison de ses effets sociétaux et publics.
    Primo, lorsqu'il a été rédigé, il y avait très peu de surveillance publique. Il n'y a pas eu de consultations publiques, et il n'y a pas de documents accessibles au public expliquant comment les réunions ont été menées par le conseil consultatif du gouvernement sur l'intelligence artificielle, ni les points qui y ont été soulevés.
    Les consultations publiques sont importantes, car elles permettent à divers intervenants d'échanger et d'élaborer des politiques novatrices qui tiennent compte des besoins et des préoccupations des collectivités touchées. Comme on l'a mentionné dans le Globe and Mail, le manque de consultations publiques sérieuses, en particulier auprès des Noirs, des Autochtones, des personnes de couleur, des personnes trans et non binaires, des personnes défavorisées sur le plan économique, des personnes handicapées et d'autres groupes méritants, explique pourquoi la Loi sur l'intelligence artificielle et les données, la LIAD, ne relève pas les préjugés systémiques qui caractérisent l'intelligence artificielle, notamment le racisme, le sexisme et l'hétéronormativité.
    Secundo, la LIAD nécessite une surveillance publique adéquate.
    Le commissaire à l'intelligence artificielle et aux données qui est proposé est un haut fonctionnaire désigné par leministre de l'Innovation, des Sciences et de l'Industrie et, par conséquent, n'est pas indépendant du ministre et ne peut pas prendre de décisions publiques indépendantes. De plus, à la discrétion du ministre, le commissaire pourra se faire déléguer le « pouvoir, le devoir » et la « fonction » d'administrer et d'appliquer cette loi sur l'intelligence artificielle. Autrement dit, le commissaire ne peut l'appliquer de façon indépendante, puisque ses pouvoirs dépendent du pouvoir discrétionnaire du ministre.
    Tertio, il y a la question des droits de la personne.
    Tout d'abord, la définition de « préjudice » est tellement précise, cloisonnée et individualisée que la loi n'a aucun pouvoir. Selon ce projet de loi:
préjudice signifie
a) préjudice physique ou psychologique subi par un individu;
b) dommage à ses biens; ou
c) perte économique subie par un individu.
     C'est tout à fait inadéquat quand il est question de dommages systémiques qui vont au‑delà de la personne et qui sont subis par certaines collectivités. J'ai écrit ce qui suit dans le Globe and Mail:
« À première vue, le projet de loi semble contenir des dispositions visant à atténuer les préjudices », comme l'a dit Sava Saheli Singh, chercheuse agrégée en surveillance, société et technologie au Centre de recherche en droit, technologie et société de l'Université d'Ottawa, « mais la terminologie se limite aux préjudices sur le plan individuel. Nous devons reconnaître les préjudices potentiels pour l'ensemble des populations, en particulier pour celles qui sont marginalisées et qui sont manifestement touchées de façon disproportionnée par ces types de [...] systèmes. »
    Les préjugés raciaux constituent également un problème pour les systèmes d'intelligence artificielle, en particulier ceux utilisés dans le système de justice pénale, les préjugés raciaux figurant en tête de liste sur le plan des risques.
    Une étude fédérale réalisée en 2019 aux États-Unis a montré que les Asiatiques et les Afro-Américains étaient jusqu'à 100 fois plus susceptibles que les hommes blancs d'être erronément identifiés, suivant l'algorithme et la nature de l'enquête dans chaque cas. Les Amérindiens représentent le taux de faux positifs le plus élevé de toutes les ethnies, selon l'étude, qui a révélé que les systèmes variaient considérablement sur le plan de l'exactitude.
(1555)
     Une étude réalisée au Royaume-Uni a montré que la technologie de reconnaissance faciale testée dans le cadre de l'étude était beaucoup moins performante à l'heure de reconnaître les visages noirs, en particulier ceux des femmes noires. Ces activités de surveillance soulèvent d'importantes préoccupations en matière de droits de la personne, surtout qu'il est avéré que les Noirs sont déjà criminalisés et ciblés de façon disproportionnée par la police. La technologie de reconnaissance faciale touche également de façon disproportionnée les manifestants noirs et autochtones de bien des façons.
    Du point de vue de la protection de la vie privée, les systèmes algorithmiques soulèvent des questions de construction, car leur construction exige la collecte et le traitement de grandes quantités de renseignements personnels, ce qui peut être très intrusif. La réidentification de renseignements anonymisés, qui peut se produire par la triangulation de points de données recueillis ou traités par des systèmes algorithmiques, constitue un autre risque important pour la vie privée.
    Il y a des conséquences ou des risques délétères découlant de l'utilisation de la technologie concernant la situation financière ou le bien-être physique ou psychologique des personnes. Le principal problème, c'est qu'il est possible de recueillir toutes sortes de renseignements personnels qui servent à surveiller et à trier socialement, ou à établir le profil, des personnes et des collectivités, ainsi qu'à prévoir et à influencer leur comportement. C'est ce que font les services de police prédictifs.
    En conclusion, les systèmes algorithmiques peuvent également être utilisés dans le contexte du secteur public pour évaluer si une personne a droit à recevoir des services sociaux, comme l'aide sociale ou l'aide humanitaire, ce qui peut entraîner des effets discriminatoires en fonction du statut socioéconomique et de l'emplacement géographique, parmi d'autres données analysées.
    Merci beaucoup.

[Français]

     Monsieur Schauer, vous avez la parole.

[Traduction]

    Je pense que ce sera un point de vue intéressant à côté de celui de Mme Ifill.
    Je suis le fondateur et président-directeur général d'AlayaCare. C'est une entreprise de logiciels de soins à domicile. Nous offrons nos solutions aux fournisseurs du secteur privé et aux autorités sanitaires du secteur public.
    Dans le domaine de l'apprentissage automatique, nous offrons toutes sortes de modèles de risque. Ce que nous bâtissons, c'est un modèle qui s'appuiera sur les données sur les patients et leur évaluation, pour aider à déterminer la façon optimale d'affecter les ressources du système de santé pour la santé de la population. Dans cette optique, il est évident qu'il s'agit d'un système qui aura une incidence considérable.
    Il y a deux choses que j'aime bien au sujet du cadre du projet de loi. Premièrement, vous cherchez à respecter les normes internationales. À titre de concepteurs de logiciels qui cherchent à générer de la valeur dans notre société, nous ne pouvons pas absolument tout contrôler. Permettez-moi de commencer par vous remercier. La deuxième chose que j'apprécie vraiment, c'est votre segmentation des acteurs entre les gens qui génèrent les modèles d'intelligence artificielle, ceux qui les transforment en produits utiles, et ceux qui les exploitent en public. Je pense que c'est un cadre très utile.
    Quant à la partialité, je pense qu'elle soulève des questions intéressantes. Je pense qu'il faut s'attacher à légiférer en bonne et due forme pour éviter les préjugés. Dans l'élaboration du modèle, la seule différence entre une régression linéaire — songez à ce que vous pourriez faire à l'aide d'Excel — et un modèle d'intelligence artificielle, c'est l'aspect de la boîte noire. Certes, s'il s'agit de déterminer comment répartir les ressources du système de santé, on ne veut probablement pas inclure certains éléments qui pourraient être sectaires dans le modèle, parce que ce n'est pas ainsi qu'une société veut répartir les ressources en santé. Avec un modèle d'apprentissage automatique, on va insérer un paquet de données dans une boîte noire pour qu'il en sorte une prédiction ou une optimisation. On peut dès lors imaginer toutes les sortes de préjugés qui peuvent s'insinuer. Disons, par exemple, qu'une certaine identité permet aux gauchers d'éviter l'hospitalisation parce qu'ils réussissent à s'en tirer avec un peu moins de soins à domicile que d'autres... Ce détail ne serait pas programmé dans l'algorithme, mais ce pourrait certainement être un extrant de l'algorithme.
    Je pense que nous devons faire attention en attribuant la bonne responsabilité au bon intervenant dans le cadre, et que les concepteurs de modèles doivent sélectionner les données de formation de manière attentive. Pour ce qui est de l'exemple précédent — et je peux le dire avec une certaine certitude —, la raison pour laquelle le modèle de reconnaissance faciale ne fonctionne pas aussi bien pour les communautés autochtones, c'est que le modèle n'a tout simplement pas reçu suffisamment de données sur la formation de ce groupe particulier. Lorsqu'on élabore le modèle d'intelligence artificielle, il faut faire preuve de prudence et démontrer qu'on a pris soin d'avoir un ensemble de formation représentatif qui n'est pas subjectif.
    Lorsqu'on met au point un algorithme et qu'on le met sur le marché, il est essentiel à mon avis de fournir le plus de transparence possible aux gens qui l'utiliseront. Ensuite, au niveau de l'usage et du résultat de cet algorithme, il faut un ensemble de formation représentatif et les bonnes mises en garde. Je pense qu'il faut faire attention à ne pas exiger des comptes inappropriés aux concepteurs de modèles. C'est ce qui me préoccupe. Autrement, ce sont des cadres de partialité qui pourraient l'emporter au détriment de l'utilité.
    Je pense que nous devons faire attention, avec ce projet de loi, de ne pas nous délester outre mesure des préoccupations à l'égard de la façon dont les ressources devraient être affectées — quel que soit l'usage qui leur est réservé — en les mettant sur le dos du concepteur de l'outil, mais de regarder plutôt du côté de l'utilisateur.
    C'est mon point de vue sur le projet de loi.
(1600)

[Français]

     Merci beaucoup, monsieur Schauer.
    Je passe maintenant la parole à Jeremie Harris, de Gladstone AI, pour cinq minutes.

[Traduction]

     Merci et bonjour, monsieur le président et membres du Comité.
    Je suis ici au nom de Gladstone AI, une entreprise de sécurité en intelligence artificielle que j'ai cofondée. Nous collaborons avec des chercheurs de tous les meilleurs laboratoires d'intelligence artificielle au monde, y compris OpenAI et des partenaires du milieu de la sécurité nationale des États-Unis, afin de trouver des solutions à des problèmes urgents en matière de sécurité de l'intelligence artificielle avancée.
    Les systèmes d'aujourd'hui peuvent rédiger des programmes logiciels de façon presque autonome, de sorte qu'ils peuvent même rédiger des maliciels. Ils peuvent générer des clones vocaux de gens ordinaires en n'utilisant que quelques secondes d'enregistrement audio, ce qui leur permet d'automatiser et d'élargir des campagnes de vol d'identité sans précédent. Ils peuvent guider les utilisateurs néophytes tout au long du processus de synthèse de composés chimiques contrôlés. Ils peuvent écrire du texte semblable à celui d'un humain et produire des images photoréalistes qui peuvent alimenter, et ont alimenté, des opérations d'ingérence électorale sans précédent et à grande échelle.
    Soit dit en passant, ces capacités sont essentiellement survenues inopinément au cours des 24 derniers mois. Les choses se sont transformées à cette époque, invalidant par la même occasion des hypothèses clés en matière de sécurité intégrées aux stratégies, aux politiques et aux plans des gouvernements du monde entier.
    La situation ne fera que s'aggraver et elle le fera rapidement. Avec les techniques actuelles, l'équation derrière le progrès de l'intelligence artificielle est devenue fort simple: l'argent entre sous forme de puissance de calcul, et ce qui en sort, ce sont des points sous forme de quotients d'intelligence. Il n'y a pas de moyen connu de prédire les nouvelles capacités qui surgiront à mesure que les systèmes d'intelligence artificielle se répandront en utilisant une plus grande puissance de calcul. En fait, quand les chercheurs d'OpenAI ont utilisé une quantité inédite de puissance informatique pour construire le GPT‑4, leur dernier système, ils n'avaient aucune idée qu'ils étaient en train de développer la capacité de tromper les êtres humains ou de découvrir des cyber-exploits de manière autonome, mais c'est arrivé.
    Nous travaillons avec des chercheurs des meilleurs laboratoires au monde sur des problèmes liés à la sécurité de l'intelligence artificielle avancée. Il n'est pas exagéré de dire que dans les milieux pionniers de la sécurité de l'intelligence artificielle, on estime extraofficiellement que celle‑ci ne tardera pas à devenir une arme de destruction massive. La technologie y est. Les laboratoires publics et privés nous disent que les systèmes d'intelligence artificielle seront selon toute attente capables de mener des attaques catastrophiques de maliciels et de soutenir la conception d'armes biologiques, entre autres capacités alarmantes, au cours des prochaines années. Nos propres recherches indiquent que c'est tout à fait plausible.
    Au‑delà du côté armement, les données probantes suggèrent également que, à mesure que l'intelligence artificielle avancée approche des capacités générales surhumaines, elle peut devenir incontrôlable et afficher ce qu'on appelle des comportements en quête de pouvoir. Il s'agit notamment de systèmes qui empêchent les gens de les éteindre, qui s'arrangent pour contrôler leur environnement et qui s'améliorent de leur propre chef. Les systèmes les plus avancés d'aujourd'hui présentent peut-être déjà des signes précurseurs de ce comportement. La quête de pouvoir est une catégorie de risque bien établie. Elle s'appuie sur des études empiriques et théoriques réalisées par d'éminents chercheurs et publiées lors des plus grandes conférences mondiales sur l'intelligence artificielle. La plupart des chercheurs en sécurité avec lesquels je parle quotidiennement dans les laboratoires des régions pionnières considèrent que cette quête de pouvoir peut causer une catastrophe mondiale.
    Tout cela pour dire que si nous ancrons la législation sur le profil de risque des systèmes actuels d'intelligence artificielle, nous échouerons très probablement à ce qui s'avérera être le plus grand critère de gouvernance de la technologie que nous ayons jamais eu à aborder. Le défi que doit relever la LIAD consiste à atténuer les risques dans un monde où, si les tendances actuelles se poursuivent, le Canadien moyen aura accès à des outils semblables aux armes de destruction massive et où le simple fait de développer des systèmes d'intelligence artificielle pourrait entraîner des risques catastrophiques.
    D'ici l'entrée en vigueur de la LIAD, nous nous retrouverons en 2026. Les systèmes d'intelligence artificielle des régions pionnières auront été mis à l'échelle des centaines à des milliers de fois au‑delà de ce que nous voyons aujourd'hui. J'ignore quelles seront les capacités. Comme je l'ai mentionné plus tôt, personne ne peut le savoir. Cependant, lorsque je parle à des chercheurs en intelligence artificielle des régions pionnières, les prévisions que j'entends laissent supposer que le risque à l'échelle des armes de destruction massive est absolument là qui guette sur cet horizon temporel. La LIAD doit être conçue en tenant compte de ce degré de risque.
    Pour relever ce défi, nous estimons que la LIAD devrait être modifiée. Voici nos trois principales recommandations:
    Premièrement, la LIAD doit interdire explicitement les systèmes qui présentent des risques extrêmes. Étant donné que les systèmes d'intelligence artificielle au‑dessus d'un certain niveau de capacité sont susceptibles d'introduire des risques comme armes de destruction massive, il devrait exister un niveau de capacité, et donc un niveau de puissance informatique, au‑delà duquel le développement de modèles sera tout simplement interdit, et ce, jusqu'à ce que les concepteurs puissent prouver que leurs modèles sont dépourvus de certaines capacités dangereuses.
    Deuxièmement, la LIAD doit s'attaquer au développement à source ouverte de modèles d'intelligence artificielle dangereusement puissants. Dans sa forme actuelle, d'après ce que j'ai lu, la LIAD me permettrait de créer un modèle qui peut concevoir et exécuter automatiquement des attaques sous forme de maliciels paralysants et les publier pour que n'importe qui puisse les télécharger gratuitement. S'il est illégal de publier des modes d'emploi pour la fabrication des armes biologiques ou des bombes nucléaires, il devrait être tout aussi illégal de publier des modèles d'intelligence artificielle qui peuvent être téléchargés et utilisés par quiconque voudra suivre le mode d'emploi pour quelques centaines de dollars.
    Enfin, la LIAD devrait traiter explicitement de la phase de recherche et de développement du cycle de vie de l'intelligence artificielle. C'est très important. À partir du moment où le processus de développement commence, de puissants modèles deviennent des cibles attrayantes pour le vol par un pays, un État et d'autres acteurs. À mesure que les modèles acquièrent de plus en plus de capacités et de connaissances du contexte pendant le processus de développement, la perte de contrôle et les accidents sont à craindre de plus en plus. Les concepteurs devraient assumer la responsabilité de veiller au développement et au déploiement de leurs systèmes en toute sécurité.
(1605)
     La LIAD est une amélioration par rapport au statu quo, mais il faut y apporter des modifications importantes pour relever tous les défis qui découleront probablement des capacités d'intelligence artificielle dans un proche avenir.
    Vous trouverez nos recommandations complètes dans mon mémoire et je serai heureux de répondre à vos questions. Merci.
    Merci beaucoup, monsieur Harris.

[Français]

     Professeure Quaid, la parole est à vous.
    Monsieur le président, messieurs les vice-présidents et chers membres du Comité permanent de l'industrie et de la technologie, c'est avec grand plaisir que je me présente à nouveau devant vous; cette fois-ci pour parler du projet de loi C‑27.
(1610)

[Traduction]

    Je suis reconnaissante de pouvoir partager mon temps de parole avec ma collègue Céline Castets‑Renard, qui est en ligne et qui est titulaire de la chaire de recherche de l'université sur l'intelligence artificielle responsable dans un contexte mondial. À titre d'experte juridique en intelligence artificielle au Canada et dans le monde, elle est amplement au courant de ce qui se passe à l'étranger, particulièrement dans l'Union européenne et aux États‑Unis. Elle dirige également un projet de recherche sur la gouvernance de l'intelligence artificielle au Canada financé par le Conseil de recherches en sciences humaines du Canada, le CRSH, dont je fais partie. Le projet de loi vise directement à répondre à la question qui vous occupe aujourd'hui dans le cadre de l'étude de ce projet de loi, c'est‑à‑dire la façon de créer un système qui soit conforme aux grandes lignes de ce que font les pays européens, le Royaume‑Uni et les États‑Unis, tout en restant néanmoins fidèles à nos valeurs et aux fondements de notre environnement juridique et institutionnel. Bref, nous devons créer un projet de loi qui fonctionnera chez nous, et c'est ce que visent nos commentaires, du moins pour ma part. Mme Castets‑Renard vous parlera plus précisément des détails du projet de loi qui portent sur la réglementation de l'intelligence artificielle.
    Notre message commun est simple. Nous croyons fermement que le projet de loi C‑27 est une étape importante et positive dans le processus d'élaboration d'une gouvernance solide en faveur de l'intelligence artificielle responsable. De plus, il est essentiel et urgent que le Canada établisse un cadre juridique à l'appui de cette gouvernance responsable. Les principes éthiques ont leur place, mais ils sont complémentaires et ne sauraient remplacer des règles rigoureuses et des normes exécutoires contraignantes.
    Notre objectif est donc de vous fournir une rétroaction et des recommandations constructives pour vous aider à peaufiner le projet de loi. À cette fin, nous avons présenté un mémoire écrit, en anglais et en français, qui met en lumière les points qui, selon nous, gagneraient à être clarifiés ou mieux précisés avant son adoption.
     Cela ne signifie pas que d'autres améliorations ne sont pas souhaitables. Au contraire, il faut croire qu'elles le sont. L'ennui c'est que le temps presse et nous devons nous contenter de ce qui est réalisable pour le moment, parce que le retard n'est tout simplement pas une option.
    Dans cette déclaration d'ouverture, nous attirons votre attention sur un sous-ensemble de ce dont nous discutons dans le mémoire. Je vais aborder brièvement quatre points avant de céder la parole à ma collègue, Mme Castets‑Renard.
    Premièrement, il importe d'établir qui est responsable de quels aspects du développement, du déploiement et de la mise en marché des systèmes d'intelligence artificielle. C'est important pour déterminer la responsabilité, en particulier des organisations et des entités commerciales. Si on s'y prend comme il faut, cela peut aider les responsables de l'application de la loi à recueillir des preuves et à évaluer les faits. Autrement, il y aura une immunité structurelle contre la reddition de comptes et il sera impossible de trouver de quoi prouver des infractions à la loi.
     J'ajouterais également que la conception actuelle de la reddition de comptes est fondée uniquement sur l'action de l'État, et je me demande si nous ne devrions pas également tenir compte des droits d'action privés. Ces droits sont examinés dans d'autres domaines, y compris, je le précise, dans le projet de loi C‑59, qui modifie la Loi sur la concurrence.
    Deuxièmement, nous devons faire preuve de prudence à l'heure d'établir les obligations et les devoirs de ceux qui participent à la chaîne de valeurs de l'intelligence artificielle. Les règlements devraient être rédigés en fonction des indicateurs qui peuvent servir à mesurer la conformité. Surtout dans le contexte de la responsabilité réglementaire et des sanctions administratives, les tribunaux examineront ce que les organismes de réglementation exigent des intervenants de l'industrie pour décider ce qui constitue une diligence raisonnable et ce à quoi on peut s'attendre d'une personne raisonnablement prudente dans les circonstances.
     Bien que la preuve de la conformité à la réglementation incombe habituellement à l'entreprise qui l'invoque, il est important que les enquêteurs et les procureurs puissent examiner les réclamations. Ces paramètres et indicateurs doivent être vérifiables indépendamment et fondés sur des recherches solides. Dans le contexte de l'intelligence artificielle, leur opacité et la difficulté pour les gens de l'extérieur de comprendre la capacité des systèmes font qu'il soit d'autant plus important d'établir des normes.
    Troisièmement, les obligations de déclaration devraient être obligatoires et non ponctuelles. À l'heure actuelle, la loi confère au commissaire à l'intelligence artificielle et aux données le pouvoir d'exiger des renseignements. Les demandes ponctuelles ne sont pas suffisantes pour garantir la conformité. Il devrait plutôt s'agir par défaut de rapports réguliers aux organismes de réglementation, avec des exigences normalisées en matière d'information. Ces organismes sauront ainsi au fur et à mesure ce qui se passe au niveau de la recherche, du déploiement et du marketing, même si l'intelligence artificielle se développe de façon exponentielle.
     Cela permet de renforcer les connaissances et les capacités institutionnelles des organismes de réglementation et d'application de la loi afin de faire la distinction entre les situations qui exigent l'application de la loi et celles qui ne l'exigent pas. Cela semble être le nœud du problème. Tout le monde veut savoir quand intervenir et quand laisser les choses évoluer. Cela permet également l'élaboration interne de nouveaux règlements en fonction des tendances et d'autres nouveautés.
     Je me ferai un plaisir de vous donner quelques exemples. Inutile de réinventer la roue.
     Enfin, l'application et la mise en œuvre de la LIAD, ainsi que l'élaboration continue de nouveaux règlements, doivent être appuyées par une structure institutionnelle indépendante et solide dotée de ressources suffisantes.
    Le commissaire à l'intelligence artificielle proposé ne peut pas y arriver seul. Même si ce n'est pas une analogie parfaite — et je sais que certaines personnes ici savent que je suis l'experte en matière de concurrence —, je crois que la création d'un organisme semblable au Bureau de la concurrence serait un modèle à envisager. Ce n'est pas parfait. Le Bureau est un bon exemple parce qu'il combine l'application de tous les types de la loi — criminelle, réglementaire, administrative et civile — avec l'éducation, la sensibilisation du public, l'élaboration de politiques et, maintenant, le renseignement numérique. Il dispose d'une main-d'œuvre hautement spécialisée formée dans les disciplines pertinentes dont il a besoin pour s'acquitter de son mandat. Il représente également les intérêts du Canada dans des forums multilatéraux et collabore activement avec les administrations homologues. Je pense que c'est important d'avoir tout cela pour l'intelligence artificielle.
    Je vais maintenant céder le temps qu'il me reste à ma collègue, Mme Castets‑Renard.
    Merci.
(1615)

[Français]

    Je vous remercie beaucoup, monsieur le président, messieurs les vice-présidents et chers membres du Comité permanent de l'industrie et de la technologie.
    Je voudrais également remercier ma collègue, la professeure Jennifer Quaid, de partager son temps avec moi.
    Je limiterai mon intervention à trois commentaires généraux. Tout d'abord, je pense qu'une réglementation de l'intelligence artificielle est absolument nécessaire aujourd'hui, et ce, pour trois raisons principales. Premièrement, l'importance et l'ampleur des risques actuels sont déjà très bien documentées. Certains témoins ici ont déjà parlé des risques actuels, comme les risques de discrimination, et des risques futurs et existentiels. Il faut absolument considérer aujourd'hui l'impact de l'intelligence artificielle, en particulier sur les droits fondamentaux, y compris la vie privée, la non-discrimination, la protection de la présomption d'innocence et, bien sûr, le respect des garanties procédurales de transparence et de redevabilité, notamment dans le cadre de l'administration publique.
    La réglementation de l'intelligence artificielle est aussi nécessaire, parce que le déploiement de ces technologies est très rapide et que les systèmes se développent et se déploient maintenant dans tous les pans de nos vies professionnelle et personnelle. À l'heure actuelle, ils peuvent se déployer sans aucun contrôle, puisqu'il n'y a pas de réglementation spécifique. On l'a bien vu avec l'arrivée sur le marché de ChatGPT.
    Également, on peut constater que le Canada a développé une stratégie pancanadienne depuis plusieurs années dans le domaine de l'intelligence artificielle, et le moment est venu aujourd'hui de sécuriser ces investissements et d'apporter une sécurité juridique aux entreprises. Cela ne veut pas dire qu'il faut laisser faire, mais, au contraire, donner un cadre simple et surtout lisible des obligations qui doivent s'appliquer tout au long de la chaîne de responsabilité.
    La deuxième remarque générale que je voudrais faire est que cette réglementation doit être compatible avec le droit international. Il y a déjà aujourd'hui plusieurs initiatives et le Canada est loin d'être seul à vouloir réglementer l'intelligence artificielle. Je pense en particulier, à l'échelle internationale, aux différentes initiatives de l'Organisation de coopération et de développement économiques, du Conseil de l'Europe, et surtout de l'Union européenne et de son projet de loi sur l'intelligence artificielle qui devrait, demain, recevoir un accord politique dans le cadre des négociations interinstitutionnelles, du trilogue, entre le Conseil de l'Union européenne, le Parlement européen et la Commission européenne. On est vraiment en phase finale de l'adoption de ce texte, qui est sur le tapis depuis deux ans. Il faut aussi considérer l'Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence du président Biden, auquel s'ajoutent les normes techniques élaborées notamment par le National Institute of Standards and Technology et par l'Organisation internationale de normalisation.
    Ma dernière remarque porte sur la façon de réglementer l'intelligence artificielle. La loi proposée ici n'est pas parfaite, mais nous pouvons considérer que l'approche fondée sur les risques est bonne, mais elle doit être renforcée. On devrait notamment penser aux risques inacceptables à l'heure actuelle, qui ne sont pas forcément des risques existentiels, mais bien des risques que l'on peut voir aujourd'hui, comme l'utilisation de la reconnaissance faciale à grande échelle. Nous pouvons aussi considérer que les risques des systèmes à incidence élevée doivent être mieux définis.
    Nous soulignons et saluons les amendements qui ont été apportés par le ministre Champagne devant votre Comité il y a quelques semaines. D'ailleurs, nos remarques suivantes et notre mémoire sont basés sur ces amendements. Il a été souligné précédemment qu'il faudrait tenir compte des risques individuels, mais aussi des risques collectifs aux droits fondamentaux, notamment des risques systémiques.
    J'ajouterais qu'il est absolument nécessaire, comme les amendements du ministre Champagne invitent à le faire, de considérer à part l'intelligence artificielle à usage général, qu'il s'agisse de systèmes ou de modèles de fondation. Nous pourrons y revenir.
    À mon avis, l'approche fondée sur la conformité, qui transparaît des amendements apportés récemment, est celle à adopter et elle est tout à fait compatible avec celle de l'Union européenne.
    Enfin, l'approche doit être la plus globale possible et, à l'heure actuelle, le champ d'application du projet de loi C‑27 est, à mon sens, trop limité, et essentiellement concentré sur le secteur privé. Il faudrait l'étendre au secteur public et engager une discussion et une collaboration avec les provinces selon leurs champs de compétences, et aussi mettre en œuvre un fédéralisme coopératif.
    Nous vous remercions de votre attention. Nous nous tenons prêts à la discussion.
(1620)
     Merci beaucoup.
    Monsieur Gagné, vous avez la parole.
    Cela me fait plaisir de témoigner devant vous à titre personnel.
    Je suis consultant stratégique en intelligence artificielle. J'ai passé toute ma carrière à utiliser cette technologie, qui a vu le jour au début des années 2000. J'ai travaillé en recherche opérationnelle, en intelligence artificielle et en mathématiques appliquées. J'ai développé des outils et des logiciels qui ont été déployés partout sur la planète. En 2016, j'ai créé l'entreprise Element AI et j'ai été son président jusqu'à sa vente à ServiceNow en 2021.
    Sur le plan international, j'ai eu de multiples collaborations. J'ai été le coprésident du groupe de travail sur l'innovation et la commercialisation du Partenariat mondial sur l'intelligence artificielle pendant deux ans. J'ai aussi représenté le Canada au sein du Groupe d’experts de haut niveau sur l’intelligence artificielle nommé par la Commission européenne. Le Canada est d'ailleurs le seul pays hors de l'Union européenne à y avoir participé. J'ai coprésidé la rédaction de l'élément livrable principal sur la réglementation et l'investissement pour une intelligence artificielle digne de confiance.
    En outre, j'ai participé à plusieurs événements de l'Organisation de coopération et de développement économiques et de l'Institut des ingénieurs électriciens et électroniciens, sans compter plusieurs autres contributions internationales. J'ai également été membre des tables sectorielles fédérales de stratégies économiques pour les industries numériques.
    Malgré la présence du Canada dans le domaine de la recherche en intelligence artificielle et sa contribution indéniable à la recherche fondamentale, il perd graduellement son rôle de chef de file. Il faut être conscient du fait que nous ne sommes plus à l'avant-plan. Nos chercheurs ont désormais des ressources limitées. Faire de la recherche et comprendre ce qui se passe dans ce domaine aujourd'hui coûte extrêmement cher, et beaucoup des innovations vont émerger du secteur privé. C'est un fait. Beaucoup des publications des chercheurs sont en fait issues d'une collaboration avec des entreprises étrangères, car c'est de cette manière qu'ils ont accès à des ressources pour faire l'entraînement des modèles et des tests et qu'ils sont capables de continuer à publier et à avoir des idées.
    Le Canada a toujours été un peu moins compétitif que les États‑Unis, une situation qui, si elle n'a pas empiré, ne s'est pas améliorée. Lorsqu'on parle d'une technologie aussi fondamentale que l'intelligence artificielle, que j'aime comparer littéralement à l'énergie, on parle d'intelligence, de savoir-faire et de capacités. C'est une technologie qui se déploie déjà dans toutes les industries et dans toutes les sphères de notre vie. Il n'y a absolument aucun recoin de la société qui n'est pas touché par cette technologie.
    Ici, je tiens à souligner l'importance de ne pas traiter l'intelligence artificielle de façon uniforme, tout comme on n'aborde pas tous les règlements et les lois entourant le pétrole, le gaz naturel et l'électricité de la même manière. Je pourrais même décliner tous les sous-aspects de la production de chacune de ces ressources. Il est très difficile d'aborder l'intelligence artificielle de la même manière pour l'ensemble de ses applications. Tout avance très vite et est très complexe, et quand on combine tous ces faits, on se sent dépassé. C'est ce qu'on entend trop souvent dans les médias, malheureusement. Nous sommes ici depuis très peu de temps et nous avons déjà entendu les mots « peur » et « avancement », parmi d'autres. Nous avons également entendu parler de l'incertitude quant à l'avenir.
    Alors, pour revenir au sujet qui nous occupe, oui, il est absolument urgent d'agir. Je ne suis pas en train de sous-entendre qu'on ne doit pas prendre de mesures, mais ces mesures doivent être à la hauteur de la situation à laquelle nous sommes confrontés.
(1625)
    Nous faisons face à une situation qui évolue rapidement, qui est complexe et qui touche à toutes les sphères de la société. Il faut faire très attention à ne pas adopter une réponse unique, simple et trop forte. Qu'est-ce qu'il va se passer si nous prenons une approche comme cela? Nous allons peut-être nous protéger, mais nous allons certainement nous empêcher de saisir des occasions, de favoriser le développement économique et la croissance de notre productivité, et d'enrichir tout le pays. C'est un fait, tout simplement. Nous ne pourrons pas attraper toutes les situations, car c'est trop complexe.
    Si nous essayons de tout faire et d'être pondérés, nos règlements seront trop vagues, ne seront pas efficaces et seront mal compris. La conséquence économique du flou réglementaire — vous le savez mieux que moi — sera que les investissements ne suivront pas. Si nous ne sommes pas certains des conséquences, si ce n'est pas clair ou si les choses seront définies plus tard, les entreprises vont simplement investir ailleurs. Il s'agit d'un domaine numérique hautement mobile. Plusieurs travailleurs canadiens compilent et entraînent les modèles en sol américain, hors de l'application de nos règles, dans nos entreprises et dans nos universités. Il faut en être conscient.
    Ces éléments sont vraiment structurants, à mon avis. Ils sont au cœur de notre réflexion sur la manière d'écrire ces règles et, surtout, la manière dont ce sera affiné. Plus encore, ils guident l'effort requis pour faire un bon travail et pour nous offrir un cadre réglementaire clair et précis qui favorise les investissements. Avec un tel cadre, nous saurons exactement ce que nous obtiendrons si nous faisons tel ou tel investissement, nous comprendrons exactement les coûts engendrés pour assurer la transparence, être capables de publier les données et vérifier si elles ont bien été anonymisées.
    Cela permettra aux organisations de faire tous les investissements qu'elles veulent faire et que nous souhaitons. Si nous sommes clairs, ces organisations vont être en mesure de faire le calcul et de choisir d'investir au Canada et d'y déployer leurs services ou pas. Il nous reviendra alors de voir si la barre est trop haute et si les critères sont trop restrictifs.
    Le flou réglementaire va garantir que les choses ne vont pas déboucher. Les entreprises vont simplement aller ailleurs, car c'est trop facile. Plusieurs autres éléments figurent sur ma liste et je vais vous fournir un résumé de ceux-ci. Je vous prie de m'excuser de ne pas avoir pu le faire avant ma présentation. Je vais faire parvenir au Comité tous les détails et les recommandations concernant les ajustements qui devraient être faits.
    Dans ce cadre réglementaire, je crois que la transparence sera très importante pour assurer un climat de confiance. Il faut s'assurer que les utilisateurs de la technologie sont conscients qu'ils interagissent avec celle-ci. Il y a des questions ou des sujets communs à toutes les industries: il s'agit d'être capables de savoir ce que nous obtenons.
     Je pense à tous les principes de base: déclarer les services auxquels nous avons accès, leurs paramètres et leurs spécifications. Si un service change ou si son modèle est mis à jour, nous serons ainsi capables d'évaluer les répercussions de son utilisation. Il y a aussi tous les autres principes permettant de s'assurer que les gens ne sont pas manipulés et de respecter les questions d'éthique, entre autres. Ces principes sont fondamentaux et doivent faire partie du cadre réglementaire.
    L'une de mes plus grandes préoccupations est le manque de précision et la possibilité que la loi ait une portée trop vaste. J'ai tiré une leçon de ma participation à ce qui a mené à la loi sur l'intelligence artificielle de l'Union européenne: l'Europe a essayé de se doter de mesures législatives exhaustives, qui essaient d'encadrer presque tout. Or, beaucoup des recommandations faites par le comité, à l'époque, visaient le besoin de travailler avec les industries, d'être précis et de ne pas aboutir à une loi qui essaie de tout couvrir.
    En effet, il y a toujours une nouvelle situation qui se présente. Il peut s'agir de l'intelligence artificielle générative, ou de la prochaine génération d'intelligence artificielle appliquée à la cybersécurité, à la santé et à toutes les sphères de l'économie, des services et de nos vies. Il y aura toujours quelque chose à amender ou changer.
(1630)
    Selon mon opinion, il faut être prudent à cet égard, avoir une approche extrêmement chirurgicale et élaborer une réglementation particulière à chacun des secteurs et chacune des industries avec leur aide, comme pour le secteur de l'automobile, par exemple.
     Merci beaucoup, monsieur Gagné.
    Voilà ce qui conclut les présentations des témoins. Nous allons donc entamer le premier tour de questions.
    Monsieur Généreux, vous avez la parole pour six minutes.
    Je remercie tous les témoins.
    Monsieur Harris, tantôt, j'avais l'impression d'être dans un film dans lequel un comité parlementaire était en train de mener l'étude d'un projet de loi sur l'intelligence artificielle. Vous disiez aux gens de ce comité que la troisième guerre mondiale arrivait et qu'elle serait technologique, c'est-à-dire qu'on n'utiliserait ni armes ni autre chose. Aujourd'hui, en vous écoutant, j'avais le goût de jurer, mais je ne pouvais pas, malheureusement.
    Ma plus grande frustration, qui, je pense, est aussi celle de plusieurs personnes à cette table, c'est que le projet de loi qui est devant nous inclut toute une série d'éléments, dont les trois principaux sont la vie privée, le tribunal et l'intelligence artificielle. Or, selon les témoignages que nous avons entendus aujourd'hui, l'intelligence artificielle aurait dû être traitée dans un projet de loi distinct.
    On nous dit qu'il y a déjà eu des avancées importantes en matière d'intelligence artificielle depuis le début de notre étude, dont la signature d'un protocole en Angleterre. Des pays ont décidé de mettre en place un code volontaire en attendant l'adoption de différents projets de loi.
    Madame Castets‑Renard, vous avez parlé d'un trilogue, qui traitera certaines questions. J'imagine que vous parliez de l'Europe. Monsieur Gagné, vous avez aussi parlé, tantôt, des mesures proposées dans les rapports que vous avez remis à l'Union européenne. Parlez-vous de la même chose? Je ne suis pas certain de bien comprendre.
    Je vais laisser la parole à Mme Castets‑Renard, puisque c'est l'experte en droit européen.
    J'essaie de comprendre s'il y a un lien entre le travail fait par M. Gagné et par l'Union européenne et le projet de loi qui va possiblement être adopté demain.
    Je ne peux pas parler au nom de M. Gagné, parce que je ne sais pas exactement à quoi il a participé, mais je pense qu'il a participé aux travaux éthiques du groupe d'experts qui ont précédé la proposition de règlement de l'Union européenne.
    Le texte dont je parle est une proposition de règlement qui a été divulguée en 2021 par la Commission européenne. Cette proposition a ensuite été adoptée par le Conseil de l'Union européenne en décembre 2022, et par le Parlement européen en juin 2023. En Europe, le droit est décidé par trois partenaires ou colégislateurs. Dans le cas présent, il faut que ces trois partenaires se mettent d'accord sur le même texte, car, pour l'instant, chacun a adopté un texte différent. Depuis cet été, mais surtout depuis le mois de septembre, a commencé ce trilogue, dans lequel il y a effectivement des débats entre des représentants de ces trois institutions. Demain aura lieu une réunion très importante, la cinquième en son genre. Il est donc possible qu'il y ait un accord politique sur ce texte qui, de toute façon, devrait être adopté avant les prochaines élections européennes, soit avant juin 2024.
    Madame Castets‑Renard, si j'ai bien compris, un projet de loi pourrait être adopté avant 2024 si le texte est adopté ou s'il y a une entente entre les trois parties demain.
    Monsieur Gagné, vous et M. Harris avez parlé de la vitesse à laquelle avancent l'intelligence artificielle, la technologie et la recherche-développement. Tout le monde en est conscient. Plus tôt, Mme Castets‑Renard faisait référence aux amendements déposés par le ministre, dont nous ne connaissons pas encore la véritable teneur, puisque nous ne les avons pas encore devant les yeux. Comment voyez-vous ce projet de loi, comparativement à ce qui se fait ailleurs dans le monde?
    Je pose aussi cette question à Mme Quaid.
(1635)
    Ce projet de loi semble prendre une tangente similaire à celle de l'Europe, c'est-à-dire qu'on tente d'avoir un texte législatif sur l'intelligence artificielle. Or, lors de mon intervention, je vous invitais à réfléchir à l'ampleur de ce texte et à l'effort requis pour y arriver.
    Le Royaume‑Uni prépare lui aussi un projet de loi et plus de 280 personnes travaillent à temps plein sur ce dossier, ce qui démontre l'ampleur de la tâche. Puisque le Canada suit une démarche semblable à celle de l'Europe, je crois qu'il serait judicieux, compte tenu des ressources canadiennes...
     N'ayez pas peur des mots, monsieur Gagné.
     … et de notre rôle à jouer, de distribuer le travail. Par exemple, en matière de transport, quand on parle de la voiture autonome, c'est de l'intelligence artificielle. Les villes intelligentes, c'est de l'intelligence artificielle. Tous ces secteurs ont besoin de réfléchir à l'impact de l'intelligence artificielle sur la vie privée. Dans les voitures, il y a les caméras, il y a les risques que soulèvent ces véhicules; par exemple, de quelle manière va-t-on certifier qu'une voiture se conduit seule ou pas, qu'elle est automatique? Comment est-ce que cela marchera dans le cas d'un parc de voitures qui collaborent entre elles? Quelles devront être les règles du jeu? Quelles données pourront être partagées? J'ai pris la voiture comme exemple, mais je pourrais continuer ainsi pendant longtemps.
    Ce que je veux dire, c'est que c'est une bonne chose que de donner un cadre et des principes. Il existe certains principes de base liés à la protection de la vie privée et des renseignements personnels de même qu'à l'anonymisation des données. Tout ce sur quoi vous avez travaillé dans certaines parties du projet de loi, je pense que c'est extrêmement valide, parce qu'il s'agit d'un sujet spécifique.
    Par contre, l'intelligence artificielle n'est pas un sujet spécifique. C'est une technologie à usages multiples. Voilà mon point de vue.
    Merci, monsieur Gagné.
    Madame Quaid, voulez-vous ajouter quelque chose rapidement?
     J'aimerais souligner le fait qu'il n'est pas nécessaire d'opposer la réglementation ou l'encadrement sectoriel à une réglementation générale. Je pense que, le danger, c'est qu'on mélange beaucoup de choses, alors qu'il faudrait plutôt mettre l'accent sur ce qui est sur la table, c'est-à-dire un encadrement général. Cela n'exclut aucunement un encadrement autre, notamment par les provinces.
    Nous sommes en retard. Dans la mesure où c'est un phénomène qui touche tous les secteurs, il va falloir se doter de lois plus adaptées à certains secteurs. Toutefois, ceci n'exclut aucunement un encadrement général ou ne devrait pas être opposé à un cadre général. L'Europe abonde dans ce sens. Elle a à la fois une réglementation générale et une réglementation sectorielle, notamment en matière de transport.
    Le Royaume‑Uni a renoncé à une loi et restera avec un cadre volontaire. Sans parler au nom de Mme Castets‑Renard, qui en connaît beaucoup plus que moi, je peux dire que c'est ce qu'il ne faut pas faire. Je pense que cela nous prend des règles et un cadre. Il faut commencer quelque part.
    On l'a signé, quand même.
    Pardon?
    On a signé cet accord.
    Oui, mais c'est un accord volontaire.
    Je ne veux pas prendre de votre temps, mais, si vous voulez parler de la conformité en entreprise et du fonctionnement des règles volontaires par rapport aux règles contraignantes, je peux vous en parler longtemps.
    Oui, je pense que c'est sans surprise.
    Merci beaucoup, madame Quaid.
    Je veux informer les membres du Comité que les amendements concernant la partie du projet de loi portant sur l'intelligence artificielle ont été rendus publics la semaine dernière. Ils sont maintenant accessibles et ont été distribués.
    Monsieur Turnbull, vous avez la parole pour six minutes.

[Traduction]

    Merci, monsieur le président.
    Merci à tous les témoins d'être ici aujourd'hui. C'est un sujet très difficile, même pour les législateurs les plus intelligents. J'apprécie vraiment l'expertise que vous apportez tous à cette conversation. Elle contribue vraiment à éclairer nos discussions.
    Madame Quaid, vous avez dit dans votre déclaration préliminaire que le retard n'est « pas une option ». Vous avez utilisé les mots « essentiel » et « urgent ». On dirait qu'à l'heure actuelle, au Canada, on y va allégrement pour le développement de l'intelligence artificielle et la réglementation connexe, un peu comme au Far West, où tout est permis. Pouvez-vous nous parler de l'urgence que vous avez évoquée et nous en dire un peu plus à ce sujet?
    Je pense que l'urgence vient du fait que, depuis longtemps, il y a essentiellement une sphère non réglementée. Peut-être que les choses ont évolué tellement vite que tout le monde était à moitié endormi et n'a pu se mettre à la page. Il me semble que nous sommes en retard. Tout le monde est en retard.
     Je ne peux pas parler spécifiquement du développement de la technologie. Je ne suis pas une scientifique de l'intelligence artificielle. Mais je connais un peu le droit et le droit commercial, et je peux vous dire que si vous voulez que les entreprises modulent leur comportement en fonction de l'intérêt public, il vous faut une loi. La notion de profit ou la structure de notre droit des sociétés est extrêmement laxiste. Les entreprises ne feront pas les choix que vous voulez faire. C'est nous qui devons faire ces choix, ou plutôt vous, à titre de représentants des Canadiens. Qu'est‑ce qui est le plus important? Prenez‑en note.
    Cela ne veut pas dire que nous ne peaufinons pas les choses. Cela ne veut pas dire que nous ne nous adaptons pas. Mais nous devons commencer à établir des règles, parce qu'à l'heure actuelle, ce qui motive les choix, c'est l'intérêt personnel, et c'est surtout sur le plan économique.
(1640)
    Merci. On dit parfois que le mieux est l'ennemi du bien. Il me semble que c'est l'une de ces situations où il nous faut adopter une loi pour avoir quelque chose en main, quitte à devoir la mettre à jour continuellement compte tenu du rythme fulgurant auquel l'intelligence artificielle évolue, comme M. Harris a si bien dit.
    Êtes-vous d'accord, madame Quaid?
    Oui. Je dirais qu'il y a des exemples d'autres secteurs qui ont évolué très rapidement et où nous avons beaucoup d'expérience en matière de réglementation. Nous n'avons pas besoin de réinventer la roue. Nous devons faire preuve de créativité. Nous devons être plus dynamiques. Nous devons être prêts à intégrer de nouveaux éléments au processus réglementaire.
    Je pense qu'il y a beaucoup de gens intelligents qui ont d'excellentes idées pour vous aider à cet égard. Je ne pense pas que nous puissions dire que c'est tout nouveau et que nous ne savons pas quoi faire. Je pense que le temps est écoulé depuis longtemps. Nous devons aller de l'avant. Ce n'est pas parfait. Je ne dirai jamais que c'est parfait — aucune loi n'est parfaite —, mais ça peut être amélioré. Il faut bien commencer quelque part.
     Merci.
    Madame Quaid, je reviens à vous.
    Dans votre déclaration préliminaire, vous avez dit que l'immunité structurelle était un risque, je crois.
    Je comprends le concept, mais j'aimerais avoir un exemple où cela pourrait représenter un risque réel pour nous et nos futurs travaux, et savoir comment nous pourrions l'éviter.
    J'aborde cette question comme avocate de la responsabilité criminelle des personnes morales, ce qui relève principalement du droit pénal. C'est l'une des choses qui m'ont frappée lorsque j'ai parcouru le projet de loi pour la première fois. Invoquer le Code criminel entraîne des coûts pour ce qui est de la façon de préparer les preuves et de tout mettre à point.
    Ce qui me préoccupe, c'est le manque de transparence quant aux personnes qui participent aux décisions relatives à cette technologie. Je ne peux pas vous dire ce qu'il en est exactement. Les experts ici présents pourraient peut-être vous illustrer. Cela dit, il nous faut insister sur la nécessité de la transparence, savoir qui fait quoi, parce qu'on ne peut pas condamner une société ou une organisation dans ce pays sans savoir qui a fait quoi, quel est son statut et quel est son pouvoir décisionnel au sein de l'organisation. Je vous invite à consulter l'article 2 du Code criminel, si vous voulez le lire.
    Même dans le cas de la responsabilité réglementaire, où un employé peut engager la responsabilité de l'organisation, il n'est pas nécessaire d'avoir un acte constitutif indiquant qu'il s'agit d'un cadre supérieur. Mais il faut quand même savoir qui a fait quoi, sans quoi on n'aura aucune preuve. Je pense qu'il est vraiment important de créer un régime qui force la divulgation de l'information afin que nous puissions l'évaluer.
    Cela ne veut pas dire que nous allons condamner ou poursuivre les gens tout le temps, mais si tout est caché, ce n'est qu'un peu de parure superflue. Il n'y aura jamais, à mon avis, de condamnation, ni même de responsabilité administrative.
    Merci. C'est un témoignage très utile.
    Monsieur Harris, j'aimerais vous poser une question semblable à celle de M. Généreux.
    J'ai moi aussi eu l'occasion de vous écouter et de me sentir dans un film d'horreur, un roman de science-fiction ou un peu à l'intersection des deux lorsque je vous ai entendu parler. Je sais que vous évoquez ces risques et les préjudices potentiels comme étant très réels, alors je ne veux pas prendre les choses à la légère, mais c'est assez effrayant d'entendre cela.
    J'aimerais vous poser une question d'ordre éthique ou philosophique. Vous avez parlé d'atténuer les risques. Vous avez parlé d'une interdiction générale ou explicite de certains types d'intelligence artificielle avancée. Une question qui me vient à l'esprit, c'est de savoir si cette intelligence avancée surpasse l'intelligence humaine. Je pense que c'est ce que j'entends. Vous avez dit que les comportements surhumains et la quête de pouvoir représentaient un risque réel.
    Je m'intéresse à la façon dont nous élaborons un cadre éthique ou juridique. Je crois que c'est un défi fondamental dans le cadre de ce travail, avec lequel je suis aux prises. Bon nombre de nos concepts éthiques et juridiques reposent sur des choses comme des avenirs raisonnablement prévisibles. Ils reposent sur des concepts de devoir, etc., dont la plupart dépendent de la capacité humaine à examiner les résultats possibles, compte tenu de notre expérience passée.
    Vous avez dit que certaines de nos hypothèses en matière de sécurité nationale avaient été invalidées. Est‑ce en raison des progrès de l'intelligence artificielle? Comment les êtres humains peuvent-ils créer un système ou un ensemble de lignes directrices pour quelque chose qui va au‑delà de notre intelligence?
    C'est une question difficile.
(1645)
    Ce sont d'excellentes questions.
    Heureusement, nous ne manquons pas d'outils pour aborder ces questions. Pour faire suite au témoignage de Mme Quaid, je pense qu'il est tout à fait juste de nous demander comment adapter cela à nos cadres juridiques. Nous n'allons pas remanier entièrement la Constitution du jour au lendemain, ce serait impossible.
    Nous devons cependant reconnaître que nous ne pouvons pas prévoir les capacités des systèmes, alors à la conception, nous attendons de pouvoir établir des mesures de sécurité. Nous ne parlons pas d'une interdiction totale. Jusqu'à ce que nous puissions fixer des mesures de sécurité, incitons le secteur privé à faire progresser la science de l'intelligence artificielle et à nous fournir une théorie scientifique qui nous permette de prédire l'émergence de ces capacités dangereuses.
    Je dirais aussi que nous pouvons nous inspirer du décret que la Maison‑Blanche a publié récemment. Entre autres choses, ce décret comprend une exigence de production de rapports. On dit que la lumière du soleil est le meilleur désinfectant, alors il faut mettre les choses au grand jour. En entraînant un système d'IA à utiliser une certaine capacité de traitement, il faudra signaler les résultats de diverses vérifications, de diverses évaluations. Ces évaluations porteront sur la capacité de conception d'armes biologiques, sur la capacité de synthèse chimique et sur la capacité d'autoreproduction. Tout cela se trouve dans le décret.
    Nous pouvons établir un processus à plusieurs niveaux qui reflète essentiellement ce que contient ce décret. Ce processus serait fondé sur des seuils de capacité de traitement informatique; au‑dessus d'un seuil, il faudra faire ceci, et au‑dessus d'un autre seuil, il faudra faire cela. Ce serait un processus de ce genre.
    C'est vraiment très utile.
    Combien de temps me reste‑t‑il?
     Vos questions sont intéressantes, monsieur Turnbull. Vous pouvez continuer.
    Merci. Vous êtes très généreux.
    Est‑il vrai que la capacité de traitement est le principal prédicteur de l'évolution d'un système avancé d'IA et, par conséquent, de son rapport avec le niveau de risque?
    J'hésite à croire que c'est aussi simple que cela, mais il me semble que c'est ce que vous avez dit. Est‑ce exact?
    Non, vous avez tout à fait raison d'hésiter à croire que c'est aussi simple. C'est le meilleur indicateur que nous ayons à l'heure actuelle. Il pourra y avoir quelques autres facteurs. On peut faire des découvertes au niveau théorique, au niveau algorithmique, ce qui permet d'extraire plus de renseignements. On peut donc en faire plus avec la même capacité de traitement. C'est précisément la raison pour laquelle, quel que soit le seuil de la capacité de traitement, il faut en faire part aux organismes de réglementation pour qu'ils déterminent en quoi elle consiste. Il ne faut surtout pas enchâsser cela dans une loi, car tout cela change trop rapidement. Ce n'est qu'un élément parmi tant d'autres.
    Quant à savoir quelles autres capacités pourraient émerger de ces systèmes, cela dépend aussi des données d'entraînement. Si l'on entraîne ces systèmes avec des données de bioséquence, ils apprendront à fabriquer une arme biologique avec une faible capacité de traitement. C'est également inscrit dans le décret. Le seuil est moins élevé pour ce genre de technologies.
    Merci.
    Monsieur le président, je peux m'arrêter ici, mais je vois que M. Gagné veut faire un commentaire. Nous pourrions peut-être lui céder la parole.

[Français]

     Effectivement.
    Monsieur Gagné, vous avez la parole.

[Traduction]

    J'ai une petite observation à faire.
    Les derniers progrès scientifiques ont démontré des techniques permettant d'investir beaucoup d'argent dans l'inférence des calculs — et non dans l'entraînement — pour que des modèles d'une certaine taille donnent un rendement 10 fois plus élevé. Ce n'est jamais aussi simple.
    Oui, il s'agit d'un modèle mandataire, mais il y a des façons, avec suffisamment d'argent ou de calculs, de ne pas se limiter à la taille du modèle. Il y a des façons de contourner cela et d'obtenir un rendement de ces modèles. Il y a aussi des façons de spécialiser les petits modèles.
    Je le répète, d'après moi, cette approche d'atténuation des risques se fonde sur des scénarios d'utilisation. Je pense que les scénarios d'utilisation mentionnés sont tout à fait pertinents, mais les déclencheurs ne sont jamais aussi simples.

[Français]

    Merci beaucoup.
    Monsieur Lemire, vous avez la parole.
    Merci, monsieur le président.
    Merci à tous les témoins.
    Monsieur Harris, je me rappelle quand vous êtes venu nous sensibiliser, comme législateurs, aux risques de dérapage liés à l'intelligence artificielle. Si je ne me trompe pas, vous avez donné pendant votre conférence un exemple de dérapage potentiel. Vous avez dit que, pour se rendre à Toronto plus rapidement, on pourrait se servir de l'intelligence artificielle pour simuler une intervention policière majeure à la suite d'un accident ou d'un attentat quelconque. Ainsi, la route vers Toronto serait dégagée et on pourrait arriver plus tôt.
    Dans un contexte comme celui du convoi des camionneurs près de la Colline l'an dernier, la facilité de générer au moyen de l'intelligence artificielle une image montrant le Parlement en feu présente aussi un risque énorme de désinformation.
    Est-ce bien vous qui avez tenu cette conférence?
(1650)
    C'était bien moi.
    D'accord. Nous continuerons plus tard.
    Monsieur Gagné, je vous écoute depuis tantôt et je constate que nous sommes d'accord sur la nécessité d'adopter les parties 1 et 2 du projet de loi assez rapidement.
    Par contre, en ce qui concerne la partie 3, compte tenu de l'évolution rapide de la situation dans le monde, est-ce que le projet de loi, dans son état actuel, est toujours pertinent aujourd'hui? Sommes-nous sur une mauvaise piste? Devrions-nous nous arrêter et tout réécrire, ou continuer sur cette voie?
     Je suis d'accord sur le fait qu'il est urgent d'établir une base.
    Vous connaissez mieux que moi le fonctionnement des lois, entre autres. Je ne sais pas combien de temps il faut pour recommencer les choses, mais j'imagine que cela peut être long. À mon avis, il faudrait donc essayer d'avoir une version qui s'assure d'avoir une base solide, qui s'applique à la majorité des cas et, surtout, qui sera précise. À mon avis, c'est ce qui est gagnant.
    Le danger, c'est de commencer à ajouter des choses. J'ai lu les amendements. D'ailleurs, je me suis senti mal quand M. Généreux a dit qu'ils n'avaient pas été publiés, parce que je les ai lus dans le train en venant ici. Je me suis demandé pourquoi j'avais eu accès au texte des amendements.
    On a présenté la liste de catégories de systèmes d'intelligence artificielle à incidence élevée. À cet égard, j'aimerais dire qu'il y a tellement d'applications que je me demande pourquoi il existe une catégorie distincte. Il faut être précis, exiger un niveau de transparence plus élevé, s'assurer de se conformer à ces règlements, et prendre en considération tous les coûts qu'implique la mise en place de l'infrastructure. Si on a des idées en tête pour le secteur de la santé, pour le secteur des médias ou pour les médias sociaux, il faudrait être plus précis. Si on ratisse trop large, cela laisse place à l'interprétation.
    Si les compagnies en démarrage qui font de la recherche ou qui essaient de développer des produits pour le domaine de la santé doivent aller chercher des capitaux pour mettre en place quelque chose de très élaboré, les coûts seront élevés. C'est le genre de considération qu'il faut avoir en tête. Il faut être précis dans ce qu'on cherche.
    Tout à fait.
    Votre témoignage m'a fait du bien, dans la mesure où j'ai l'impression que cela fait plusieurs mois que je suis les questions sur l'intelligence artificielle. Le premier constat, c'est que le Canada était un chef de file, mais il ne l'est plus, malheureusement.
    Il faudrait retrouver la bonne locomotive plutôt que de vouloir générer quelque chose nous-mêmes. Personnellement, en tant que Québécois, je me préoccupe toujours de préserver notre différence culturelle et de trouver une façon de protéger l'avenir de nos jeunes entreprises. Cela a des conséquences sur le plan économique.
    Une des critiques faites au projet de loi est son manque de clarification quant à l'aspect pénal. Le projet de loi vise l'industrie et, si on adopte une loi, ce n'est pas pour les bons, mais pour les voyous, évidemment. Or, les voyous ont-ils peur de ce qui est présenté dans le projet de loi? Ce dernier impose-t-il une réelle réglementation? Comment peut-on réglementer les voyous de l'industrie?
    Ces voyous vont aller entraîner leur modèle dans le pays d'à côté, et ils vont l'offrir par l'entremise d'Internet.
    Je comprends qu'on veuille avoir des moyens pour les bloquer et les punir, mais il faut faire attention de ne pas vouloir en arriver à un système parfait ou à une loi parfaite qui ne soulève aucun risque ni aucune critique. Cela ralentirait l'innovation et il ne faut pas que les entreprises canadiennes qui adoptent ces technologies continuent à traîner de la patte. Dans le fond, il ne faut pas finir par ne pas pouvoir bloquer ou imposer grand-chose sur certains de ces sujets.
    Il y a des acteurs à qui on est capable d'imposer certaines obligations et qui ont des intérêts économiques très grands dans le pays. On va pouvoir tenir ceux-là responsables. Par contre, si on veut assurer un cadre qui fonctionne, il faut s'assurer qu'il n'est pas généraliste et qu'il s'applique de façon trop vague ou trop large, parce que cela nuirait au dynamisme de nos organisations canadiennes pour innover, bouger rapidement et avoir confiance dans le cadre réglementaire plutôt que d'en avoir peur.
(1655)
    Dans la dynamique internationale, les Américains ont frappé un grand coup avec le récent décret présidentiel. Est-ce la voie à suivre? Le consensus obtenu lors du sommet sur la sécurité liée à l'intelligence artificielle, tenu dernièrement en Angleterre, est-il suffisant? Est-ce un minimum ou un élément de référence? En tant que législateurs, vers quoi devons-nous porter notre regard pour bien faire notre travail?
     Je pense que ce sont des points de référence valides. Énormément de travail a été fait dans la communauté internationale pour comprendre les enjeux. Je pense que beaucoup des éléments que je lisais dans le projet de loi C‑27 et dans les amendements sont valides, mais j'étais capable de discerner quel passage visait la santé ou un cas particulier en biotechnologie. Je pouvais le pointer du doigt. Cependant, on veut appliquer cela à toutes les industries au pays, q uelle qu'en soit la taille. Il faut plutôt vraiment pondérer les choses, les ajuster et, s'il y a des situations particulières, travailler avec ces secteurs, tout en protégeant les gens et en faisant attention de ne pas bloquer l'innovation.
    C'est vraiment ma grosse préoccupation. J'ai des amis entrepreneurs et, en tant qu'entrepreneur moi-même, je lis ça et j'ai des préoccupations. Il est déjà difficile d'innover et d'essayer de se démarquer. Si les coûts pour être capable de développer ou de lancer des produits sont encore plus élevés, ce sera compliqué.
    Je pense que mon temps de parole est écoulé. Merci beaucoup.
    Merci, monsieur Lemire.
    Monsieur Masse, vous avez la parole.

[Traduction]

     Merci, monsieur le président.
    Je remercie les témoins.
    Madame Ifill, si vous me le permettez, je vais m'adresser à vous. Cet été, j'ai assisté à des congrès aux États‑Unis. Il y avait de grands spécialistes de l'intelligence artificielle, et ils nous ont présenté ce dont vous avez parlé. Dans leur modélisation actuelle, il y a beaucoup de préjugés.
     Pouvez-vous nous expliquer la façon dont cela risque de canaliser les gens et les idées si nous ne confions pas aux bonnes personnes le soin d'élaborer des modèles d'intelligence artificielle qui reflètent mieux la société que les modèles qui ne sont pas inclusifs?
    De bien des façons, ces modèles pourraient donner des résultats qui ne seraient pas avantageux pour certains groupes. Par exemple, dans l'intervention policière prédictive, nous pourrions utiliser l'intelligence artificielle pour prédire des activités criminelles, mais malheureusement, les données d'entraînement sont historiques. En se servant de données historiques ou de certains types de données pour entraîner le système d'intelligence artificielle, on crée un effet cumulatif. Autrement dit, les quartiers qui font l'objet d'une surveillance excessive seront encore plus surveillés.
    Il y a aussi l'embauche. Les agences d'embauche ont utilisé l'IA pour pourvoir des postes de direction. Malheureusement, une grande partie de ces données sont aussi historiques, elles contiennent un préjugé contre les femmes parce que dans le passé, les femmes n'occupaient pas ces postes.
     Ce sont des conséquences très réelles qui frappent à une grande échelle. À mon avis, l'ampleur et la vitesse auxquelles cela pourrait se produire sont très préoccupantes. Je crois que la police d'Edmonton a récemment utilisé un système de prédiction des traits faciaux par l'ADN pour trouver un suspect d'agression sexuelle, mais le système lui a désigné un garçon noir de 14 ans. Nous avons là un autre problème. L'adultification des garçons noirs est une autre façon dont l'IA manipule ce que nous voyons et ce que nous considérons comme des victimes ou comme des auteurs de crimes ou tout ce genre de préjugés.
    Je pense que ce problème est dû en grande partie aux données d'entraînement, mais les systèmes... Je ne sais pas si l'on a posé les bonnes questions ou formulé les bonnes hypothèses pour créer le modèle lui-même.
(1700)
     Je comprends cela, et nous n'en avons pas parlé.
    M. Schauer veut intervenir.
    Allez‑y, s'il vous plaît. Je pense que c'est un sujet important que nous n'avons pas vraiment approfondi. La modélisation est essentielle.
    Oui, cela pencherait vers la proposition de M. Gagné, qui est de légiférer dans le domaine où le modèle est utilisé. Dans cet exemple précis, dans le domaine de l'application de la loi, les prédictions policières ne peuvent pas être biaisées. En établissant les lois en fonction des modèles, chacune de ces lois risque de causer des répercussions très négatives dans un domaine totalement différent, comme celui des soins de santé ou du transport par voiture autonome. Nous ne pouvons pas affirmer que nous serions capables de rédiger une loi tellement technologiquement parfaite qu'elle s'appliquerait aux scénarios d'utilisation dans tous les domaines.
    Voilà ce que j'en pense.
    Merci.
    Madame Castets‑Renard, s'il vous plaît.

[Français]

     Merci.
    J'aimerais ajouter une précision concernant le projet de loi C‑27: il y a quand même une approche fondée sur le risque qui fait que tous les systèmes d'intelligence artificielle ne seraient pas considérés de la même façon ni soumis aux mêmes obligations. Il y a notamment cette notion d'incidence élevée et, dans les amendements proposés par le ministre Champagne, on a précisé ce que cette notion signifiait dans sept secteurs d'activité différents.
    Je ne pense donc pas qu'il soit juste de dire que cela va s'appliquer partout, à tout le monde et n'importe comment. On peut quand même discuter de la façon dont cela va s'appliquer dans sept secteurs d'activité différents. On peut dire que cela ne va pas assez loin, sans doute, mais on ne peut pas dire que c'est une loi qui va manquer de précisions, parce que les amendements en apportent.
    Pour revenir à ce qui a été dit tout à l'heure, cela signifie aussi qu'on peut avoir une approche globale avec des principes généraux, ainsi qu'une approche par secteur ou par domaine. C'est ce que fait l'Union européenne dans ses amendements. Il faut donc aussi faire attention à la façon dont on considère les lois à l'étranger.
    En ce qui concerne ce qui a été dit sur le Royaume‑Uni tout à l'heure, le Canada a signé une déclaration politique, qui n'a aucune valeur juridique ou contraignante. C'est un texte très général qui n'ajoute rien à ce qu'on a déjà dit sur l'éthique de l'intelligence artificielle. Cela n'empêche absolument pas le Canada de suivre sa propre voie, comme les États‑Unis l'ont fait lorsqu'ils ont divulgué leur décret présidentiel la veille du sommet anglais. Les Américains n'attendent pas particulièrement les Anglais pour aller de l'avant.
    Voilà les précisions que je voulais apporter à ce sujet.

[Traduction]

    Merci, monsieur le président.
    Me reste‑t‑il du temps?
    Non, mais je vois que Mme Ifill et M. Harris ont levé la main, alors nous allons entendre leurs interventions avant de céder la parole à M. Vis.
    Merci.
    Je n'aime pas le fait que nous ne responsabilisions pas les gens qui causent ces préjudices en n'ayant pas défini adéquatement les risques. Je n'aime pas non plus le peu de reddition de comptes que contient le projet de loi dont nous discutons. Autrement dit, le commissaire n'a pas vraiment de responsabilités envers le public. Oui, il est facile de dire que nous ne voulons pas légiférer pour telle ou telle raison, mais nous savons que ces préjudices existent. Je ne veux pas qu'une grande partie des Canadiens subissent des conséquences imprévues alors que nous savons quelles pourraient être ces conséquences.
(1705)
    Monsieur Harris.
    J'aimerais revenir à la question de savoir s'il faut réglementer le modèle ou les applications finales. Cette question est cruciale, en ce qui nous concerne. Nous devrons intervenir sur les deux tableaux. Les modèles posent irréductiblement des risques. Pensez un peu au ChatGPT d'OpenIA. Cette société construit un système, un modèle. Je ne sais pas si je peux... En fait, je sais que je ne peux pas. Je sais que personne, techniquement, ne peut compter la multitude d'applications finales d'un tel outil. On l'utilise aujourd'hui dans les soins de santé, on l'utilisera demain dans l'exploration spatiale et après-demain dans le l'ingénierie logicielle.
     L'idée de créer un modèle générique comme celui‑ci et de l'appliquer à l'aveuglette… Il ne nous dépeindra pas la réalité, malheureusement. Il détectera certains sous-ensembles de risques extrêmes. Nous pourrons nous fier aux risques, par exemple, de modèles génériques capables de s'orienter dans le monde et de bien comprendre le contexte. Ensuite, il faudra les réglementer, parce qu'ils seront une source de risques irréductibles.
    Pour d'autres risques, oui, nous devrons établir une réglementation et une législation au niveau de l'application. Encore une fois, vous le voyez dans le décret, nous jouons sur les deux tableaux. Cependant, je tiens à souligner que même s'il semble y avoir une tension entre ces deux approches, elles ne sont pas du tout incompatibles. En fait, à certains égards, elles sont profondément complémentaires.
    Je voulais simplement vous faire part de cette idée.

[Français]

     Merci beaucoup.
    Monsieur Vis, vous avez la parole.
    Monsieur Gagné, vous avez dit qu'il nous fallait une loi capable de suivre l'évolution technologique de l'intelligence artificielle et de s'y adapter. Le ministère a-t-il la capacité de faire face à cette évolution technologique? Est-il vraiment capable de relever ce défi, en ce moment?
    Il est difficile d'imaginer que c'est le cas.

[Traduction]

     Je pense que ce serait difficile.

[Français]

    Merci.

[Traduction]

    Madame Quaid, vous avez suggéré la création d'un bureau de la concurrence pour l'intelligence artificielle. Vous avez été la première personne qui ait présenté cette suggestion.
    Pourriez-vous nous en dire un peu plus à ce sujet, peut-être en une minute ou moins? À quoi ce modèle ressemblerait‑il, concrètement?
    C'est tout un défi, mais je vais faire de mon mieux.
    Voilà en quoi cela consiste.
     Je ne dis pas que nous imiterions absolument le Bureau de la concurrence. Certaines choses seront faites différemment. Le projet de loi envisagé comporte des éléments qui ressemblent aux mesures législatives de la Loi sur la concurrence. Il couvre toute une gamme de mesures pénales, réglementaires, administratives et civiles. Il s'accompagne d'un tribunal spécialisé, mais nous n'avons pas besoin d'en parler tout de suite.
    Le fait est qu'il a développé de l'expertise et qu'il compte un important personnel permanent divisé en directions. Il a mis sur pied une agence de renseignement numérique.
    Ces éléments appuient ce qui, je crois, a suscité le scepticisme d'autres témoins, à savoir la capacité de livrer les résultats attendus.
    Les États‑Unis ne l'ont pas caché. Ils ont simplement dit: « Utilisons nos solides institutions antitrust en attendant de créer autre chose ». D'une certaine façon, nous reproduirions ce qui se fait là‑bas.
    L'autre chose sur laquelle je tiens vraiment à insister, si vous voulez bien m'accorder 10 secondes de plus, c'est qu'un organisme dirigé par un commissaire indépendant permettrait au Canada de participer aux activités internationales. C'est ainsi que nous pourrons résoudre ces problèmes d'application, en collaborant avec nos amis.
    Au Canada, nous ne ciblons peut-être que les enjeux locaux, mais nous devons travailler avec nos alliés et nous avons besoin d'un intervenant à la table pour cela.
    Merci. Cela renforce un peu les craintes que j'ai exprimées dans ma première question au sujet de la capacité du ministère, alors c'est très apprécié.
    Monsieur Harris, vous avez décrit un modèle effrayant au début.
    Que devrions-nous nous attendre de l'intelligence artificielle? Je ne pense pas qu'elle soit entièrement mauvaise.
    Vous avez tout à fait raison. C'est tout un paradoxe. Nous parlons de renseignements, comme on l'a souligné plus tôt. C'est la chose la plus générale que les humains utilisent. C'est peut-être l'outil le plus général que l'on puisse posséder.
(1710)
    Par simple curiosité... L'hôpital d'Abbotsford a un centre de traitement du cancer. Je me demande quel rôle l'intelligence artificielle jouera dans le traitement du cancer au cours de ces 20 prochaines années.
     Je ne peux pas imaginer un scénario où nous procéderions de la même façon qu'aujourd'hui. Cette technologie nous permettra de faire les choses différemment.
    Pour vous donner des délais concrets, les gens de New Frontier Lab suggèrent une moyenne tout à fait raisonnable. Ils affirment que dans deux à cinq ans, l'IA aura atteint le niveau humain.
    Imaginons qu'ils se trompent complètement... Ce genre d'estimation et le changement que cela suggère dans des domaines comme les soins de santé... Mais il ne s'agit pas seulement des soins de santé. Dans le domaine de la conception de matériel, Google DeepMind vient de publier un article démontrant qu'en quelques mois, cette société a fait 800 ans de progrès dans le domaine de la science des matériaux. Cela présente un potentiel énorme.
    Lorsque j'étais à l'université — il y a plus de 20 ans maintenant, croyez‑le ou non —, nous avons étudié les répercussions de la presse de Gutenberg.
    La période historique que nous vivons aujourd'hui est-elle encore plus phénoménale que celle de la découverte de la presse de Gutenberg?
    Je ne veux pas sembler hautain, mais à mon avis, elle est beaucoup plus phénoménale. N'oublions pas que sur cette planète, la seule qualité qui distingue les êtres humains des autres espèces est celle que nous essayons en ce moment de charger dans de multiples serveurs.
    Oui, cela présente un énorme potentiel, mais aussi une puissance monumentale, et avec cela, une responsabilité énorme. J'ai aussi vu le film Spiderman. Je peux vous en citer des extraits.
    Des voix: Oh, oh!
    M. Jérémie Harris: C'est la nature de cette technologie. Le grand défi, c'est que, oui, nous allons faire face à une forte tentation économique de prendre des risques en utilisant cette technologie et de nous enfuir lorsque les risques seront les plus graves. C'est ce que les représentants de ces laboratoires nous disent constamment. Nous voyons cette dynamique se jouer à l'interne lorsqu'ils se font concurrence dans une course vers le bas.
    J'ai une dernière petite question.
    Comme beaucoup d'entre nous autour de cette table, j'ai des enfants. De quoi devons-nous tenir compte pour protéger les enfants des risques de l'IA?
    Y a‑t‑il quelque chose de précis que nous puissions faire sur l'élément IA du projet de loi C‑27 pour protéger efficacement l'innocence des enfants?
     Je ne suis pas un expert de la protection de l'enfance ou de la psychologie de l'enfance, mais je dirais que les capacités de persuasion de ces systèmes s'accroissent à un taux démesuré.
    Pensez un peu au GPT‑4 d'OpenAI. Ses développeurs ont mené des évaluations. Ils ont découvert que cette application était capable de persuader les êtres humains de résoudre le Captcha, ce test ennuyeux qui prouve que vous n'êtes pas un robot. Eh bien, elle a réussi à persuader les gens de le faire pour elle.
    Pensez à cette application en marketing. Je crois que les adultes et les enfants vont réagir de la même manière face à ces applications. Oui, elles sont mauvaises pour les enfants, mais je pense que les adultes retombent dans l'enfance face à ces applications hautement persuasives.
    C'est l'une des raisons pour lesquelles nous devons créer une agence. Nous réfléchissons déjà à ces questions dans le contexte de la concurrence, si je peux vous dire, face aux compétences persuasives des technologies numériques et autres. Ces choses se produisent déjà, alors je suis tout à fait d'accord avec vous.
    Je tiens à souligner que le Bureau de la concurrence et son commissaire sont chargés d'essayer d'établir un équilibre entre les risques que posent la concentration de la publicité trompeuse et autres et les avantages de l'activité économique dynamique et de l'innovation. Je pense que l'on constatera la même tension dans certains domaines de l'intelligence artificielle.
    Il faut créer un organisme spécialisé qui possède l'expertise nécessaire pour examiner ces choses et présenter des suggestions. En fin de compte, évidemment, vous, au gouvernement, devrez nous dire quelles valeurs sont les plus importantes, mais je pense que ce sera très similaire. Nous avons des modèles que nous pourrons utiliser. Croyez‑le ou non, ce ne sera pas sorcier.

[Français]

     Permettez-moi d'ajouter que je suis très préoccupé par les outils de recommandation de contenu sur les médias sociaux, notamment quand le contenu est suggéré aux enfants. Je m'inquiète des comportements compulsifs et de la dépendance que ces outils peuvent engendrer. C'est une énorme préoccupation pour moi en tant que parent.
    Merci, c'est fascinant.
    Madame Lapointe, avant de vous céder la parole pour cinq minutes, j'aimerais en profiter pour vous souhaiter, au nom du Comité, un très joyeux anniversaire.

[Traduction]

    Ma question s'adresse à Mme Quaid.
    En mai 2022, vous avez comparu devant le comité de la sécurité publique et nationale pendant son étude sur l'évaluation de la position du Canada en matière de sécurité par rapport à la Russie.
    À ce moment‑là, vous...
(1715)
    Êtes‑vous sûr de penser au bon témoin? Je n'ai jamais comparu devant ce comité, mais je vais quand même écouter votre question.
    D'accord, peut-être qu'il s'agissait d'un autre témoin.
    Vous avez dit que les cybermenaces sont de plus en plus complexes et omniprésentes.
    Est‑ce lié à votre travail?
    C'est peut-être l'intelligence artificielle qui me reproduit.
    Je ne suis pas du tout experte en cybersécurité, et je n'oserais pas me prononcer sans posséder l'expertise nécessaire, alors c'est un peu surprenant.
    J'ai comparu devant le comité de l'industrie, mais pas devant d'autres comités. J'ai comparu devant le comité sénatorial des banques, mais pas devant le comité de la sécurité nationale. Vous pensez probablement à quelqu'un d'autre.
    Il doit s'agir de quelqu'un d'autre.
    Je vais vous poser une autre question. J'aimerais savoir dans quelle mesure vous pensez que la sensibilisation et l'éducation du public canadien renforceraient sa résilience face aux menaces de l'intelligence artificielle.
    Je pense que ces mesures sont cruciales. Il ne fait aucun doute que l'éducation est fondamentale, surtout dans le cas des enfants. Ce sera difficile, ne sous-estimons pas cette tâche. De nouveau, je m'en remets aux experts qui connaissent cette technologie, mais il ne fait aucun doute que l'éducation est utile.
    Pendant toute cette réunion, je ne cesse de citer l'exemple du Bureau de la concurrence. Il fournit très activement de l'éducation, notamment sur la publicité trompeuse, tout comme les organismes de protection des consommateurs des provinces. Il y a là une excellente collaboration. Cela est dû au fait que de nos jours la fraude, en particulier la manipulation numérique, grimpe en flèche.
    Il faut que les gens soient bien informés. Nous faisons du rattrapage. Vous savez que cela a toujours été le cas du droit pénal et du système de justice pénale. Cela ne va pas changer, mais nous devons quand même essayer et suivre le mieux possible ce qui se passe.
    La pire chose que nous pourrions faire serait de nous croiser les bras en affirmant que la tâche est trop difficile. C'est pourquoi je suis ici, et mon collègue est entièrement d'accord avec moi. Il faut absolument agir. Nos démarches seront imparfaites, parce que nous ferons du rattrapage, mais il faut le faire.
    Vous savez, bien des gens pourront mettre leur expertise au service de l'élaboration des outils. En réalité, je ne pense pas que cette tâche soit impossible. Elle sera difficile, mais pas impossible.
    Monsieur Harris, j'aimerais vous poser la même question.
     Oui, je serai heureux d'y répondre.
    Je travaille beaucoup dans ce domaine. Une partie de mon travail consiste à former des fonctionnaires américains, surtout des cadres supérieurs, dans le domaine de la défense et de la sécurité nationale. L'un des défis de la formation est... nous avons déjà mentionné cela à maintes reprises. Ce domaine évolue si rapidement que nous devons continuellement mettre le contenu de la formation à jour.
    Il faut que le public comprenne quelques éléments fondamentaux des moteurs de cette technologie, les capacités. La notion, par exemple, d'étendre les systèmes d'intelligence artificielle pour nous faire une idée générale... En sachant à peu près combien de calculs seront nécessaires pour développer un système, on se fait une idée approximative, bon, c'est un système de type ChatGPT. On peut établir une comparaison. Nous pouvons faire ce genre de choses fondamentales.
    Il y a d'autres choses. À mon avis, c'est faisable. Nous trouvons facilement des façons d'étendre les systèmes pour y parvenir.
    Quoi qu'il en soit, il y a beaucoup de partenaires avec qui collaborer pour faire cela. Je suis optimiste à cet égard.
    Monsieur Harris, tout à l'heure, Mme Quaid a mentionné la nécessité d'établir un équilibre. Elle croit qu'une solution valable et viable à ce problème est la création d'une agence.
    J'aimerais vous demander comment le Canada peut établir un équilibre entre l'exploitation de l'intelligence artificielle dans le domaine de la sécurité et la réduction des risques qu'elle pose.
    J'aime l'idée d'utiliser la capacité de traitement comme une sorte de baromètre pour déterminer la capacité générale des systèmes. Il y a une foule de possibilités. On nous a dit qu'il est tout à fait possible, techniquement, d'augmenter le temps d'inférence. On peut faire toutes sortes de choses, mais les capacités fondamentales d'un modèle de base sont limitées par la capacité de traitement que vous lui donnez.
    Les auteurs du décret exploitent cette notion. Ils commencent à renforcer la capacité institutionnelle pour utiliser cela comme critère. Je pense que c'est le meilleur critère que nous ayons. C'est imparfait — je voudrais que ce ne soit pas le cas —, mais c'est le meilleur étalon que nous ayons à l'heure actuelle.
    Il y a beaucoup de choses que nous pouvons faire dans le cadre des évaluations et des vérifications, selon le niveau de la capacité de traitement. Plus il faut de capacité pour construire un modèle, plus il coûte cher. D'après nos estimations, le TPG‑4 coûte entre 40 et 150 millions de dollars pour l'entraînement, ne serait‑ce que pour la capacité de traitement. Il me semble que si l'on a les moyens d'entraîner le TPG‑4, on peut se permettre d'effectuer quelques vérifications.
    C'est ce qui est bien avec ce critère. Il correspond également aux ressources, et nous pouvons nous en servir pour calibrer l'équilibre entre le risque et le rendement.
(1720)
    À votre avis, quelle est l'importance de la collaboration internationale pour aborder les répercussions de l'IA sur la sécurité mondiale?
    Elle est énorme.
    Je pense qu'en fin de compte, en partie à cause de ce qui se passe dans le monde des sources ouvertes à l'heure actuelle, le Canada crée des problèmes que le reste du monde doit affronter, et le reste du monde crée des problèmes que le Canada doit affronter. Nous vivons dans un écosystème Internet. Si nous abandonnons la partie, nous abandonnons le monde. Si le monde abandonne la partie, il nous abandonne. Nous ne pouvons pas nous permettre d'adopter une attitude hypocrite en nous tournant vers d'autres pays adversaires pour leur dire « Hé, vous devriez faire ceci », si nous ne le faisons pas nous-mêmes.
    À mon avis, la situation dans laquelle nous nous trouvons est universelle.
    Madame Quaid, avez-vous quelque chose à ajouter?
    Je pense que c'est un défi primordial. Il faut trouver...
    Nous tenons la même conversation sur la concurrence. Comment nous adapter à l'économie numérique? C'est un terme que je n'aime pas. C'est la nouvelle économie, elle a beaucoup d'artefacts numériques. On mène beaucoup d'expériences partout dans le monde. Les gens essaient différentes choses. C'est en partie parce que nous avons tous des structures juridiques et institutionnelles ainsi que des cultures différentes.
    À mon avis, l'équilibre à trouver réside dans un petit nombre de valeurs — et vous êtes les représentants élus qui doivent faire cette évaluation pour le pays — qui nous importent vraiment, nous les Canadiens, des valeurs qui nous sont propres. M. Lemire a évoqué notre identité linguistique et la spécificité culturelle du Québec, mais il y a d'autres valeurs qui pourraient être très importantes pour nous. Pensez à nos communautés autochtones. Si ces éléments sont très importants, nous devons les intégrer à notre système. Ensuite, à l'échelle internationale, nous essayons de nous assurer d'être sur la même longueur d'onde dans la plupart des grands dossiers. Nous pouvons nous attacher à deux ou trois valeurs qui sont très importantes pour nous, et peut-être avons nous des règles spéciales à leur sujet, mais nous devons nous harmoniser au reste du monde, sinon cela ne fonctionnera pas.
    Le défi consiste à nous assurer de traduire les principes d'accord général en règles juridiques opérationnelles. Dans mon rôle d'avocate, je m'attache aux détails pratiques de ce genre de choses. Nous devons reconnaître les limites structurelles et juridiques de notre système.
    Nous vivons dans une fédération. Il y a une division des pouvoirs, et beaucoup de règlements relèvent des provinces. Il est clair que ce projet de loi est axé sur le commerce interprovincial et international et sur un pouvoir de droit pénal qui ne réglemente pas tout. Il nous faudra une bonne dose de fédéralisme coopératif.
    La coopération internationale est importante, mais nous devrons aussi nous entendre au sein de notre fédération.
     Quels pays font bien cela?
    On pourrait demander si les Européens s'en tirent bien. Peut-être que Mme Castets-Renard pourrait ajouter quelques observations sur la nécessité d'intégrer ces considérations.
    Je pense que le système européen se prête déjà à cette nécessité du dialogue. Ce trialogue, ce sont les trois entités qui représentent les trois puissances politiques fondamentales de l'Union européenne — je sais que je massacre la présentation de ce concept —, et elles doivent s'unir et s'entendre.
    Je pense qu'il faudrait peut-être imaginer quelque chose de ce genre. Je sais que personne n'aime cette idée, mais je crois qu'il faut que les provinces et le gouvernement fédéral entament cette conversation. Il faudra probablement aussi y inviter les collectivités locales. Il faut que tout le monde mette la main à la pâte.
    Je comprends que nous ne pouvons pas tout réglementer avec un seul cadre général, mais nous avons besoin d'un cadre général pour installer les fondements.
    Certaines choses sortent des sentiers battus. Pouvons-nous interdire cela aux enfants, un point c'est tout? Nous pouvons imposer des interdictions générales. Nous le faisons, n'est‑ce pas? Cela peut se faire, mais il faut cibler ces interdictions. Quant autres autres choses disparates, nous devons veiller à ce qu'elles forment une mosaïque cohérente.
    Je vais vous faire part d'une de mes préoccupations, puis je m'arrêterai. Ce qui m'inquiète, c'est que si nous ne coopérons pas au sein de la fédération, que va‑t‑il se passer? Il y aura une série de litiges fondés sur le partage des pouvoirs, comme nous l'avons fait il y a 25 ans en droit de l'environnement, où les grands intérêts économiques qui ont de l'argent affirmeront que ce pouvoir n'est pas de compétence fédérale, et les provinces répondront qu'il n'est pas de compétence provinciale. Il faudra des années pour régler la question.
    Si les ordres de gouvernement s'entendent, il n'y aura pas de lacunes, et les Canadiens seront protégés.

[Français]

     Merci beaucoup.
    Monsieur Lemire, vous avez la parole.
    Merci, monsieur le président.
    Madame Castets‑Renard, je vous ai entendue hier sur les ondes de Radio‑Canada pendant que je me dirigeais vers Ottawa, et le sujet était fort intéressant. Vous parliez des dérapages potentiels de l'intelligence artificielle pouvant résulter de son utilisation par les autorités policières, particulièrement en ce qui concerne la reconnaissance faciale. Selon ce que j'ai retenu du cas de l'Irlande, l'utilisation de l'intelligence artificielle peut être risquée pour la présomption d'innocence, notamment.
    Nos lois canadiennes actuelles sont-elles suffisamment avancées pour nous protéger d'un dérapage social comme il est vécu actuellement? Le projet de loi C‑27 n'est peut-être pas la solution. Comment peut-on se prémunir ou se protéger de ces dérapages, qui sont probablement imminents?
    En outre, l'utilisation de l'intelligence artificielle pour tenter de sauver la face sur le plan politique risque de créer d'autres contraintes. C'est ce qui est arrivé, selon ce que j'ai compris. Est-ce bien cela?
(1725)
    On peut dire que, au Canada et dans les provinces, l'utilisation de la reconnaissance faciale, de manière générale et en particulier par les corps de police, n'est pas encadrée. Évidemment, quand il n'y a pas de cadre légal, les pratiques gouvernent l'usage. Comme l'a prouvé l'affaire Clearview AI, on sait de source sûre que la reconnaissance faciale a été utilisée par plusieurs corps de police sur le territoire canadien, dont la Gendarmerie royale du Canada.
    C'est un problème quand on n'a pas de cadre légal. Des pratiques se développent et il n'y a pas de limites. C'est pour cela que, d'une part, un cadre légal peut faire peur parce qu'il signifie qu'on accepte et reconnaît la technologie, mais que, d'autre part, il serait être un peu naïf d'imaginer qu'on n'a pas recours à cette technologie qui, on ne peut le nier, peut avoir de grands avantages pour les enquêtes policières.
    Il s'agit toujours de trouver l'équilibre entre le fait de tirer les avantages de l'IA, tout en écartant les risques. Plus précisément, une loi sur l'utilisation de la reconnaissance faciale devrait idéalement prévoir des principes de nécessité et de proportionnalité. Il faudrait, par exemple, limiter dans le temps et dans l'espace l'utilisation de la technologie à des objectifs particuliers ou à certains genres d'enquêtes. Il faudrait que le recours à la technologie soit permis par une autorité judiciaire ou administrative. Les cadres légaux sont possibles. On a des exemples ailleurs ou dans d'autres domaines. Effectivement, cela fait partie des choses dont il faut traiter.
    J'ajoute que le projet de loi C-27 n'est pas directement lié à ce sujet, parce qu'il s'agit ici de réglementer le commerce international et interprovincial. Il ne traite pas du tout de l'utilisation de l'IA dans le secteur public. On peut ultimement réglementer les entreprises qui proposent ces produits ou ces systèmes d'IA de reconnaissance faciale à la police, mais pas son utilisation par la police. Il faut aussi se poser la question sur l'ampleur de la réglementation qu'on veut adopter pour l'IA, ce qui ira sans doute au-delà du projet de loi C‑27.
     Madame Ifill, j'aimerais connaître votre point de vue sur le potentiel que représente le recours par la police à l'intelligence artificielle, ainsi que sur les dérapages qui peuvent s'ensuivre. Comme vous avez fait des observations préliminaires assez percutantes à ce sujet, j'aimerais vous permettre de réagir.

[Traduction]

     Malheureusement, ces modèles tendent à mal identifier non seulement les personnes racisées, mais aussi les personnes non binaires. Certaines voitures autonomes ont de la difficulté à reconnaître les femmes. Lorsque ces technologies commencent à toucher une plus grande proportion de la population sans être assujetties à une reddition de comptes, elles provoquent une très mauvaise fragmentation de la société sur le plan économique et social. Ce phénomène finit par diviser notre politique. Honnêtement, je pense qu'il est possible de réduire ce risque à un minimum.
    Je voudrais que l'on isole la Loi sur l'intelligence artificielle et les données. Personnellement, je pense qu'il faudrait l'isoler pour que nous puissions examiner ces choses plus clairement parce que, dans l'état actuel des choses, il n'y a rien pour... Par exemple, si vous demandez un prêt et que l'intelligence artificielle prévoit que votre prêt devrait être refusé pour divers facteurs, ou peut-être à cause de votre race, de votre sexe, de la classe à laquelle vous appartenez, de votre situation géographique, de votre religion, de votre langue et autres... Si nous voulons construire ces systèmes, nous devons protéger les gens contre ces effets négatifs, surtout s'ils se produisent à grande échelle et encore plus si ces systèmes sont utilisés par des organismes gouvernementaux.
    Je pense que l'un des problèmes que pose ce projet de loi, c'est que beaucoup d'organismes gouvernementaux, notamment dans les domaines de la sécurité nationale et de l'application de la loi — et aussi dans celui de l'immigration —, seront exemptés. L'IA sera largement utilisée dans ces domaines.
    Quant à l'éducation, je dirais qu'au fil du temps, les journalistes et le journalisme devraient en assumer la responsabilité. Il nous faudrait un journalisme technologique plus solide qui nous informerait tous et qui examinerait les enjeux de l'intelligence artificielle et de la technologie en général.
(1730)

[Français]

    Merci beaucoup.
    Je vous remercie.

[Traduction]

    Monsieur Masse, vous avez la parole.
    Merci, monsieur le président.
    Madame Quaid, si ce projet de loi n'est pas adopté, nous le retrouverons l'année prochaine. Ensuite, il devra passer par la Chambre des communes. Il sera ensuite renvoyé au Sénat. Ensuite, si le Sénat a des amendements, il les présentera à la Chambre des communes.
    Parlez-nous de certaines de vos préoccupations au sujet de la lenteur de ce processus. Que pourrions-nous faire entretemps pour régler ce problème? Même si le Sénat décide de faire avancer les choses le plus rapidement possible, notre calendrier est tel que ce ne sera pas avant l'année prochaine. Ensuite, l'étude article par article et le reste nécessiteront probablement un certain temps. Nous devrons ensuite l'envoyer à l'autre endroit. L'autre chambre fait parfois les choses assez lentement. Ensuite, s'il y a un amendement, le projet de loi sera renvoyé à notre chambre.
    Vous êtes les experts de vos procédures. Je ne vais pas vous faire la leçon sur la façon dont le processus législatif devrait se dérouler.
    Je vais me permettre un petit commentaire. Il est assez bizarre que le projet de loi sur l'intelligence artificielle progresse si lentement et qu'il traîne depuis si longtemps. Un projet de loi original avait été proposé, mais il est mort au Feuilleton, puis il y en a eu un autre. Je compare cela à certains domaines, comme celui de la concurrence, où nous avançons à la vitesse de l'éclair. Il me semble qu'il faudrait établir des priorités. Cela dit, je ne recommande pas le processus suivi pour le projet de loi d'exécution du budget. S'il vous plaît, ne me citez pas, c'est terrible.
    Pour ce qui est de la façon de faire avancer les choses, voici quelques suggestions. Je ne connais pas du tout vos procédures, alors il se peut que je dise des choses qui ne seront pas réalistes.
     Oui, nous comprenons cela.
     Je planifie constamment, comme toutes les mères de famille qui croulent sous d'innombrables tâches au travail et à la maison. Je pense que vous pourriez peut-être commencer à vérifier... Si vous aimez mon idée de créer une agence, par exemple — je choisis une suggestion au hasard —, vous pourriez peut-être commencer à examiner certaines structures possibles et regarder ce qui se fait ailleurs. Vous pourriez peut-être commander une étude afin que le ministère se penche déjà là‑dessus. Quels types de profils de compétences inclurait‑on dans ce système réglementaire? Vous pourriez peut-être aussi examiner certains des défis liés à l'application de la loi en matière criminelle et réglementaire.
    On l'a déjà dit et répété maintes fois, mais je crois qu'il faudrait mieux se concentrer sur le contenu de ces règlements. Il faudrait réfléchir à la création d'un processus itératif de mise à jour des règlements. Il en existe déjà des modèles. Nous avons au Canada des personnes qui savent rédiger des règlements agiles. Il me semble que nous pourrions déjà réfléchir à la faisabilité de certaines solutions bien avant l'adoption du projet de loi. Évidemment, il pourrait être rejeté, et l'on aurait gaspillé tous ces efforts, mais je suis sûre que de nombreux chercheurs se feraient un plaisir d'examiner ces questions et de vous suggérer des possibilités. Voilà ce que je vous propose de faire.
    Merci beaucoup.
    Merci, monsieur le président.
    Merci, monsieur Masse.
    Parlant de procédure parlementaire, la sonnerie se fait entendre. Nous aurons besoin d'un consentement unanime si vous désirez poursuivre jusqu'à 17 h 50, heure à laquelle notre comité lèvera la séance pour cette partie de la réunion.
    Ai‑je le consentement unanime pour continuer?
    Des députés: D'accord.
    Le président: C'est fantastique.
    Monsieur Fast, vous avez la parole.
    Merci beaucoup.
    Monsieur le président, j'aimerais revenir au projet de loi qui est devant nous.
    Sans présumer du résultat des amendements proposés par M. Champagne, imaginons un instant que ces amendements sont adoptés et intégrés à la Loi sur l'intelligence artificielle et les données. J'aimerais que vous me disiez tous les trois — monsieur Harris, madame Quaid et monsieur Gagné — si vous appuyez cette loi dans sa forme actuelle. Je crois comprendre qu'à l'avenir, elle sera presque certainement modifiée, réévaluée, recréée et qu'elle pourrait nous revenir sous une forme différente.
    Nous devons prendre une décision au sujet du projet de loi dont nous sommes saisis. Vous êtes ici pour nous donner des conseils.
     Nous conseillez-vous de l'adopter tel quel, ou avez-vous des amendements de fond à nous proposer?
(1735)
    Je vais commencer par répondre en mon nom personnel.
    Je pense que le projet de loi actuel est nettement mieux que rien. L'un des facteurs clés, à mon avis, c'est l'échéancier. Voulons-nous faire face aux années 2024, 2025 et 2026 sans réglementation? Je suis fortement tenté de dire non, il faut que nous ayons quelque chose.
    Compte tenu de l'échéancier, comme m'ont expliqué les gens qui travaillent sur ce projet de loi, il semble improbable que nous ayons quelque chose d'ici là. C'est ce que je crois comprendre, mais peut-être que je me trompe.
    Si c'est le cas, le projet de loi dans sa forme actuelle est mieux que rien. C'est ainsi que je vois les choses. On y trouve d'excellents éléments. Je pense que les dispositions générales du projet de loi concernant l'intelligence artificielle et la cessation des activités sont très bonnes.
    Dans l'ensemble, compte tenu du contexte actuel et des délais, je serais en faveur de l'adoption de ce projet de loi. Cependant, j'y vois des problèmes importants, que j'ai déjà soulignés, notamment les seuils de capacité de traitement et les autres facteurs que j'ai mentionnés dans mon témoignage.
    Je peux également parler au nom de la professeure Castets-Renard à ce propos. Selon nous, il vaudrait mieux adopter ce projet de loi. Nous pourrons l'améliorer. Nous avons cerné les éléments que nous pensons devoir améliorer. Je pense qu'il est important de veiller à ce qu'il y ait suffisamment de ressources et un cadre institutionnel pour appuyer la mise en œuvre de ce projet de loi. Il y a des choses que nous proposons d'améliorer et de renforcer, même si elles se situent au niveau de la réglementation ou si l'on peut les améliorer en créant des règlements. Je pense que nous devons aller de l'avant.
    J'exhorte le Comité à continuer de solliciter l'opinion des personnes qui analysent les problèmes potentiels et à y prêter attention. Je ne suggère pas que l'on rejette ce projet de loi. Toutefois, demeurons conscients des défis potentiels. J'appuie tout à fait la nécessité d'aller de l'avant. Nous n'avons déjà que trop tardé.
    Je vais vous faire part de mes recommandations à ce sujet. Je pense qu'il y a beaucoup d'aspects à améliorer. Certains sont trop généraux et d'autres punissent certains actes trop sévèrement. Personnellement, je pense qu'il faut continuer à travailler là‑dessus.
    M. Ed Fast: Sans adopter le projet de loi dans sa forme actuelle?
    M. Jean-François Gagné: Non.
     Vos réponses nous sont utiles.
    Est‑ce que vous trois ou Mme Ifill avez été consultés avant la rédaction de ce projet de loi? Vous êtes tous les quatre venus après coup pour donner des conseils.
    Oui, madame Ifill.
    Ce projet de loi n'a pas fait l'objet de consultations publiques. Il me semble que des consultations menées adéquatement auraient considérablement atténué les problèmes dont nous parlons maintenant. À mon avis, c'est un puissant signal d'alarme sur ce projet de loi.
    Deuxièmement, il n'offre aucune protection au public. Il y a un cadre, oui, mais ce cadre n'est pas suffisant.
    Je suis d'accord avec la dernière personne qui a demandé si vous vouliez vraiment faire adopter un projet de loi qui ne protège pas le public.
    Merci.
    Monsieur Gagné, dans votre déclaration préliminaire, vous avez laissé entendre que le Canada tire de l'arrière par rapport au reste du monde — certainement par rapport aux pays développés — face aux défis de l'intelligence artificielle. Vous avez également parlé de la perte d'investissements du Canada dans ce secteur.
    Je vous invite à nous en dire plus à ce sujet. Ces facteurs peuvent être reliés. Peut-être perdons-nous des investissements parce que le Canada n'a pas de cadre réglementaire en place, ou parce que nous avons des défis fiscaux ou autres qui font fuir les investisseurs.
    Qu'avez-vous à dire à ce sujet, monsieur?
(1740)
    Il y a une multitude d'aspects qui entrent en ligne de compte dans l'évaluation. Si vous voulez, par exemple, former un des très gros modèles, un modèle qui a accès aux données, .il y a actuellement certaines questions entourant la loi sur le droit d'auteur qui empêchent les entreprises d'utiliser des textes ou des images, alors qu'aux États-Unis ou au Japon, elles peuvent les utiliser librement.
    Cela a été souligné dans le passé. Cela empêche quiconque forme ce genre de modèles de les former ou de les faire fonctionner à partir du Canada. Ce que vous voyez, c'est que les entreprises canadiennes vont aux États-Unis et y investissent des centaines de millions de dollars pour former des modèles — pas au Canada, parce que cela les empêche d'innover. Je donne un exemple. Ce qui me préoccupe, c'est qu'en adoptant une approche générale, il y aura des exemples de situations de ce genre.
    Ce que je souligne ici est une petite chose. Il s'agit seulement d'un texte pour une situation donnée, puis, boum, le Canada ne joue pas dans le grand jeu du modèle linguistique. Il n'y aura pas de grands centres de données d'apprentissage automatique construits au Canada, pas un seul. Ce sont des investissements de plusieurs milliards de dollars.
    Allez‑y, monsieur Harris.
    Pour vous faire part de mon point de vue personnel, pourquoi OpenAI, Google DeepMind et Anthropic ont-ils tous leur siège social dans la Silicon Valley et n'ont-ils pas d'équivalent canadien?
    Je suis un fondateur chevronné d'entreprises en démarrage. J'ai bâti toutes mes entreprises en démarrage dans la Silicon Valley; je ne les ai pas construites ici. Je suis né et j'ai grandi au Canada, et j'y ai vécu pratiquement tout le temps. J'ai déménagé à Mountain View pour mettre sur pied mes entreprises en démarrage, puis je suis revenu, mais je les ai toujours basées là‑bas.
    Il y a certains facteurs réglementaires. C'est bien d'avoir une société Delaware C, mais ce n'est pas la raison fondamentale. La raison fondamentale pour laquelle ces entreprises sont établies dans la région de la Silicon Valley, c'est simplement que les meilleurs investisseurs du monde s'y trouvent. C'est tout. C'est littéralement le facteur le plus important, et de loin.
    Lorsque je vais à Y Combinator, j'entends les meilleurs conseils sur la construction d'une entreprise en démarrage sur la planète Terre. Il n'y a pas l'équivalent de Y Combinator au Canada. C'est le meilleur accélérateur d'entreprises en démarrage au monde, point à la ligne.
    Les meilleurs investisseurs sont dans la Silicon Valley, les gens comme Vinod Khoslas et Sam Altmans. C'est la raison pour laquelle cela se produit là‑bas.
    Il y a, en marge, des choses réglementaires qui se passent ici, mais en tant que fondateur d'un grand nombre d'entreprises en démarrage qui a dû prendre ce genre de décision à de nombreuses reprises, que ce soit pour l'intelligence artificielle ou d'autres choses, il y a là‑bas une sorte de concentration de talents en ce qui concerne les meilleurs capitaux de risque, les meilleurs investisseurs providentiels. C'est l'écosystème.
    Tobi Lutke, de Shopify, a lancé son entreprise ici, à Ottawa, mais il y a une raison pour laquelle leur table de capitalisation est remplie d'argent de la Silicon Valley. C'est parce que c'est là que se trouvent les meilleurs investisseurs.
    Au bout du compte, c'est toujours la même histoire. Je pense que nous voyons simplement la même chose avec l'intelligence artificielle. Je ne pense pas qu'il y ait quoi que ce soit de différent ici.
     C'est intéressant.
    Merci.
    Merci.
    Monsieur Van Bynen, vous avez la parole pour cinq minutes.
    Merci, monsieur le président.
    Le projet de loi sur l'intelligence artificielle ne prévoit pas d'évaluation de la conformité des systèmes d'intelligence artificielle avant la mise en marché, mais l'article 15 proposé permet au ministre d'ordonner une vérification. Les modifications proposées par le gouvernement à l'ACRA comprennent une série de tâches à accomplir avant que le système d'intelligence artificielle polyvalent ou à impact élevé puisse être commercialisé. Cela comprend notamment une évaluation des effets négatifs et un test de l'efficacité des mesures visant à atténuer le risque de préjudice et de résultats biaisés.
    Que pensez-vous de ces nouvelles obligations que le gouvernement veut imposer aux gens qui élaborent les systèmes?
    Je vais commencer par Mme Quaid, puis je passerai à M. Harris et à M. Gagné.
    Nous en avons parlé un peu dans notre mémoire, mais pas en détail. Je peux maintenant vous donner un autre exemple, celui de la réglementation des valeurs mobilières. Je pense que ces amendements vont dans la bonne direction. J'ai dit dans mon mémoire qu'ils ne vont probablement pas assez loin. Si je le pense, c'est en partie parce qu'il faut vraiment établir une base de compréhension de ce qui se passe pour assurer une réglementation efficace. On le voit aussi dans d'autres secteurs. Les organismes de réglementation doivent savoir ce qui se passe et comprendre.
    Les finances et les marchés financiers internationaux sont des choses qui évoluent constamment — en tout temps — et nous faisons toujours du rattrapage. Ils gèrent. Même avec 13 organismes de réglementation au pays, ils gèrent. Je pense qu'il est important d'imposer des obligations de divulgation ou d'avoir une fonction de vérification, mais je la rendrais obligatoire et je la rendrais normalisée, c'est‑à‑dire qu'elle ne serait pas ponctuelle et qu'elle dépendrait d'une certaine idée de ce qui se passe. En fait, nous apprenons des choses parce que nous les découvrons. C'est à cela que sert la divulgation continue dans la réglementation des valeurs mobilières. Il s'agit de s'assurer que nous sommes constamment au fait de la situation.
    Je pense donc que c'est un pas dans la bonne direction, mais il pourrait être renforcé.
(1745)
    Je vais me faire l'écho de ce qu'elle a dit. Je pense que c'est ce que vous voyez, encore une fois, dans le contexte du décret de la Maison-Blanche. Il y a une raison pour laquelle tout est conçu autour de la divulgation — dites-nous quels tests vous avez effectués et quels ont été les résultats — et de la mise en place d'une infrastructure pour le révéler et pour former les organismes de réglementation afin qu'ils comprennent les résultats de ces vérifications.
    Allez‑y, monsieur Gagné.
    Je pense que c'est là que nous devons être prudents. Le Canada est un petit marché. Si vous imposez un coût trop élevé ou des règles très difficiles à respecter, les entreprises choisiront simplement de ne pas publier leurs modèles ou de ne pas vous y donner accès. Entropik n'est pas au Canada. Une foule d'entreprises décident qu'elles ne vont tout simplement pas vous donner les outils, et du même coup, tout votre écosystème, toutes vos industries, ne peuvent pas profiter de l'augmentation de la productivité.
    La Loi sur l'intelligence artificielle et les données devrait-elle exiger une vérification de conformité avant que les systèmes d'intelligence artificielle soient mis en place sur le marché?
    Vous pourriez peut-être commencer, monsieur Harris.
    Oui. Je suis tout à fait d'accord. Je pense que c'est essentiel. La sécurité nationale est l'un des aspects que j'aimerais aborder. Vous savez, vous construisez ces systèmes et vous n'avez pas besoin de les déployer pour qu'ils deviennent des cibles tentantes pour le vol et l'exfiltration. Je peux dire, d'après mon expérience directe dans certains contextes, que les laboratoires qui ouvrent la voie ici ne disposent pas des ressources nécessaires pour résister à une campagne d'exfiltration soutenue de la part d'attaquants d'États-nations. Dans cette optique, à mesure que nous construisons des systèmes plus puissants, il doit y avoir un certain niveau de responsabilité avant leur déploiement. Il y a aussi la question de la perte de contrôle, qui peut se produire avant le déploiement.
    Je dirais donc que oui.
    Allez‑y, madame Quaid.
    Je suis d'accord. Pour revenir au fait que nous avons des exemples ailleurs, nous avons déjà des industries à risque élevé. L'industrie nucléaire en fait partie, mais il y a aussi le secteur de la finance.
    Je suis un peu en désaccord avec M. Gagné, parce que dans la mesure où les Américains font quelque chose, ils ont la force d'insister. Il est important d'être un joueur à la table internationale avec un défenseur,c'est‑à‑dire un commissaire vraiment indépendant et capable de prendre des décisions. Vous pouvez ensuite vous assurer d'être d'accord avec tout. Je crois qu'au bout du compte, la coopération internationale est essentielle, mais je suis d'accord pour dire qu'il faut prévoir les dangers avant de lancer quelque chose sur le marché. Nous insistons déjà là‑dessus dans d'autres domaines, comme la sécurité des produits et d'autres choses, alors pour moi, ce n'est pas nouveau. Nous devons adapter cela à l'intelligence artificielle.
    L'autre chose que j'ajouterais, et qui est importante parce que parfois cela ressort, c'est que nous ne pouvons pas forcer les entreprises à partager les renseignements sensibles, parce qu'il y a une dynamique concurrentielle. Mais les administrations publiques traitent constamment des renseignements confidentiels. C'est ce qu'elles font. Le commissaire de la concurrence le fait constamment. Oui, bien sûr, il y a un risque de fuite, mais je ne pense pas que ce risque soit plus élevé que les autres. Je pense que c'est parfois exagéré. Les organismes de réglementation gouvernementaux peuvent traiter des renseignements de nature délicate et les utiliser dans l'intérêt public. C'est pourquoi nous leur faisons confiance, dirais‑je.
     Merci.
    Monsieur Gagné.
    Si vous me le permettez...
    Allez‑y.

[Français]

     Je voudrais ajouter qu'il est non seulement nécessaire de prévoir un système de conformité et de vérification avant la mise sur le marché, mais que c'est économiquement nécessaire pour les entreprises canadiennes, puisque c'est ce que vont prévoir les autres pays. Il faut donc commencer à préparer les entreprises canadiennes à ce niveau de compétition et de concurrence normative.
    Merci beaucoup, monsieur Van Bynen.
    Je cède maintenant la parole à M. Lemire pour ce dernier petit tour de questions.
    Monsieur le président, je comprends la contrainte de temps.
    Monsieur Gagné, lors de vos remarques préliminaires, vous avez souligné un point fondamental qui mérite d'être entendu et qui dépasse un peu le cadre du projet de loi C‑27: l'urgence de fournir aux jeunes entreprises québécoises et canadiennes la capacité de calcul. À quel point est-il important de permettre l'accès au calcul? Dans quelle mesure est-ce actuellement le nerf de la guerre au niveau mondial?
    Ce l'est, en effet. Il n'y a qu'à regarder les chiffres des compagnies qui construisent ou qui produisent ces semi-conducteurs. C'est du jamais vu en matière de croissance. C'est tout. C'en est au point où plusieurs jeunes entreprises — je ne veux pas en nommer une plus qu'une autre — se lancent à faire des avancées dans le domaine de l'intelligence artificielle. Je ne vois pas comment l'aspect économique va s'équilibrer tellement elles ont dû aller chercher de capitaux pour être capables de simplement participer.
    Toute forme d'aide ou de soutien à l'accès au calcul compte. Nous savons déjà, par exemple, que nous voulons utiliser de très grands modèles pour les spécialiser dans l'exécution de tâches nous permettant d'augmenter notre productivité. Or, cela requiert du calcul. Tout ce qui peut être fait pour faciliter cela va en accélérer l'adoption par les compagnies canadiennes et l'augmentation de leur productivité, et, potentiellement, rendre un peu plus réalistes les tentatives de créer de nouvelles organisations ou de jeunes entreprises.
(1750)
    Je pense que les bonnes personnes vous écoutent, présentement.
    Merci.
    Merci beaucoup, monsieur Lemire.
    Merci à tous les témoins de nous avoir éclairés de leurs lumières cet après-midi sur ce projet de loi important.
    J'ai parlé à M. Harris avant la réunion. Pour ceux qui ont envoyé des mémoires avant que les amendements soient rendus publics, n'hésitez pas à faire parvenir au Comité un document révisé reflétant les ajustements qui s'imposent compte tenu de ces amendements.
    Encore une fois, merci à tous les témoins de votre participation en personne et par vidéoconférence.

[Traduction]

    Merci de vous joindre à nous.
    Merci aux interprètes, au personnel de soutien et aux analystes.
    Nous reviendrons peu après le vote.
    La séance est suspendue.
(1750)

(1825)

[Français]

     Mesdames et messieurs, chers collègues, nous reprenons la séance et continuons la 101e réunion du Comité permanent de l'industrie et de la technologie de la Chambre des communes.
    J'en profite pour présenter mes excuses pour le retard que nous avons accumulé à cause des votes qui ont eu lieu après la période des questions orales et de ceux qui viennent d'avoir lieu, mais nous voici.
    Conformément à la motion adoptée le 7 novembre 2023, le Comité reprend l'étude de l'enquête et des rapports récents sur Technologies du développement durable Canada.
    J'aimerais souhaiter la bienvenue aux témoins d'aujourd'hui.
    Nous accueillons M. George E. Lafond, conseiller stratégique en développement. Pour sa part, M. Stephen Kukucha, président-directeur général de CERO Technologies, se joint à nous depuis Vancouver par vidéoconférence, et nous recevons en personne M. Guy Ouimet, ingénieur à Technologies du développement durable Canada.
     S'il le souhaite, chaque témoin dispose de cinq minutes pour présenter son allocution.
    Monsieur Lafond, vous avez la parole pour cinq minutes.

[Traduction]

     Merci beaucoup, monsieur le président et honorables membres du Comité, de m'accueillir ici aujourd'hui.
    Je tiens d'abord à souligner que nous nous trouvons sur le territoire non cédé du peuple algonquin anishinabe.
    Je m'appelle George Lafond. Je suis un citoyen de la Saskatchewan Muskeg Lake Cree Nation, sur le territoire visé par le Traité no 6. Je suis actuellement conseiller auprès d'entreprises, d'établissements d'enseignement et d'organismes sociaux et culturels et je suis reconnu pour diriger avec succès des initiatives stratégiques nécessitant la participation des Premières Nations.
    Auparavant, j'ai rempli deux mandats à titre de commissaire aux traités de la Saskatchewan, et j'ai été le premier Indien visé par un traité à occuper cette fonction. J'ai été nommé par le gouvernement Harper en 2012, puis reconduit dans mes fonctions en 2014. J'ai été vice-chef tribal, puis chef tribal du Conseil tribal de Saskatoon, un premier parmi des égaux, avec sept chefs des Premières Nations et leurs diverses collectivités des Premières Nations.
    J'ai consacré l'ensemble de mon service public à soutenir la réconciliation, le mieux-être, le développement économique et l'innovation au sein de mes communautés. L'amélioration de l'accès et de la qualité de l'éducation pour les jeunes Autochtones est à la base de tous mes efforts, et ce travail s'appuie sur ma formation et mon expérience en tant qu'enseignant dans une école publique il y a environ 42 ans.
    Dans le secteur de l'éducation, j'ai été conseiller de trois recteurs d'université et j'ai également été gouverneur du conseil d'administration d'une université. Je les ai conseillés sur la façon de veiller à ce que les étudiants autochtones puissent réussir non seulement leurs études postsecondaires, mais aussi leurs carrières futures. C'est à ce titre que j'ai travaillé avec le Saskatchewan Indian Institute of Technologies, communément appelé maintenant le SIIT.
    Ce sont ces rôles de service public qui m'ont amené, en 2012, à être nommé par le gouvernement Harper comme expert chargé d'examiner l'éducation des Premières Nations dans les réserves et de formuler des conseils pour établir une nouvelle relation entre le gouvernement fédéral et les communautés des Premières Nations en matière d'éducation. C'est là que j'ai constaté que les membres des Premières Nations réussissaient bien dans les industries primaires, mais qu'ils étaient presque inexistants dans l'industrie des technologies propres.
    Depuis ma nomination au conseil d'administration de TDDC en 2015, il y a eu un changement notable dans la façon dont cette organisation s'est modernisée afin de mieux répondre aux besoins des marchés et de l'industrie canadienne des technologies propres. Il était primordial de veiller à ce que les communautés autochtones soient également prises en compte dans l'équation afin de déterminer comment les peuples autochtones pourraient être dotés des compétences et de la formation nécessaires pour participer à ce secteur essentiel, et aussi pour que ce secteur puisse répondre aux besoins particuliers de nos communautés.
    Des progrès ont été réalisés au cours de la dernière décennie, mais il ne fait aucun doute que le programme des technologies propres et de l'innovation présente une pente encore plus abrupte à gravir compte tenu du manque d'accès à la formation et à l'éducation pour les jeunes Autochtones. Les Autochtones risquent d'être exclus de l'innovation au Canada. Nous sommes sous-représentés dans les STGM, et Statistique Canada rapporte que l'emploi total dans cette industrie est inférieur à 2,5 % pour les Autochtones qui ont une formation postsecondaire.
    Alors que je siégeais au conseil d'administration de TDDC, j'ai eu des conversations à ce sujet avec la direction de TDDC et j'ai informé les organisations et les établissements d'enseignement postsecondaire de leur obligation de veiller à ce que les jeunes Autochtones ne ratent pas l'avenir de l'innovation.
    En 2020, TDDC a approuvé le financement d'un centre pour le SIIT, le premier accélérateur d'innovation du Canada voué à l'éducation et à l'autonomisation des entrepreneurs autochtones. Ce projet pilote a été réalisé dans le cadre du volet de financement de l'écosystème de TDDC, qui encourage l'innovation et la collaboration entre diverses personnes du secteur privé, du milieu universitaire et des organismes sans but lucratif. Cela fait partie du mandat de TDDC et de ses accords de contribution.
    Je veux être clair. Même si j'ai parlé à TDDC de ces questions importantes et de la recherche de solutions pour assurer la participation des Autochtones et si j'ai présenté ces solutions aux dirigeants du SIIT, je n'ai aucunement participé au processus décisionnel concernant le financement du projet du SIIT. Lorsque le SIIT a entamé des conversations avec TDDC, j'ai divulgué de façon proactive mon conflit et je me suis récusé de toutes les discussions à venir.
    À la suite du rapport de RCGT, j'ai été informé que le SIIT avait inclus par erreur mes services dans ses dépenses en vertu des lignes directrices du projet de TDDC. C'était une erreur. J'ai immédiatement communiqué avec le SIIT, qui a rapidement présenté de nouveau ses demandes de remboursement de dépenses. Je n'ai jamais reçu de paiement du SIIT pour ce projet. Mon contrat avec SIIT est à titre de conseiller du président et n'a rien à voir avec ce projet.
(1830)
    Comme je l'ai dit, j'ai travaillé pendant des années dans le domaine de l'éducation autochtone et de l'amélioration des résultats pour les communautés autochtones. Bien que je sois un conseiller du SIIT, ce programme ne m'a procuré aucun avantage personnel. Toutefois, il peut être avantageux pour des milliers de jeunes Autochtones, en leur donnant l'occasion de combiner les connaissances traditionnelles avec des idées nouvelles et de contribuer à l'innovation au Canada.
    Dans le contexte de l'étude du Comité, je ne voudrais pas que ce travail important se perde. Il est important que, grâce à la création de programmes d'innovation comme cet accélérateur d'innovation, nous aidions à encadrer les dirigeants et les entrepreneurs autochtones et que nous veillions à ce que non seulement les collectivités de la classe moyenne, mais tous les Canadiens bénéficient d'une contribution importante à une économie canadienne moderne.
    Merci beaucoup, monsieur le président.
(1835)
    Merci beaucoup.
    Je donne maintenant la parole à M. Kukucha pour cinq minutes.
     Merci, monsieur le président et honorables députés.
    Je m'appelle Stephen Kukucha et je siège au conseil d'administration de TDDC depuis février 2021. Je vis à Vancouver. Je suis avocat à la retraite et je suis certifié par l'Institut des administrateurs de sociétés.
    Le travail de TDDC est essentiel au développement et au succès de l'écosystème des technologies propres du Canada. Je crois que mon point de vue et mes positions uniques au sein du secteur des technologies propres ajoutent de la valeur à mon rôle au conseil d'administration. Mes plus de 20 ans d'expérience dans le domaine des technologies propres m'ont permis de comprendre les défis que doivent relever les entreprises pour obtenir des capitaux. Ces difficultés ont été exacerbées par le ralentissement du marché à la fin de 2021, l'augmentation spectaculaire des investissements du gouvernement américain dans ce secteur, et maintenant la pause dans le travail de TDDC.
    Quoi qu'il arrive en raison de ces audiences ou d'autres enquêtes, il est essentiel de souligner le rôle important et unique que joue TDDC et le mandat que cet organisme a pour le Canada. Je demande au Comité de tenir compte de son importance pour toutes les entreprises naissantes qu'il soutient.
    En plus de mon travail dans le domaine des technologies propres, je dois révéler que j'ai fait de la politique dans le passé, tant au niveau fédéral qu'en Colombie-Britannique, et que je suis très fier de cet engagement. Je crois que l'engagement dans le processus démocratique de notre pays, peu importe le parti qu'on appuie, est important pour la société civile. Par exemple, j'ai un profond respect pour toutes les décisions que vous avez prises de vous présenter aux élections et de faire carrière dans la fonction publique. C'est l'une des choses les plus importantes qu'un Canadien puisse faire.
    J'aimerais également vous dire que j'ai reçu l'appel que le lanceur d'alerte a fait au conseil d'administration. J'aimerais que cela figure au compte rendu. Notre conversation a été enregistrée à mon insu. Je n'ai toutefois aucune hésitation à déposer la transcription de cet enregistrement pour démontrer le professionnalisme dont j'ai fait preuve, de bonne foi, envers cette personne. À de nombreuses reprises, j'ai demandé au lanceur d'alerte de communiquer son dossier et les faits sur lesquels il fondait ses allégations afin que le conseil puisse y répondre, et cela dans les règles. Malheureusement, il ne l'a pas fait.
    Après ma conversation d'une heure avec cette personne, je me suis rapidement rendu compte qu'il fallait en informer le conseil, engager un conseiller juridique, et suivre le processus approprié. Une enquête immédiate a été amorcée sans informer les personnes visées par les allégations. J'ai agi de bonne foi, j'ai respecté les règles de gouvernance et, à mon avis, le conseil s'est acquitté de son obligation fiduciaire.
    En ce qui concerne mes investissements dans des entreprises de technologies propres, j'ai divulgué tous mes conflits d'intérêts avant ma nomination. En fait, on m'a demandé de démissionner du conseil d'administration d'une entreprise qui avait déjà reçu des fonds de TDDC, et je l'ai fait. J'ai également divulgué tout conflit, réel ou perçu, que j'ai pu avoir après ma nomination. Enfin, je n'ai eu accès à aucun dossier lié à ces conflits d'intérêts, et je me suis récusé de toute décision.
    En ce qui concerne les paiements versés aux entreprises de TDDC pendant la pandémie de COVID‑19, j'aimerais également vous faire part de mon point de vue. À ma première réunion du conseil d'administration, deux semaines après ma nomination, une recommandation a été présentée pour donner à la direction le pouvoir discrétionnaire, dans le cadre d'une réserve de capital allouée, d'effectuer des paiements d'aide si nécessaire. Aucune entreprise n'était désignée par son nom dans les documents du conseil. Je suis prêt à déposer une copie de ce document pour vous montrer au besoin, ce que le conseil a reçu. Des conseils juridiques ont également été donnés aux membres du conseil lors de cette réunion, à savoir que s'ils avaient déjà déclaré des conflits d'intérêts, ils n'avaient pas à les déclarer de nouveau. J'avais déclaré les miens deux semaines auparavant.
    Enfin, je n'ai pas reçu un seul dollar d'une entreprise qui a reçu des fonds de TDDC, et aucune des entreprises dans lesquelles j'ai investi ne s'est retirée ou ne m'a rapporté quoi que ce soit. Je n'ai reçu aucune compensation de la part de ces entreprises ou d'autres organisations auxquelles je suis affilié. Je n'ai reçu aucun paiement, aucun dividende et aucune rémunération. En fait, mes partenaires et moi-même avons consacré beaucoup de temps et de ressources financières personnelles pour que ces entreprises et d'autres entreprises de technologies non propres continuent de contribuer à l'économie canadienne au cours de ces dernières années très difficiles.
    En terminant, d'après mon expérience, l'équipe de TDDC a fait preuve de professionnalisme et a produit des résultats. Bien qu'aucune personne ou organisation ne soit parfaite et qu'elle doive toujours chercher à s'améliorer, je suis très fier de l'équipe de TDDC et du travail que j'ai accompli au sein de son conseil d'administration.
    Je me ferai un plaisir de répondre à vos questions.

[Français]

     Merci beaucoup, monsieur Kukucha.
    Monsieur Ouimet, je vous cède la parole.
    Merci, monsieur le président, et merci aux membres du Comité de m'accueillir aujourd'hui.
    Je m'appelle Guy Ouimet. Je suis originaire de Montréal et y vis toujours. Je suis ingénieur industriel diplômé de l'École polytechnique de l'Université de Montréal. Je détiens une maîtrise en administration des affaires de l'Université McGill et je suis certifié par l'Institut des administrateurs de sociétés.
    En début de carrière au sein de multinationales, je me suis vite orienté vers un rôle de professionnel dans le domaine de l'investissement industriel. Pour la majeure partie de ma carrière, j'ai œuvré dans les domaines du capital-risque, du placement privé, du financement de projets et des fusions et acquisitions. À ce titre, j'ai travaillé comme cadre supérieur pour la Société générale de financement du Québec pendant dix ans pour ensuite lancer ma pratique privée sous forme de firme-boutique de banquier d'affaires.
    Au fil des ans, ma pratique s'est développée sur la base de mon expertise multisectorielle et technologique, notamment dans les domaines de l'énergie, des métaux et minéraux, de la chimie et pétrochimie, de l'industrie automobile et d'autres secteurs manufacturiers, et dans l'évolution de ces domaines vers la décarbonation de l'économie.
    Pendant 25 ans, j'ai eu divers clients pour des projets relevant de fonds institutionnels et gouvernementaux, ainsi que des projets relevant de nombreuses entreprises privées. Ainsi, j'ai participé au montage de multiples projets et transactions d'investissement. Entre autres choses, j'ai travaillé comme conseiller externe pour Technologies du développement durable Canada, ou TDDC, entre 2006 et 2014, qui avait fait appel à mon expertise combinée en capital-risque multisectoriel et en montage de projets d'envergure, notamment pour le Fonds des biocarburants de la prochaine génération, pour lequel 500 millions de dollars avaient été alloués à TDDC en 2007 par le gouvernement fédéral de l'époque.
    Depuis 2020, je suis exclusivement administrateur de sociétés et je siège à six conseils d'administration et divers comités.
    Après avoir pris mes distances pendant quatre ans avec TDDC et sa nouvelle direction, je me suis joint à son conseil d'administration le 8 novembre 2018 à la suite de ma nomination résultant de ma participation à un processus de recrutement du gouverneur en conseil qui s'est échelonné sur un an. N'ayant aucune affiliation politique et n'ayant sollicité aucune référence, sauf les références requises par les procédures de validation lors du processus de recrutement, j'ai déclaré tous mes antécédents et mes compétences, y compris mon rôle antérieur à titre de conseiller à TDDC. Au terme du processus du gouverneur en conseil, on m'a recruté sur la base de mon expertise pour que j'apporte ma contribution au conseil d'administration de TDDC.
    En plus d'être membre de ce conseil d'administration, je suis membre du comité d'examen des projets et du comité de gouvernance et nominations. Lors de ma nomination, les nominations aux comités étaient alors sujettes à l'approbation du président du conseil d'administration, en l'occurrence M. Jim Balsillie.
    Au cours du processus de recrutement du gouverneur en conseil, j'ai déclaré un conflit d'intérêts en lien avec une entreprise pour laquelle j'avais travaillé comme conseiller. L'octroi de financement par TDDC à cette entreprise avait été approuvé avant ma nomination au conseil d'administration. Une fois nommé au conseil d'administration, j'ai discuté de ce conflit d'intérêts avec M. Gary Lunn, alors président du comité de gouvernance et nominations du conseil d'administration de TDDC. Celui-ci m'a fourni des conseils, et j'ai suivi ses recommandations par la suite. Le tout s'est fait dans le cadre de la gouvernance déjà établie.
    Depuis ma nomination au conseil d'administration, j'ai périodiquement déclaré tous les conflits réels, apparents ou potentiels, je n'ai pas eu accès aux dossiers en cause et je me suis récusé sur toute décision afférente.
    En ce qui concerne les versements aux entreprises par TDDC au titre de la prestation d'urgence liée à la COVID‑19, comme il a déjà été indiqué, le conseil s'est reporté à l'opinion juridique de la firme Osler, qui reposait sur la déclaration préalable des conflits d'intérêts, l'urgence de la situation et le caractère universel de la mesure pour laquelle aucune entreprise ne bénéficiait d'un traitement individuel. Comme le reste du conseil, j'ai agi diligemment et de bonne foi, et je me suis conformé à cette opinion.
    La mission de TDDC m'interpelle en ce sens qu'elle est absolument pertinente pour la conversion de l'économie canadienne à la décarbonation, comme en font foi son cheminement et ses résultats depuis plus de 20 ans. La pertinence et l'efficacité de TDDC ont été reconnues à plusieurs reprises dans le cadre d'audits de performance périodiques. Par ailleurs, les entrepreneurs en technologie de décarbonation louangent sa contribution et les investisseurs en capital-risque considèrent la contribution de TDDC comme une validation préalable de leur propre investissement. Ces faits sont bien connus dans l'industrie partout au Canada.
    Au moment de me joindre au conseil d'administration, j'ai noté la qualité de la gouvernance de TDDC, ainsi que l'envergure et la réputation de mes collègues administrateurs. Comme professionnel de la finance et administrateur de sociétés, c'est une condition préalable essentielle que j'ai toujours respectée avant de me joindre à chacun des 21 conseils d'administration auxquels j'ai siégé durant ma carrière.
    Je suis maintenant disponible pour répondre à vos questions.
(1840)
     Merci beaucoup, monsieur Ouimet.
    Monsieur Perkins, vous avez la parole pour six minutes.
(1845)

[Traduction]

     Merci, monsieur le président.
    Je remercie les témoins et M. Lafond d'avoir clarifié votre déclaration préliminaire et les relations que vous entretenez.
    Mes premières questions s'adressent à M. Kukucha.
    Monsieur Kukucha, vous avez dit vous être joint à TDDC en février 2021. Quelle est votre relation avec l'entreprise Semios?
    Dans le cadre de mon travail avec PacBridge Partners, nous avons fait preuve de diligence raisonnable à l'égard de Semios pour voir si nous voulions investir dans cette entreprise, et nous ne l'avons pas fait. Ma relation se limite à cela.
    PacBridge est une société de capital de risque.
    C'est une société de capital-investissement et de capital de risque.
    Quelle est votre relation avec Terramera?
    En 2016, cinq ans avant mon arrivée, j'y ai fait un très petit investissement parce que je connaissais son PDG. C'est tout.
    Qu'est‑ce que Miraterra Technologies?
    Je crois que Miraterra et Terramera sont la même entreprise, ou se sont-elles séparées? Si je me souviens bien...
    Je crois que Terramera a reçu environ un demi-million de dollars en mesures spéciales liées à la COVID‑19 avant que vous ne vous joigniez au conseil d'administration. Après votre arrivée au conseil, elle a reçu 349 000 $ de plus en répit financier dans le cadre de la COVID‑19.
    Attendez un instant, monsieur Kukucha, avant de répondre. Pouvez-vous lever un peu votre micro?
    Je pense que cela devrait être mieux. Allez‑y. Vous pouvez répondre à la question de M. Perkins.
    Je ne sais pas, monsieur Perkins, si vous pourriez la répéter.
    Je vais reformuler ma question.
    Terramera, dans laquelle vous avez un intérêt, a reçu —  il faut que je comprenne bien — 141 000 $ avant que vous ne fassiez partie du conseil d'administration, pour des paiements spéciaux liés à la COVID‑19, puis 349 000 $ après votre arrivée au conseil d'administration.
    Cela me semble logique.
    Comme je l'ai dit, monsieur, j'ai investi 15 000 $ en 2016 pour rendre service à son PDG. Je suis un investisseur passif. Je ne fais pas le suivi de l'entreprise. Lorsque ces paiements liés à la COVID‑19 ont été reçus, j'ai déclaré Terramera comme un conflit d'intérêts lorsque je me suis joint à l'équipe, parce que j'avais un petit investissement dans cette entreprise. Comme je l'ai déjà dit, nous avions obtenu un avis juridique. J'ai déclaré mes conflits d'intérêts deux semaines avant mon arrivée.
    Vous n'avez aucun intérêt dans Semios?
    Je ne m'intéresse pas du tout à Semios, monsieur. Nous avons fait preuve de diligence raisonnable pour envisager d'y investir, mais nous avons décidé de ne pas le faire. Je crois que c'était aussi avant mon arrivée au conseil d'administration.
    Terramera a reçu un demi-million de dollars en aide liée à la COVID‑19. Dans certains cas, c'était avant, et dans d'autres, après votre arrivée au conseil d'administration.
    Terramera a reçu, je crois, après votre arrivée au conseil d'administration, un financement de TDDC de près de 8 millions de dollars, qui a été annoncé le 30 mars 2021. Elle a reçu environ quatre millions et demi de dollars de TDDC avant que vous ne deveniez membre du conseil d'administration. Est‑ce exact?
    Honnêtement, je ne sais pas. Je vais devoir vous croire sur parole, monsieur.
    Comme je l'ai dit, j'ai fait cet investissement cinq ans avant même de me joindre au conseil. C'est un très petit investissement de ma part. Je n'en fais pas le suivi. Je ne le fais pas régulièrement. J'espère que l'entreprise réussira, comme tous les Canadiens, j'en suis sûr, compte tenu des...
    Quel est votre participation dans Intelligent City Inc.?
    Je n'ai aucun intérêt personnel à cet égard.
    Je suis conseiller principal d'une petite banque d'investissement de Vancouver appelée Fort Capital. Avant que je me joigne à cette banque et au conseil d'administration, Fort Capital a levé des fonds pour Intelligent City. J'ai senti le besoin de le déclarer, parce que la firme à laquelle j'étais rattaché avait déjà levé des capitaux pour cette entreprise.
    Pendant que vous siégiez au conseil d'administration, vous et d'autres membres du conseil siégiez au comité spécial sur la COVID‑19. Saviez-vous, lorsque vous avez voté pour l'aide liée à la COVID‑19, que l'entreprise dans laquelle votre collègue au conseil, Andrée‑Lise Méthot, détient une participation de capital de risque, recevait 1,4 million de dollars en aide liée à la COVID‑19?
(1850)
     On ne m'a pas présenté... Comme je l'ai dit, monsieur, je me suis joint au conseil d'administration deux semaines avant le deuxième vote sur la COVID, je crois. J'avais déclaré tous mes conflits d'intérêts et nous avions reçu...
    Je comprends cela.
    Vous ne saviez pas que d'autres membres du conseil recevaient de l'argent. Dans son cas, une de ses entreprises obtenait 10 %, et non les 5 % dont Annette Verschuren a parlé.
    Je ne peux pas parler de ces faits, monsieur. Je n'en ai pas connaissance.
    Les entreprises d'Annette Verschuren ont reçu près de 300 000 $ en paiements de répit financier dans le cadre de la COVID‑19. Elle était la présidente du conseil d'administration lorsqu'elle a proposé la motion.
    Encore une fois, monsieur, je ne peux pas parler de ces faits. Je vais devoir vous croire sur parole.
    Vous n'étiez pas du tout au courant des conflits d'intérêts des autres membres du conseil lorsqu'ils votaient des fonds pour leurs propres entreprises.
    Lors du deuxième vote, les avocats nous ont dit que nous n'avions pas à faire une nouvelle déclaration. Étant donné que je n'étais pas présent lors du premier vote du conseil, je n'étais pas courant.
    Ne pensez-vous pas que vous étiez en conflit d'intérêts en vertu des règles de l'IAS sur les conflits d'intérêts réels et perçus lorsque vous vous êtes joint au conseil d'administration, parce que vous aviez un investissement dans des entreprises qui avaient déjà une relation avec TDDC?
    Lorsque je me suis joint au conseil d'administration, monsieur, on m'a demandé de démissionner du conseil d'une entreprise qui avait reçu du financement, et je l'ai fait rapidement.
    Le 5 février, lorsque je me suis joint au conseil d'administration, j'ai déclaré cinq conflits d'intérêts, dont trois se rapportaient à des entreprises dans lesquelles j'avais des investissements. Oui, monsieur.

[Français]

    Merci beaucoup, monsieur Perkins. C'est tout le temps que vous aviez.
    Je passe la parole à M. Turnbull pour six minutes.

[Traduction]

    Merci à tous les témoins d'être ici aujourd'hui.
    Monsieur Ouimet, je vais vous poser une petite question.
    D'autres témoins qui ont déjà siégé au conseil d'administration de TDDC nous ont dit que les récusations pour des conflits d'intérêts réels ou perçus étaient une pratique assez courante, mais ce que je veux savoir, c'est si elles ont été documentées parce que je pense qu'il y a des divergences quant à savoir si elles ont été adéquatement documentées.
     Selon vous, les récusations étaient-elles régulièrement documentées?

[Français]

    Les processus de gestion des conflits d'intérêts sont rigoureusement suivis. Il est important de préciser que la loi créée en 2001 afin de constituer TDDC exige que les administrateurs proviennent de l'industrie des technologies vertes et qu'ils y soient branchés. Le législateur a donc mis en place une recette pour créer des conflits d'intérêts. En conséquence, depuis le début, nous avons des pratiques absolument rigoureuses pour les gérer.
    Chaque fois qu'un dossier est soumis au comité de gouvernance, on procure à ceux qui le recevront une liste des entreprises, des parties prenantes, des actionnaires et des dirigeants impliqués et on leur demande s'ils ont des conflits d'intérêts. Ainsi, une personne peut voir immédiatement si elle a un conflit réel, perçu ou potentiel et, le cas échéant, elle s'exclut dès lors. À partir de là, elle ne reçoit pas la documentation et ne prend pas part aux décisions.
    Chaque fois qu'il y a une réunion d'un comité de décision, d'investissement ou de conseil, la liste des personnes en conflit d'intérêts est notée dès le début. Selon ce que j'ai compris des rapports qui ont suivi, dans certains cas, on n'y a pas indiqué que telle personne était sortie à tel moment et était revenue par la suite. Or, la pratique étant connue de tous, cette personne a déclaré un conflit d'intérêts dès le début, elle s'est récusée lors de l'étude du dossier en question et a repris sa place par la suite. J'assiste à des réunions de conseils depuis 2018 à titre d'administrateur, j'y ai assisté à partir de 2006 dans un autre rôle, et j'ai vu régulièrement des récusations de la part de tous les administrateurs, de plusieurs générations.

[Traduction]

    Merci. Il semble que les récusations étaient une pratique courante, mais que parfois, elles n'étaient peut-être pas aussi bien documentées qu'elles auraient dû l'être. Je pense que nous avons entendu cela.
     Seriez-vous d'accord pour dire qu'elles n'ont peut-être pas été documentées aussi régulièrement qu'elles auraient dû l'être?

[Français]

    Les recommandations administratives qui ont été relevées dans les rapports récents présentent cette perspective. C'est probablement factuel.

[Traduction]

    Merci.
    Monsieur Lafond, dans votre cas, vous avez mentionné un exemple précis concernant la décision relative au centre du SIIT dont vous aviez, je pense, été un dirigeant, et pour laquelle vous vous êtes récusé, ce qui est une excellente chose.
    Cela a‑t‑il été documenté? Savez-vous si cela a été documenté?
(1855)
    Oui, c'est le cas.
    D'accord. Excellent. Pourriez-vous déposer cela auprès du Comité?
     Oui, certainement.
     Merci beaucoup. Ce serait formidable.
    Monsieur Kukucha, vous avez la parole. Vous avez dit que vous avez reçu l'appel du lanceur d'alerte, ce qui est important pour nous. Vous avez déclaré qu'il n'avait présenté aucune preuve, même s'il semble que vous en ayez demandé. Vous avez également mentionné, dans votre déclaration préliminaire qu'à votre avis, le conseil s'était acquitté de ses responsabilités fiduciaires à l'égard des plaintes formulées. Pouvez-vous décrire un peu plus en détail le processus que vous avez suivi pour nous donner cette assurance? Je veux savoir comment vous pouvez affirmer que le conseil s'est acquitté de sa responsabilité fiduciaire.
    Absolument. Merci.
    J'ai mes notes pour la chronologie des faits. J'ai reçu un appel le 27 janvier et j'ai immédiatement consulté certains membres du conseil d'administration siégeant au comité de gouvernance. Nous avons formé un comité spécial le 1er février. Nous l'avons saisi de cette question, nous avons embauché un conseiller juridique le 3 février, et nous avons commencé notre examen dès le 10 février. Nous voulions en faire une priorité et nous attaquer immédiatement à ce problème, car les allégations du lanceur d'alerte étaient graves.
    Ensuite, le conseiller spécial que nous avions engagé pour examiner cette affaire a mené une enquête rigoureuse. Son cabinet a consacré 23 heures à des entrevues. Au cours d'une ou trois séances, en fonction du nombre de personnes interrogées, il a examiné plus de 13 000 documents et travaillé avec le comité spécial au sujet des questions qui m'avaient été signalées. Il semble maintenant que nous n'avions pas tous les faits, car nous n'avions pas le dossier. On m'a dit que le mandat devait être confié au conseiller.
    Merci.
    En ce qui concerne la prise de décisions liées à la COVID‑19, vous avez mentionné que c'était la deuxième décision, juste avant que vous vous joigniez au conseil, et que vous aviez déclaré vos conflits d'intérêts juste avant cette décision.
    D'après ma lecture des documents et d'autres témoignages que j'ai entendus, je crois comprendre que la décision a été prise pour l'ensemble d'un portefeuille de sociétés, dont les noms n'étaient pas divulgués dans la motion sur laquelle le conseil d'administration s'est prononcé. Est‑ce vrai?
    C'est exact, monsieur.
    D'accord. Est‑ce pour cette raison que l'avis juridique que vous avez reçu disait qu'il n'y avait pas de conflit d'intérêts apparent? Je pense que c'est un point très important, parce que de nombreux témoins nous ont dit qu'il n'y avait pas de conflit d'intérêts apparent parce que la décision portait sur l'ensemble d'un portefeuille d'entreprises et un montant fixe ou un pourcentage, je crois. Je ne sais pas exactement, mais peut-être pourriez-vous clarifier cela.
    Si je me souviens bien, il s'agissait d'une réserve de capital pour laquelle la direction avait des pouvoirs discrétionnaires, jusqu'à concurrence d'un certain pourcentage, mais en toute honnêteté, je ne connais pas les détails, monsieur. Cela fait un certain temps.
    D'un point de vue juridique, c'est ce que j'avais compris, c'est‑à‑dire que les conflits d'intérêts avaient été déclarés et que nous n'avions pas à les déclarer de nouveau.
    Très rapidement, pourriez-vous déposer le document que vous avez offert de présenter? Dans votre déclaration préliminaire, vous avez parlé de deux documents que vous pourriez déposer auprès du Comité. Pourriez-vous les déposer? L'un d'eux montre que le nom des entreprises n'était pas divulgué. Je pense que le document qui le prouve nous serait utile.
    Vous avez ensuite mentionné un autre document. Je l'avais inscrit dans mes notes. Pourriez-vous également déposer l'autre document que vous avez mentionné?
    Certainement, monsieur. Je vais demander à TDDC de déposer la motion du directeur. Nous avons reçu une transcription partielle de l'appel téléphonique que le lanceur d'alerte a enregistré, alors si le lanceur d'alerte voulait divulguer tout l'enregistrement, j'en serais très heureux. Je n'ai rien à regretter au sujet de ma conduite.
    J'ai offert de donner à cette personne la possibilité de témoigner, et je lui ai dit que nous allions prendre ces allégations très au sérieux et prendre des mesures immédiatement.

[Français]

    Merci beaucoup.
    Monsieur Lemire, vous avez la parole.
    Merci, monsieur le président.
    Monsieur Ouimet, je vais d'abord m'adresser à vous.
    Pour un administrateur de société comme vous, votre réputation est probablement ce qu'il y a de plus important, évidemment. Dans ce contexte, vous avez mentionné tantôt qu'il était normal qu'il y ait des conflits d'intérêts, compte tenu de la façon dont l'organisme TDDC a été constitué.
    Il faut bien comprendre le niveau d'expertise dont on avait besoin autour de la table. C'était particulièrement le cas au moment de la création de TDDC, et c'est la même chose aujourd'hui, 20 ans plus tard. Le contexte exigeait la présence de personnes qui comprenaient très bien ce que c'était que de créer une jeune pousse dans le milieu des économies émergentes et de l'économie verte. Cela exigeait un niveau d'expertise très poussé.
    Aurait-on pu faire autrement que d'avoir des personnes possédant une expérience confirmée et une fine connaissance de ce milieu? Aurait-on pu créer ce programme différemment?
(1900)
    À l'origine, en 2001, le mandat de TDDC portait sur des domaines beaucoup plus restreints, notamment l'eau, l'air, le sol, les procédés et les projets de décontamination. Son mandat était donc très restreint, mais complexe.
    Aujourd'hui, son mandat s'est complexifié, parce que les technologies propres se sont étendues à peu près à tous les domaines de l'économie. Il suffit de regarder les investissements qui se font partout dans le monde, notamment aux États‑Unis, pour le constater.
    Il faut donc une connaissance assez approfondie de plusieurs secteurs. TDDC compte 15 administrateurs. L'organisme doit donc attirer des administrateurs qui possèdent des compétences sectorielles verticales, dans tous les domaines. TDDC doit aussi avoir une matrice de compétences technologiques et des connaissances sur les divers stades de développement d'une entreprise. Il y a donc trois dimensions à prendre en compte: le secteur, le genre de technologie et le stade de développement de l'entreprise.
    Parmi les jeunes entreprises que TDDC finance, certaines sont à l'échelle du banc d'essai, d'autres sont en démarrage et d'autres sont en croissance. Selon leur stade de développement, elles ont des dynamiques de gestion et de développement technologique complètement différentes. TDDC doit donc avoir un conseil d'administration capable d'évaluer la situation de ces entreprises, parce qu'il y a un très grand volume et une très grande diversité d'investissements.
    J'ai l'impression que, quand vient le temps d'analyser les entreprises pour déterminer dans lesquelles investir, le gouvernement fédéral a une très grande expertise dans le secteur pétrolier et gazier, mais qu'il est peut-être moins spécialisé dans les technologies émergentes et qu'il connaît moins bien tout ce qu'il faut faire pour s'assurer que les investissements, notamment les deniers publics, peuvent prospérer et contribuer au développement d'une propriété intellectuelle qui va créer de l'emploi et être durable, au Québec et au Canada.
    Dans ce contexte, faire affaire avec un conseil d'administration composé d'experts n'est-il pas une façon de procéder tout à fait convenable?
    D'après moi, ce l'est. Par contre, je ne suis pas en mesure d'évaluer les compétences du gouvernement fédéral. Je vais laisser aux autres le soin de le faire.
    En 2001, ce même gouvernement fédéral a décidé de créer TDDC et de lui donner un mandat et une forme de gouvernance. TDDC n'est pas un groupe d'entrepreneurs qui s'est constitué en organisme à but non lucratif. C'est le gouvernement qui a créé TDDC. Je pense que le gouvernement a décidé de se servir du produit de la vente de la société Petro‑Canada pour créer un fonds vert. Il a ensuite choisi une forme de gouvernance qui fonctionnerait de la façon prescrite. Cela fonctionne ainsi depuis. L'expertise dans le domaine s'est développée.
    Au début, l'organisation était en démarrage. Aujourd'hui, nous avons une image de marque pancanadienne en matière d'énergies propres dont plusieurs sont fiers de s'approprier le logo.
    Vous êtes toujours un membre actif du conseil d'administration, n'est-ce pas?
    C'est exact. J'ai été nommé le 8 novembre 2018. Mon mandat a été prolongé d'un an, à la demande du gouverneur en conseil.
    À la suite des allégations et du rapport d'enquête qui a suivi, TDDC a suspendu l'approbation de nouveaux projets et a dit qu'elle n'accepterait pas de nouvelles demandes tant que le processus de mise en œuvre des recommandations ne serait pas terminé.
    Combien de nouveaux projets auraient normalement été approuvés au cours des prochains mois?
    Combien de demandes sont normalement acceptées au cours de cette même période et ne le seront peut-être pas en raison de la dynamique d'incertitude?
    Je n'ai pas le nombre à portée de la main. Je peux toutefois vous dire que TDDC investit généralement entre 175 et 200 millions de dollars par année dans des entreprises, à coups de 2 millions, 3 millions, 4 millions, 5 millions ou 7 millions de dollars la copie, comme on dit. Il s'agit donc d'une somme considérable.
    Chaque réunion du comité d'investissement de TDDC, il peut y avoir sept ou huit projets à examiner. Comme il y a environ six réunions par année, TDDC examine une cinquantaine de projets annuellement. Lorsque les montants sont additionnés, cela équivaut à une somme assez considérable.
    Ce n'est pas tout. Des entreprises qui font déjà partie du portefeuille de TDDC attendent de passer à la phase suivante de leur projet. Pour certaines, la phase 1 va peut-être tomber en désuétude parce que la phase 2 ne commencera pas. C'est sans compter les entreprises qui ont été négligées.
    Il existe donc un risque sérieux d'endommager l'écosystème des technologies propres, pour les raisons qui justifient notre présence ici aujourd'hui. C'est malheureux de devoir suspendre le financement.
(1905)
    Pendant ce temps, le ministre participe à la COP28 aux côtés de dirigeants de pétrolières.
    Je ne peux pas commenter le travail du ministre. Je m'occupe de mon rôle d'administrateur.
    Vous faites bien.
    Cela pourrait-il avoir une incidence sur la mission générale de TDDC dans l'avenir?
    Je pense que c'est une question de temps. Des rapports ont été produits sur les allégations. À ce jour, toutes les enquêtes ont confirmé que ces allégations étaient sans fondement. Chaque rapport comportait une série de recommandations administratives. Elles ont été mises en relief dans un rapport de la direction présenté au ministre et déposé le 1er décembre. Le ministre sera donc mis au courant de toutes les mesures correctives mises en place. Cela lui donnera peut-être un appui pour relancer, à certaines conditions, le financement des entreprises. C'est ce qui compte.
    Merci.
    Je vous remercie également de votre engagement.
    Merci.
    Merci, monsieur Lemire.
    Monsieur Masse, vous avez la parole.

[Traduction]

     Merci, monsieur le président.
    Monsieur Lafond, je vais commencer par vous.
    Peut-être pourriez-vous nous expliquer le processus de déclaration de conflit d'intérêts dans la salle du conseil d'administration. Expliquez-nous ce qui se passe.
    Comment procédez-vous? Vous contentez-vous de l'annoncer, de quitter la salle et de revenir ensuite? Peut-être pourriez-vous nous décrire la façon dont cela se déroule.
    En 2015, 2016 et 2017, nous nous sommes rendu compte que notre organisation commençait vraiment à répondre aux besoins du marché. Autrement dit, nous répondions à la mission qui nous avait été confiée et à nos obligations en vertu de nos exigences législatives par décret. Nous avons reconnu que nous nous engagions dans un profil de risque beaucoup plus élevé avec des entreprises à risque élevé, et que nous devions donc changer nos règles à l'égard des conflits d'intérêts pour suivre le rythme. Nous devions aussi reconnaître les types de risques auxquels nous nous exposions.
    Nous avons vraiment commencé à nous occuper des conflits d'intérêts en obtenant de bons conseils de la part, je crois, de KPMG, qui nous donnait des exemples de ce qui se passait dans le domaine de la propriété intellectuelle, de l'intelligence artificielle, des données et de la façon dont nous pouvions nous assurer de les protéger.
    Essentiellement, ce qui se passait, c'est que, en tant que membres du conseil d'administration, avant une réunion, nous obtenions la liste des sociétés au sujet desquelles nous allions prendre une décision lors de notre prochaine réunion. Nous devions déclarer tout conflit d'intérêts apparent ou réel. Il s'agissait d'un profil de gauche à droite indiquant le montant, les acteurs, qu'il s'agisse d'un vice-président ou... et les autres investisseurs. Il énumérait le secteur — qu'il s'agisse du secteur de la technologie ou du secteur pétrolier et gazier — et ce qu'il avait l'intention de faire.
    Ensuite, nous répondions: « J'ai un conflit d'intérêts. » Lorsque la discussion avait lieu au conseil d'administration, les gens disaient qu'ils avaient un conflit d'intérêts, se récusaient et quittaient la salle.
    Lorsque vous recevez cette trousse, indique‑t‑elle toutes les situations où vous pourriez être en conflit d'intérêts? Recevez-vous une trousse énumérant toutes les décisions possibles en matière d'investissement, mais pas de précisions...? Recevez-vous une trousse complète qui pourrait comprendre certains des renseignements avec lesquels vous pourriez être en conflit?
    Non.
    Comme je l'ai dit, cela figure de gauche à droite. Habituellement, il y a le montant, les personnes concernées, le secteur dans lequel elles se trouvent et ce qui s'y trouve. Est‑ce le pétrole et le gaz, le traitement de l'eau ou l'hydroélectricité? Est‑ce qu'elles font une nouvelle réflexion modulaire concernant l'utilisation d'une technologie qui leur permet de réaliser plus d'économies?
    Vous dites alors que vous ne connaissez personne au conseil d'administration ou parmi les investisseurs, et que vous ne jouez aucun rôle dans ce secteur. Vous examinez vraiment la situation et vous demandez quelle en est la valeur. Vous dites alors essentiellement si...
    Vous n'avez aucune information sur le cas et on vous envoie ensuite des renseignements sur tous ces investissements. Vous obtenez deux trousses.
    C'est exact.
    Très bien. Merci.
    J'essaie de comprendre un peu la culture du conseil d'administration. Y avait‑il des membres du conseil qui se connaissaient personnellement à l'extérieur — professionnellement, peut-être à tire de copropriétaires ou de co‑investisseurs d'autres entreprises, ou de membres d'autres conseils d'administration, ou dans des cercles sociaux?
    À l'époque où vous étiez là‑bas, entreteniez-vous souvent des relations, à l'extérieur, avec d'autres membres du conseil?
    Dans mon cas, aucune. Je ne connaissais aucun autre membre du conseil d'administration dans cette région ou les autres régions du Canada.
    Il ne faut pas oublier que je viens d'une communauté très particulière. Comme je l'ai dit, sa participation à l'industrie des technologies propres a été presque inexistante.
    S'il s'agissait de l'industrie pétrolière et gazière, bien sûr; je connais beaucoup de gens dans l'industrie pétrolière et gazière. S'il s'agissait de gens du secteur de la potasse, oui; je savais ce qui s'y passait. Dans le domaine des technologies propres, je n'ai eu aucun contact avec qui que ce soit d'autre au sein du conseil. C'était tout nouveau pour moi.
(1910)
    Merci. C'est bon à savoir.
    Monsieur Kukucha, qu'en pensez-vous? Quelle a été votre expérience au conseil d'administration?
    Vous êtes là depuis un certain temps. Les membres du conseil socialisent-ils ensemble? Participent-ils à des coentreprises? Siègent-ils ensemble à d'autres conseils? Quel est l'environnement?
    Deuxièmement, y a‑t‑il des règles interdisant aux membres du conseil d'administration de parler du contenu de la réunion avant la réunion ou est‑ce que ce n'est pas restreint?
    J'ai siégé à de nombreux conseils d'administration, tant aux États-Unis qu'au Canada. C'est l'un des conseils d'administration les plus professionnels auxquels j'ai siégé. La qualité des gens qui y siègent est impressionnante.
    En raison de ce niveau de professionnalisme, je n'ai pas eu une seule conversation à l'extérieur de la salle du conseil au sujet des projets. Il n'y a pas de co‑investissement et il n'y a pas de relations qui vont au‑delà de cela.
    Les rencontres sociales portent généralement sur l'événement en question ou les activités auxquelles les gens comptent se livrer. Je n'ai jamais vu de discussion, et je n'ai jamais eu de discussion sur quoi que ce soit concernant les investissements ou les projets.
     D'accord. Je suppose qu'il y avait aussi des rencontres sociales où les membres du conseil d'administration étaient ensemble.
    Périodiquement, nous avions un dîner. Des conférenciers experts, par exemple, ou des personnes qui venaient parler des programmes gouvernementaux participaient à la plupart de ces dîners. Même les dîners du conseil d'administration étaient en grande partie des réunions de travail. Les conversations dans le couloir ou la consommation d'un verre par la suite étaient en grande partie liées à ce que nous faisions en tant qu'organisation.
    Oui. C'est ce qui s'est passé. Écoutez, je suis d'une époque où beaucoup de décisions concernant d'autres personnes étaient prises sur des terrains de golf. J'essaie simplement de me faire une idée. Je veux dire, vous devez être un peu préoccupé par... Je vous serais reconnaissant, et il serait utile, que vous déposiez tous les renseignements relatifs au lanceur d'alerte.
    De toute évidence, le ministre a suspendu certaines activités. Ces choses ne se produisent pas en vase clos. Selon vous, qu'est‑ce qui a vraiment manqué dans ce processus? Je veux dire qu'à l'heure actuelle, un organisme professionnel a été engagé pour essayer de permettre aux lanceurs d'alertes de se manifester. Certains sont encore inquiets. Vous êtes là depuis un certain temps. Si tout va si bien, comme le dit M. Ouimet, pourquoi sommes-nous ici?
    Veuillez répondre brièvement.
    Tout ce que je peux dire, c'est qu'il y a de vigoureuses discussions lors des réunions que nous tenons. Souvent, les modalités de financement changent au cours de ces réunions, mais nous fonctionnons comme une organisation consensuelle lorsqu'il y a un vote. Les membres du conseil sont très engagés et très concentrés sur la cause.
    Comme je ne faisais pas partie du Comité des personnes et de la culture, de toute évidence, s'il y a eu des problèmes, le conseil d'administration ou moi-même n'avons pas eu vent de certains d'entre eux. Mais c'est l'une des organisations les mieux gérées auxquelles j'ai participé. C'est incroyablement professionnel et très axé sur les résultats. Je ne peux pas en dire plus, monsieur.
    Merci beaucoup.
    Je cède maintenant la parole à M. Barrett pour cinq minutes.
    Monsieur Ouimet, depuis combien de temps siégez-vous au conseil d’administration de TDDC?

[Français]

    J'y siège depuis le 8 novembre 2018.

[Traduction]

    Vous avez été nommé par décret?

[Français]

    Oui.

[Traduction]

    Combien d’entreprises dans lesquelles vous avez des parts ont reçu de l’argent des contribuables via TDDC?

[Français]

    Une.

[Traduction]

    Avez-vous voté pour donner l’argent des contribuables à vos propres entreprises?

[Français]

    Premièrement, je n'ai pas de compagnie. On n'est pas propriétaire d'une entreprise quand on détient 1 % de ses actions.
    On a parlé de la situation...

[Traduction]

    Dans ce cas, permettez-moi de reformuler la question. Combien d’entreprises dans lesquelles vous avez des intérêts ont reçu de l’argent de TDDC?

[Français]

    Je vais répéter ma réponse: une entreprise.

[Traduction]

    Avez-vous voté pour donner de l'argent des contribuables à ces entreprises dans lesquelles vous avez des intérêts?
(1915)

[Français]

    Si vous avez bien compris l'aspect logistique du paiement lié à la COVID‑19, vous comprendrez que la réponse est oui, parce que le conflit d'intérêts a été géré, selon l'opinion juridique.

[Traduction]

    Je comprends parfaitement. Permettez-moi de vous expliquer la situation. L’une des entreprises dans lesquelles vous détenez des parts s’appelle Lithion. Est‑ce exact?

[Français]

    Oui.

[Traduction]

    Vous avez répondu « oui ». Je ne sais pas si on a pu l'entendre.
    Nous avons entendu parler de la rigueur avec laquelle les règles relatives aux conflits d'intérêts ont été respectées au sein de l'entreprise. Je voudrais revenir sur ce point avec vous.
    J’ai sous les yeux le procès-verbal de la réunion du lundi 23 mars 2020, au cours de laquelle un montant de 192 100 $ a été versé à Lithion au titre de la campagne de lutte contre la COVID‑19.
    M. Guy Ouimet: Oui.
    M. Michael Barrett: Vous avez dit oui.
    Le mardi 9 mars 2021, cette entreprise dans laquelle vous avez des parts a reçu 201 705 $.
    M. Guy Ouimet: Oui.
    M. Michael Barrett: Il y a donc eu un paiement de 192 000 $ et un autre de 201 000 $. Vous avez voté en faveur de l’attribution de ces contrats aux deux entreprises.
    Maintenant, votre nom figure sur la liste des participants à ces deux réunions. Avez-vous assisté à ces réunions, monsieur? Répondez simplement par oui ou par non.

[Français]

    Oui.

[Traduction]

    Parfait.
    Je vois que le procès-verbal indique que vous avez été « excusé », mais votre nom n'apparaît pas dans la liste des absents à ce titre.
    À l'endos de la page, il est indiqué que la décision était unanime sur ce point. Je parle du vote de 2020. Même chose en 2021. La décision était unanime. Rien n'indique que vous vous êtes récusé.
    Plus loin dans le procès-verbal, il est mentionné que quelqu’un a quitté la pièce. On mentionne que le PDG quitte la rencontre lors d'un huis clos. On peut donc en déduire que ce n'est pas vous qui êtes parti au moment de la décision concernant les paiements liés à la COVID‑19. Je me trompe?

[Français]

    Oui.

[Traduction]

    Dans les deux cas, vous avez donc voté pour accorder l’argent à l’entreprise dans laquelle vous avez des parts. Est‑ce exact?

[Français]

    Oui.

[Traduction]

    Monsieur, vous comprendrez que le fait d'être nommé par le gouvernement et de voter en faveur de l'attribution de centaines de milliers de dollars à une entreprise dans laquelle vous détenez des intérêts peut être problématique aux yeux des contribuables? Voyez-vous en quoi cela peut poser problème?

[Français]

    Je peux répondre à cela.
    Le problème a été reconnu d'emblée. Je répète que nous avons établi une mesure d'urgence. La COVID‑19 est arrivée et a créé un état d'urgence. Il restait 20 millions de dollars. Comme les entreprises avaient besoin de fonds de roulement, un programme a été mis sur pied immédiatement, de façon universelle.
    Nous avons tous déclaré des conflits d'intérêts à un moment ou à un autre. Enfin, cela n'a pas été le cas pour tous, mais pour un certain nombre d'administrateurs. Il ne faut pas croire que tous les administrateurs sont continuellement en situation de conflit d'intérêts.
    Cette décision a donc été prise. Nous n'avons pas voté aveuglément, comme vous semblez l'indiquer. Nous avons immédiatement demandé à la direction comment gérer ce programme. En fin de compte, cela a pris la forme d'une allocation à la direction. On parle ici de 5 % aux entreprises du portefeuille comme ajout au contrat existant. Nous avons soumis cette décision au conseiller juridique et suivi sa règle par la suite.

[Traduction]

    On comprend bien que le montant accordé est un pourcentage, mais, monsieur, aucune personne sensée ne peut justifier ces gestes. Il est inconcevable que des centaines de milliers de dollars aient été versés de la sorte. On parle ici d'une personne nommée par le gouvernement qui prend l'argent des contribuables pour le donner à une entreprise dans laquelle elle a des parts, sous prétexte que d'autres, qui sont aussi mis en cause, comme le président du conseil d'administration, prétendent que ce genre de comportement est acceptable. Affirmer qu'il s'agit d'une entreprise ou d'une organisation qui respecte des normes éthiques rigoureuses est tout simplement scandaleux.
    Dans le rapport commandé par le gouvernement, nous avons vu que le conseiller en éthique recommande aux gens d'antidater leurs déclarations en matière d'éthique. Monsieur, ce n'est pas seulement un problème; ce type de délit d'initié et de corruption est très préjudiciable pour les Canadiens.
    Monsieur, nous aurons d’autres questions à ce sujet. Je crois que mon temps est écoulé.
    En effet, monsieur Barrett.
    Je cède maintenant la parole à M. Sorbara.
    Bonjour, messieurs, et bienvenue.
    Je me propose de passer à deux ou trois autres points. Le premier est le rôle de TDDC en tant qu’incubateur, en tant qu’investisseur dans les technologies propres au Canada.
    Je vous pose la question, monsieur Lafond: dans quelle mesure ce rôle est‑il important?
    Le TDDC joue un rôle très important dans la place qu'on lui accorde au sein de la chaîne de valeur. Comme je l'ai dit, quand nous nous sommes rendu compte que la définition des technologies propres était en train de changer du tout au tout, quand nous nous sommes lancés dans cette aventure en tant que pays — cela remonte même à l'époque où je faisais partie de la Table ronde nationale sur l'environnement et l'économie —, nous avons commencé à nous pencher sur la question des hydrocarbures. C'est pour cela que les fonds dont nous disposions ou qui nous étaient alloués au départ concernaient surtout les biocarburants.
    Comme je le disais, autour de 2015 ou 2016, nous avons constaté qu'un changement s'opérait dans la définition des technologies propres, parce qu'il fallait aussi tenir compte de la propriété intellectuelle, de la question des données et de l'intelligence artificielle. Nous avons compris qu'il fallait suivre l'évolution du marché.
(1920)
     J’ai été banquier en placement quand j'avais dans la vingtaine, et ce fut une expérience assez singulière. Quand il était question d'établir la valeur d'une entreprise en quête de fonds de départ, nous n'appliquions pas les mêmes critères d'évaluation que dans d'autres circonstances.
    Une voix: C’est exact.
    M. Francesco Sorbara: Je vais poser cette question à M. Lafond, à M. Kukucha et même à M. Ouimet, s’il veut intervenir.
    Quand des idées de projet ou d’investissement vous étaient soumises aux fins d’approbation, vous deviez sans doute suivre des règles de gouvernance. Messieurs, vous avez tous les trois beaucoup d’expérience dans ce domaine. Diriez-vous que le processus de gouvernance qui vous régissait ou sur lequel vous vous appuyiez pour analyser les idées de projet était‑il suffisamment rigoureux?
    M. Lafond et M. Kukucha, puis M. Ouimet, si vous voulez bien faire vite.
    Je me souviens d'avoir reçu une note explicative qui indiquait où nous nous apprêtions à implanter TDDC, à savoir dans un secteur à haut risque. Nous avons examiné ce que j'appelle les « silos », pour déterminer s'il s'agissait du type de recherche indispensable à la technologie ou quoi que ce soit.
    Vous avez dit avoir été banquier. Comme vous le savez, quand on lance une entreprise, on s'intéresse d'abord aux coûts d'investissement, aux actifs tangibles, comme une usine. En Saskatchewan, une usine de trituration du canola coûte environ 200 millions de dollars. Qui dispose de telles sommes? On peut penser aux banques, à des investisseurs, etc. Nous savions que nous devions être des acteurs de premier plan. Quand nous avons commencé à parler des types de prêts ou de subventions, de prêts de faveur, peu importe, nous savions que nous allions être au cœur des questionnements entourant les nouvelles stratégies de financement pour soutenir les entreprises en phase de démarrage et d’expansion.
    Je vous dirais que la rigueur était de mise, car à bien des égards, quand on observe la croissance rapide de certains projets qui débutaient à peine, notre succès est indéniable. Nous parions sur des entreprises qui nous présentaient leurs plans d'action, et elles faisaient exactement ce qu'elles promettaient.
     Nous pourrions peut-être passer à M. Kukucha qui est en ligne. Je vous en prie, monsieur.
    J’ai dû faire preuve de diligence raisonnable à plus d'une reprise, dans ma vie. Ce que cet organisme est parvenu à faire, c'est de la haute voltige. C'est un travail de première classe. Dans ses 20 années d’existence, cet organisme a investi environ 1,7 milliard de dollars dans des entreprises qui ont rapporté près de 13 milliards de dollars. Un tel rendement est possible si et seulement si la diligence raisonnable et les efforts déployés par l’organisation sont respectés et perçus par les investisseurs externes comme irréprochables.
    En tant que membre du comité chargé d’examiner les projets, je reçois 1 000 ou 1 200 pages à lire avant chaque réunion, une semaine avant; ce sont des rapports très détaillés. J'ai pleinement confiance dans le travail réalisé par ce groupe et cette équipe.
    Monsieur Kukucha, vous avez indiqué tout à l'heure que vous vous étiez récusé dans les cas où c'était nécessaire, et qu'il s'agit de la politique qui a été mise en place. Est‑ce exact?
    C’est exact, monsieur. Effectivement.
    Monsieur Ouimet, peut-être pourriez-vous intervenir sur ce que j’ai demandé aux deux autres témoins, s’il vous plaît.
    Sur la question de la diligence raisonnable?
    Sur la question de la diligence raisonnable mais aussi de la récusation.

[Français]

    Le processus de diligence raisonnable de TDDC est absolument robuste. Il a évolué. Au départ, c'était un mode d'évaluation de projets, alors que TDDC finançait des projets avec divers partenaires. Dans les dernières années, nous avons amené TDDC à s'ajuster au marché, c'est-à-dire à financer des entreprises plutôt que des projets. Il faut comprendre que, parfois, les projets se perdent, tandis que les entreprises ont plus de chance de réussir à créer de la valeur.
    Le processus de diligence raisonnable de TDDC s'est donc élargi, en ce sens que nous nous occupons davantage de tous les volets de la valeur d'une entreprise, plutôt que de la technologie exclusivement. Par le fait même, nous avons établi un processus robuste au sein de TDDC, tout en utilisant des ressources de l'extérieur.
    Merci.
    C'est tout le temps de parole que vous aviez, monsieur Sorbara.
    Monsieur Lemire, vous avez la parole.
    Merci, monsieur le président.
    Monsieur Ouimet, je vais continuer avec vous.
    L'industrie pétrolière génère des profits d'à peu près 200 milliards de dollars, selon ce que nous pouvons comprendre. TVA nous apprenait cette semaine, et nous l'avons d'ailleurs mentionné à la Chambre des communes tantôt, que les gens de cette industrie avaient eu quelque 2 000 rencontres avec des libéraux dans les différents ordres de gouvernement, ce qui fait une moyenne de trois rencontres par jour.
    Dans toutes ces rencontres et tous ces investissements dans les partis politiques, tant du côté des libéraux que du côté des conservateurs, ne voyez-vous pas une apparence de conflit d'intérêts qui vaudrait peut-être la peine d'être soulignée?
(1925)
    C'est une bonne question, mais je ne suis pas ici pour parler de politique. Ce n'est pas mon univers. Pour ma part, je viens du milieu des affaires et j'ai de l'expérience en tant qu'administrateur. Parler du rôle des partis et des lobbys politiques relativement à l'industrie pétrolière, c'est délicat pour moi, parce que je n'en fais pas partie. Par contre, je suis très conscient que, dans n'importe quelle industrie, des lobbys sont actifs. Le lobby du pétrole au Canada est certainement très fort.
    Pensez-vous que cela peut avoir une influence sur le genre de priorités qu'établissent certains partis politiques ou que cela peut les inciter à poser certaines questions à des témoins en fonction des intérêts de ces entreprises ou de leurs intérêts financiers?
    Je vais poser ma question autrement. Étant donné toutes les retombées positives que peuvent engendrer vos entreprises dans une nouvelle économie indépendante du pétrole, les compagnies pétrolières peuvent-elles voir l'émergence de technologies vertes comme une menace à leur propre économie et être bien heureuses que des personnes posent des questions pour elles en fonction de leurs intérêts pécuniaires?
    Je ne répondrai pas à la question précisément, mais je vais quand même dire que l'industrie liée à la lutte contre les changements climatiques au moyen des technologies propres n'est pas une menace pour l'économie ni pour le pétrole. Le pétrole est abondant et sera là encore longtemps. La diminution de la production de pétrole va s'échelonner sur une longue période. Il existe toutes sortes de moyens, par exemple le captage du carbone, pour assainir l'industrie du pétrole et la circonscrire aux endroits où elle est essentielle. Elle va donc continuer d'exister.
    C'est comme lorsqu'on a commencé à informatiser la comptabilité et qu'on a cessé de la faire sur papier: cela n'a pas réduit les emplois pour autant. L'économie change de place. Des technologies différentes verront le jour à la suite de la décarbonation de l'industrie en général et tout le monde y trouvera son compte. Les gens dans le domaine du pétrole vont survivre et ceux qui évolueront seront rendus ailleurs.
    Merci beaucoup.
    C'est tout le temps que j'avais.
    Merci, monsieur Lemire.

[Traduction]

     Le dernier intervenant est M. Masse.
    Vous avez la parole pour deux minutes et demie, monsieur.
    Merci, monsieur le président.
    Je reviens à M. Kukucha.
    Vous avez entendu dire tout à l'heure que des membres du conseil d'administration ont voté dans le sens des intérêts de leurs propres entreprises. N'existe‑t‑il pas meilleure façon de s'y prendre? Nous venons d'entendre des témoignages selon lesquels des personnes en conflit d'intérêts ont voté en faveur de projets auxquels elles étaient liées.
    S'agit‑il d'une pratique courante? Souhaitez-vous corriger ce qui a été dit, pour mémoire? Croyez-vous que ce genre de chose se produit dans d'autres conseils d'administration?
    Absolument pas.
    Ce n’était certainement pas une pratique courante. Je sais que le rapport produit a mis en évidence certains problèmes au niveau de la documentation. Je pense que certains des procès-verbaux et des documents ne reflètent peut-être pas fidèlement... Je ne peux parler de tous les cas avec précision.
    Je sais pertinemment que, lorsqu’il y a un conflit entre administrateurs, le processus de récusation dont M. Lafond a parlé est en effet la manière de procéder. Le conflit d'intérêts doit être déclaré avant la réception des documents et la récusation. Il est possible que, dans le cas d’un paiement lié à la COVID‑19 — soit le deuxième cas, je ne peux pas parler du premier —, certaines personnes, dont moi, aient eu un intérêt, mais aucune liste d’entreprises ne nous a été soumise.
    À ce jour, pour être honnête, je ne connaissais même pas les entreprises qui [inaudible] conflit d'intérêt, ont reçu des fonds.
    Nous venons d’entendre un des témoins, M. Ouimet, dire qu’il était dans la salle et qu’il a voté pour que de l’argent soit versé à une entreprise dans laquelle il avait des parts.
    La procédure à suivre était la suivante: les administrateurs présents physiquement ou virtuellement, devaient quitter la salle.
    C'est le souvenir que j'ai de la procédure habituelle lors des réunions.
    Je vais m’arrêter ici.
    Merci, monsieur le président.

[Français]

    Merci beaucoup, monsieur Masse.
    C'est tout le temps que nous avions.
    Je voudrais remercier les témoins, soit MM. Kukucha, Ouimet et Lafond, ainsi que les interprètes, le personnel de soutien, notre greffière, les analystes et tous ceux ici présents.
    Allez en paix.
    La séance est levée.
Explorateur de la publication
Explorateur de la publication
ParlVU