:
Chers collègues, je déclare la séance ouverte.
Je vous souhaite la bienvenue à la 102e réunion du Comité permanent de l'industrie et de la technologie de la Chambre des communes. La réunion d'aujourd'hui se déroule sous forme hybride, conformément au Règlement.
Conformément à l'ordre de renvoi du lundi 24 avril 2023, le Comité reprend l'étude du projet de loi .
J'aimerais souhaiter la bienvenue, cet après-midi, à Mme Ana Brandusescu, chercheuse en gouvernance de l'intelligence artificielle à l'Université McGill.
Bonjour, madame Brandusescu.
J'aimerais aussi souhaiter la bienvenue à M. Alexandre Shee, expert de l'industrie et coprésident entrant, Groupe de travail sur l'avenir du travail, Partenariat mondial sur l'intelligence artificielle, qui se joint à nous par vidéoconférence.
Bonjour, monsieur Shee.
De Digital Public, nous recevons Mme Bianca Wylie.
Je vous remercie d'être avec nous, madame Wylie.
Finalement, de l'International Association of Privacy Professionnals, nous recevons Mme Ashley Casovan, directrice générale, Centre de gouvernance de l'IA.
Je vous remercie également, madame Casovan.
[Traduction]
Sans plus attendre, je vais céder la parole à Mme Brandusescu, qui dispose de cinq minutes. Allez-y.
:
Bonjour. Je vous remercie de me recevoir aujourd'hui.
Je m'appelle Ana Brandusescu. Je suis chercheuse en gouvernance dans le domaine des technologies de l'intelligence artificielle au gouvernement.
Dans mon mémoire, que j'ai rédigé en collaboration avec Renee Sieber — une experte du domaine de l'intelligence artificielle et de la participation du public —, nous faisons valoir que la Loi sur l’intelligence artificielle et les données est une occasion ratée de partager la prospérité. La prospérité partagée est un concept économique où les avantages de l'innovation sont répartis équitablement entre tous les segments de la société. L'innovation est retirée des mains d'une minorité — dans ce cas-ci, l'industrie de l'intelligence artificielle — et placée entre les mains de la majorité.
Aujourd'hui, je vais vous présenter quatre problèmes et trois recommandations de notre mémoire.
Le premier problème, c'est que la Loi sur l’intelligence artificielle et les données sous-entend une prospérité partagée, mais ne l'assure pas. Dans le préambule du projet de loi, on peut lire ceci: « Attendu que la confiance dans l’économie axée sur le numérique et les données est cruciale pour la croissance de cette économie et pour que le Canada soit plus inclusif et prospère ». Cependant, ce que nous voyons, c'est une concentration de la richesse dans l'industrie de l'intelligence artificielle, surtout pour les grandes entreprises de technologie, ce qui ne garantit pas que la prospérité se répercutera sur les Canadiens. Le fait d'être « axé sur les données » peut tout aussi facilement donner lieu à la surveillance de masse des données et à de nouvelles possibilités de les monétiser.
Au Canada, on peut facilement associer la confiance à l'acceptation sociale de l'intelligence artificielle, en répétant que l'intelligence artificielle est invariablement bonne. Vous avez sûrement déjà entendu dire qu'il faut prêcher par l'exemple. Ce n'est pas en répétant que l'intelligence artificielle est bénéfique que l'on convaincra les personnes marginalisées qui subissent des préjudices liés à celle-ci, comme les fausses arrestations. Les méfaits de l'intelligence artificielle sont largement couverts par l'étude parlementaire canadienne intitulée La technologie de reconnaissance faciale et le pouvoir grandissant de l'intelligence artificielle.
Le deuxième problème avec la Loi, c'est la centralisation des pouvoirs entre les mains d'Innovation, Sciences et Développement économique Canada et du ministre de l'Industrie. La structure actuelle est sujette à l'emprise réglementaire. Nous ne pouvons pas faire confiance au ministère de l'Industrie — un organisme qui est chargé à la fois de promouvoir et de réglementer l’intelligence artificielle, sans aucune surveillance indépendante de la Loi — pour assurer une prospérité partagée. Ces deux rôles et responsabilités sont souvent incompatibles et les organismes qui les assurent, comme les organismes de réglementation nucléaire, favorisent inévitablement les intérêts commerciaux au détriment de la responsabilité du développement de l’intelligence artificielle.
Le troisième problème, c'est l'absence de consultations publiques. À ce jour, il n'y a pas eu de consultation publique démontrée sur la Loi sur l’intelligence artificielle et les données. L'experte du domaine des politiques technologiques Christelle Tessono et bien d'autres ont soulevé cette préoccupation dans leurs mémoires et articles. Jusqu'à maintenant, le processus de consultation sur la Loi a été sélectif. De nombreuses organisations de la société civile et organisations syndicales ont été largement exclues des consultations sur la rédaction de la Loi.
Le quatrième problème, c'est que la Loi sur l’intelligence artificielle et les données n'inclut pas les droits des travailleurs. Les travailleurs du Canada et du monde entier ne peuvent pas profiter de la prospérité s'ils sont surveillés et souffrent de problèmes de santé mentale en raison des conditions associées au développement des systèmes d'intelligence artificielle. Les chercheurs ont abondamment documenté la nature abusive du travail en matière de développement de systèmes d'intelligence artificielle. La santé mentale des travailleurs en souffre énormément; certains peuvent même se rendre jusqu'au suicide.
En 2018, Nanjira Sambuli, une experte en gouvernance numérique, m'a parlé de Sama, une entreprise de la Silicon Valley qui travaille pour de grandes entreprises technologiques et qui embauche des travailleurs des données partout dans le monde, y compris au Kenya. Les contrats que Sama a conclus avec Facebook/Meta et OpenAI ont traumatisé les travailleurs.
Nous avons également vu de nombreux cas de vol de propriété intellectuelle chez les créateurs, comme l'a fait valoir Blair Attard-Frost, qui se spécialise dans la gouvernance de l'intelligence artificielle, dans son mémoire sur l’intelligence artificielle générative.
Dans le but d'assurer le partage de la prospérité promis avec l'intelligence artificielle, nous proposons trois recommandations.
Premièrement, il faut revoir la Loi sur l’intelligence artificielle et les données afin qu'elle ne relève pas du ministère de l'Industrie, dans le but d'assurer la reddition de comptes dans les secteurs public et privé. Les nombreux ministères et organismes qui participent déjà aux travaux sur l’intelligence artificielle responsable doivent corédiger la Loi pour le secteur privé et le secteur public et empêcher l’utilisation de technologies nuisibles. Cette version de la Loi obligerait les entreprises comme Palantir, ainsi que les organismes de sécurité nationale et d'application de la loi, à rendre des comptes.
Deuxièmement, il faut que les lois en matière d'intelligence artificielle assurent les droits des travailleurs. La protection des travailleurs comprend la présence des syndicats, la possibilité de poursuites et des espaces sûrs pour les dénonciateurs. Les travailleurs kényans du secteur des données se sont syndiqués et ont poursuivi Meta en raison des conditions de travail abusives de la société. La Cour suprême leur a donné raison. Le Canada peut suivre l'exemple du gouvernement kényan et écouter ses travailleurs.
De façon similaire, lors de la grève du syndicat des acteurs, les travailleurs américains ont empêché les sociétés de production de décider quand elles pouvaient utiliser ou ne pas utiliser l'intelligence artificielle, ce qui a démontré que les travailleurs pouvaient avoir une incidence sur la réglementation. Au-delà des syndicats et des grèves, les travailleurs ont besoin de voies sûres et confidentielles pour signaler les préjudices. C'est pourquoi la protection des dénonciateurs est essentielle pour les droits des travailleurs et l'intelligence artificielle responsable.
Troisièmement, nous avons besoin de la participation significative de la population. Le gouvernement a la responsabilité de protéger sa population et d'assurer le partage de la prospérité. Un cadre législatif solide exige une participation significative du public. La participation stimulera l'innovation, parce que la population nous dira ce qui est bon pour le Canada.
Merci.
:
Mesdames et messieurs les membres du Comité, je vous remercie de me donner l'occasion de témoigner devant vous aujourd'hui.
Je m'appelle Alexandre Shee. Je suis le coprésident entrant du Groupe de travail sur l'avenir du travail du Partenariat mondial sur l'intelligence artificielle, dont le Canada est un État membre. Je suis directeur d'une société multinationale de l'intelligence artificielle, avocat en règle et investisseur et conseiller dans le domaine de l'intelligence artificielle, en plus d'être le fier papa de deux garçons.
Aujourd'hui, je vais vous parler exclusivement de la partie 3 du projet de Loi, la Loi sur l'intelligence artificielle et les données, et des amendements récemment proposés.
Je crois que nous devrions adopter la Loi. Cependant, il faut y apporter des modifications importantes qui vont au-delà de celles qui sont proposées actuellement. En fait, la Loi omet des éléments importants de la chaîne d'approvisionnement de l'intelligence artificielle — la collecte de données, l'annotation et l'ingénierie — qui représentent 80 % de la du travail effectué dans le domaine de l'intelligence artificielle. Cette partie du travail est faite manuellement par des humains.
Le défaut d'exiger la divulgation de renseignements sur la chaîne d'approvisionnement de l'intelligence artificielle donnera lieu à des distorsions, à des modèles d'intelligence artificielle de faible qualité et à des enjeux en matière de protection de la vie privée. Plus important encore, ce défaut entraînera la violation des droits de millions de personnes au quotidien.
Des amendements récents ont remédié à certaines des lacunes de la Loi en intégrant certaines étapes dans la chaîne d'approvisionnement de l'intelligence artificielle et en exigeant la préservation des dossiers des données utilisées. Cependant, la Loi ne considère pas le processus de développement de l'intelligence artificielle comme une chaîne d’approvisionnement, alors que des millions de personnes participent à l'alimentation de ces systèmes. Aucun mécanisme de divulgation n'est mis en place pour veiller à ce que les Canadiens soient en mesure de prendre des décisions éclairées sur les systèmes d'intelligence artificielle qu'ils choisissent, de veiller à ce qu'ils soient justes et de grande qualité et à ce qu'ils respectent les droits de la personne.
Il y a trois choses que j'aimerais que vous reteniez à ce sujet. La première, c'est que la Loi, dans sa forme actuelle, ne réglemente pas les éléments importants des systèmes d'intelligence artificielle: la collecte de données, l'annotation et l'ingénierie. La deuxième, c'est qu'en n'abordant pas ces éléments, elle omet de protéger les droits de millions de personnes, notamment les Canadiens vulnérables. Cela donne lieu à des systèmes d'intelligence artificielle de faible qualité. La troisième, c'est que la Loi peut aider à protéger ceux qui participent à la chaîne d'approvisionnement de l'intelligence artificielle et à habiliter les gens à choisir des solutions d'intelligence artificielle justes et de haute qualité si elle contient des exigences en matière de divulgation.
Permettez-moi d'approfondir ces trois points et d'expliquer plus en détail pourquoi ces considérations sont pertinentes pour la future version de la Loi.
L'autoréglementation de la chaîne d'approvisionnement de l'intelligence artificielle ne fonctionne pas. L’absence d’un cadre réglementaire et de la communication de renseignements sur la collecte de données, les annotations et les aspects techniques de la chaîne d'approvisionnement de l'intelligence artificielle a une incidence négative sur la vie de millions de gens. Ces gens se trouvent surtout dans le l'hémisphère Sud, mais ce sont aussi des Canadiens vulnérables.
Il y a actuellement un nivellement par le bas, c'est-à-dire que l'on fait fi des droits fondamentaux de la personne pour diminuer les coûts. Dans un article d'enquête bien documenté publié dans le magazine Wired le 15 novembre 2023 et intitulé « Underage Workers Are Training AI », un jeune pakistanais de 15 ans explique qu'il effectue des tâches pour former des modèles d'intelligence artificielle qui lui rapportent aussi peu que 1 ¢. Même pour des emplois mieux rémunérés, il doit consacrer du temps à la recherche sans être rémunéré. Ainsi, il lui faut travailler entre cinq et six heures pour compléter une heure de travail en temps réel... Tout cela pour gagner deux dollars. Selon lui, ce travail représente de l'esclavage numérique. Cette situation est relatée dans des articles semblables et des études approfondies de la chaîne d'approvisionnement de l'intelligence artificielle réalisées par des universitaires de partout dans le monde et des organisations internationales comme le Partenariat mondial sur l'intelligence artificielle.
Cependant, même si ces abus sont bien documentés, ils font actuellement partie de la fin du processus de développement de l'intelligence artificielle et les entreprises, les consommateurs et les gouvernements canadiens qui interagissent avec les systèmes d'intelligence artificielle n'ont pas accès à un mécanisme leur permettant de faire des choix éclairés au sujet des systèmes exempts d'abus. En exigeant la divulgation — et en interdisant certaines pratiques —, on pourra éviter ce nivellement par le bas de l'industrie de l'enrichissement et de la validation des données, et permettre aux Canadiens d'avoir recours à des systèmes d'intelligence artificielle de meilleure qualité, plus sécuritaires et qui ne contreviennent pas aux droits de la personne.
Le projet de loi récemment adopté, ou la « loi canadienne sur l'esclavage moderne », établit des obligations en matière de divulgation, permet de créer des chaînes d'approvisionnement plus résilientes et offre aux Canadiens des produits qui ne sont pas le fruit du travail forcé ou du travail des enfants.
Les chaînes d'approvisionnement transparentes et responsables ont a contribué au respect des droits de la personne dans d'innombrables secteurs, notamment ceux du vêtement, du diamant et de l'agriculture, pour n'en nommer que quelques-uns. Les exigences de la Loi en matière d'information pourraient inclure des renseignements sur l'enrichissement des données et la façon dont les données sont recueillies ou étiquetées, une description générale des instructions en matière d'étiquetage et des renseignements sur le caractère identifiable des employés ou des entrepreneurs, les pratiques d’approvisionnement associées à des normes en matière de droits de la personne et la confirmation des mesures prises pour qu’il n'y ait aucun recours au travail des enfants ou au travail forcé dans le cadre du processus.
Les entreprises préparent déjà des directives relatives à toutes les composantes de la chaîne d'approvisionnement de l'intelligence artificielle. La divulgation officialiserait ce qui est déjà une pratique courante. De plus, il est possible de créer des emplois de qualité qui respectent les droits de la personne au sein de la chaîne d'approvisionnement de l'intelligence artificielle. Le gouvernement canadien devrait immédiatement exiger la divulgation de ces renseignements dans le cadre de ses propres processus d'approvisionnement des systèmes d'intelligence artificielle.
Le fait d'avoir un mécanisme de divulgation serait également un complément au pouvoir de vérification conféré au ministre en vertu de la Loi. La création d'obligations de déclaration équivalentes pour la chaîne d'approvisionnement de l'intelligence artificielle renforcerait la loi actuelle et garantirait que la qualité, la transparence et le respect des droits de la personne font partie du développement de l'intelligence artificielle. Cela permettrait aux Canadiens de bénéficier de solutions novatrices qui sont de meilleure qualité, plus sécuritaires et conformes à nos valeurs.
J'espère que vous tiendrez compte de la proposition d'aujourd'hui. Vous pouvez avoir une incidence positive sur des millions de vies.
Merci.
:
Je m'appelle Bianca Wylie. Je travaille dans le domaine de la gouvernance numérique d'intérêt public en tant qu'associée chez Digital Public. J'ai travaillé à la fois pour une jeune entreprise technologique et pour une multinationale. J'ai également travaillé à la conception, à l'élaboration et au soutien de consultations publiques pour les gouvernements et les organismes gouvernementaux.
Je vous remercie de me donner l'occasion de vous parler aujourd'hui de La Loi sur l'intelligence artificielle et les données. Pour ce qui est des amendements, je propose de supprimer complètement La Loi sur l'intelligence artificielle et les données du projet de loi . Ne minimisons ni la faisabilité de cet amendement ni les arguments convaincants dont nous disposons pour le faire. Je suis ici pour tenir le Comité responsable de la fausse impression qu'il vaut mieux avoir quelque chose que rien du tout dans ce dossier. Ce n'est pas le cas, et c'est vous qui faites le pont entre la population canadienne et la légitimisation de cette initiative, qui tourne en dérision la démocratie et le processus législatif.
La Loi sur l'intelligence artificielle et les données est un cliquet de complexité. C'est un concept absurde qui n'a rien à voir avec la réalité. Il construit des châteaux législatifs de plus en plus complexes dans le ciel. Il conçoit l'intelligence artificielle comme étant détachée des opérations, du déploiement et du contexte. Les travaux du ministère de l'Industrie sur La Loi sur l'intelligence artificielle et les données montrent à quel point il est possible de détourner nos normes démocratiques lorsqu'il est question d'innovation et de technologie.
Comme l'a écrit Lucy Suchman, l'intelligence artificielle utilise un flou stratégique qui sert les intérêts de ses promoteurs, car ceux qui sont incertains au sujet de ses référents — les commentateurs des médias populaires, les décideurs et le public— doivent présumer que les autres savent de quoi il s'agit. J'espère que vous refuserez de continuer une mascarade qui a eu des répercussions spectaculaires à la Chambre des communes, et qui mise sur ce phénomène sociopsychologique qui consiste à présumer que quelqu'un d'autre sait ce qui se passe.
Le Comité a continué à appuyer un ministre qui, en gros, légifère à la volée. Comment rédigeons-nous des lois comme celle-ci? Quel est le contrôle de la qualité au ministère de la Justice? Est-ce que nous allons simplement rédiger les lois à la volée lorsqu'il est question de technologie, comme s'il s'agissait d'une approche réfléchie et adaptative à la loi? Non. Le processus de La Loi sur l'intelligence artificielle et les données est l'exemple parfait d'une loi qui n'est rien de plus qu'un accessoire politique.
Si l'on veut mettre la Loi en attente et la rediriger vers un nouveau processus, il faut commencer par le commencement. Si nous voulons réglementer l'intelligence artificielle, nous devons nous demander pourquoi, et être cohérents. Le gouvernement ne nous a jamais donné de raison cohérente pour justifier La Loi sur l'intelligence artificielle et les données. En tant que membres du Comité, avez-vous reçu des renseignements adéquats sur La Loi sur l'intelligence artificielle et les données, sur le plan de la procédure? Qui a créé cette urgence? Comment Loi a-t-elle été rédigée, et selon quel point de vue? Quel travail a été fait au sein du gouvernement pour réfléchir à cette question dans le cadre des mandats gouvernementaux existants?
Si nous devions soumettre ce projet de loi au grand public pour une discussion réfléchie — un processus que le ministère de l'Industrie a activement évité de réaliser —, il ne serait pas accepté. Il faut tenir compte de l’utilisation de l’intelligence dans un contexte médical par opposition à l’utilisation dans le cadre de la fabrication, de l’utilisation dans un contexte éducatif ou de l’utilisation dans un restaurant, de l’utilisation pour planifier les itinéraires d’autobus, de l’utilisation pour déterminer la pollution de l’eau par opposition à l’utilisation dans une garderie... Je pourrais continuer longtemps. Tous ces éléments peuvent entraîner des préjudices et des avantages réels. Au lieu de tenir ces conversations, nous nous berçons d'illusions en pensant que nous pouvons contrôler et catégoriser la façon dont une chose aussi générique que les statistiques informatiques avancées — ce qu'est l'intelligence artificielle — sera utilisée dans la réalité, dans le cadre du déploiement et dans divers contextes. Ceux qui peuvent nous aider à tenir de telles conversations ne se trouvent pas dans la salle, et ne s'y sont jamais trouvés.
La Loi sur l'intelligence artificielle et les données a été créée par un très petit cercle de personnes. Lorsqu'il n'y a pas de frictions de haut niveau dans le cadre des conversations sur les politiques, les gens se parlent à eux-mêmes. Un engagement public à l'égard de l'intelligence artificielle forcerait la rigueur. En s'en tenant impunément à ce discours d'urgence, le ministère de l'Industrie nous détourne tous de la pensée contextuelle et réaliste qui a également été omise dans la réflexion sur la protection de la vie privée et sur la protection des données. Cette façon de penser, comme on le voit encore une fois dans la Loi sur l'intelligence artificielle et les données, continue d'accentuer les asymétries du pouvoir. Nous faisons trois fois la même erreur.
Le projet de loi vise à faire exactement la même chose, mais plus rapidement. Si ce projet de loi était adopté demain, rien de substantiel ne se produirait, et c'est exactement là où je veux en venir. C'est une pièce de théâtre abstraite, déconnectée de la situation économique et géopolitique du Canada et de l'exubérance irrationnelle de la communauté du capital de risque et de l'investissement. Cette loi s’appuie sur l’enthousiasme des investisseurs à l’égard d’une industrie qui n’a même pas encore fait ses preuves. De plus, c'est une industrie qui dépend grandement des infrastructures privées d'une poignée d'entreprises américaines.
Merci.
:
Merci de m'avoir invitée ici pour participer à cette importante étude, en particulier pour discuter de la loi sur l'intelligence artificielle et les données, ou LIAD, un élément de la loi sur la mise en œuvre de la charte du numérique.
Je suis ici aujourd'hui en qualité de directrice générale du Centre de gouvernance de l'IA de l'International Association of Privacy Professionals, ou IAPP. L'IAPP est une organisation apolitique mondiale sans but lucratif qui se consacre à la professionnalisation de la main-d'œuvre chargée de la gouvernance de l'IA. Pour situer le contexte, nous avons 82 000 membres dans 150 pays et plus de 300 employés. Notre statut apolitique repose sur l'idée que peu importe les règles en place, nous avons besoin de personnes pour faire le travail nécessaire à leur mise en pratique. C'est la raison pour laquelle nous avons une seule exception à notre neutralité: nous préconisons la professionnalisation de notre domaine.
Pour remplir mes fonctions à l'IAPP, je m'appuie sur presque 10 années d'efforts déployés pour établir une politique et des normes responsables et significatives en matière de données et d'intelligence artificielle. J'ai auparavant été directrice générale au Responsible Artificial Intelligence Institute. Avant cela, j'ai travaillé au Secrétariat du Conseil du Trésor, où j'ai dirigé l'élaboration de la première version de la directive sur les systèmes de prise de décisions automatisés, et je me réjouis maintenant de voir qu'elle fait partie des amendements au projet de loi. J'ai également agi à titre de coprésidente du collectif de normalisation en matière d'IA du Conseil canadien des normes, et j'ai contribué à différents efforts nationaux et internationaux en matière de gouvernance de l'IA. C'est pourquoi je serai heureuse de répondre à titre personnel aux questions que vous pourriez avoir sur la LIAD.
Même si j'ai toujours eu intérêt à ce que les technologies soient conçues et gérées de manière avantageuse pour la société, sur une note personnelle, je mentionne que je suis maintenant mère de deux enfants de sept mois. Cette expérience m'a amené à me poser de nouvelles questions à propos des enfants qui grandissent dans une société dotée d'intelligence artificielle. Leur sécurité sera‑t‑elle compromise si nous publions des photos d'eux sur les réseaux sociaux? Les technologies de surveillance couramment utilisées dans les garderies représentent-elles une menace?
Je crois donc qu'il nous incombe plus que jamais de mettre en place de mesures de protection pour l'intelligence artificielle. Selon une récente étude du marché, la contribution de l'intelligence artificielle a presque doublé depuis 2021 et devrait passer d'environ 2 milliards de dollars à presque mille milliards en 2030. Cela montre non seulement les répercussions possibles de l'intelligence artificielle sur la société, mais aussi la vitesse à laquelle elle prend de l'expansion.
Votre comité a entendu différents experts parler des défis liés à l'utilisation accrue de l'intelligence artificielle et, par conséquent, des améliorations qui pourraient être apportées à la LIAD. Les amendements déposés récemment répondent à certaines de ces préoccupations, mais la réalité est que l'adoption généralisée de l'intelligence artificielle est encore nouvelle et que ces technologies sont utilisées de façon différente et innovante dans presque tous les secteurs. La création d'une loi parfaite qui va tenir compte de tous les effets potentiels de l'intelligence artificielle dans un projet de loi est difficile. Même si elle reflète fidèlement la situation actuelle du développement de l'intelligence artificielle, il est difficile de créer un seul cadre durable qui demeurera pertinent à mesure que ces technologies continuent de changer rapidement.
L'établissement de normes est une façon de préserver la pertinence de la législation lorsqu'on gère des technologies complexes. L'ajout de normes approuvées et de mécanismes de contrôle semble probable à l'avenir, d'après mon expérience, pour aider la LIAD à demeurer souple à mesure que l'intelligence artificielle évolue. Pour compléter ce concept, une autre mesure de protection envisagée dans des discussions stratégiques similaires partout dans le monde est la création d'un poste d'agent de l'intelligence artificielle ou de responsable désignée de la gouvernance en la matière. Nous estimons que l'ajout d'un tel poste pourrait améliorer la LIAD et contribuer à la mise en œuvre de ses objectifs, compte tenu de la nature dynamique de cette technologie. En veillant à ce que ces personnes soient adéquatement formées et possèdent les compétences requises, on pourrait répondre à certaines des préoccupations soulevées dans le présent processus d'examen, surtout à propos de la forme à donner au mécanisme de surveillance puisque l'intelligence artificielle est utilisée dans différents contextes et que ses répercussions diffèrent.
Ce concept est conforme aux tendances et aux exigences internationales dans d'autres secteurs, comme en protection des renseignements personnels et en cybersécurité. En Colombie-Britannique et au Québec, la loi sur la protection des renseignements personnels comprend la création du poste d'agent de protection de la vie privée pour assurer une supervision efficace de la mise en œuvre de la politique en la matière. De plus, nous observons une reconnaissance de ce rôle important dans le récent décret sur l'intelligence artificielle aux États-Unis. Chaque agence est tenue de nommer un chef de l'intelligence artificielle, qui est le principal responsable de la gestion de l'utilisation de l'intelligence artificielle dans son agence. On a proposé une approche similaire dans un récent projet de loi d'initiative parlementaire au Royaume-Uni sur la réglementation de l'intelligence artificielle. En vertu de cette approche, chaque entreprise qui mettrait au point, déploierait ou utiliserait ce genre de technologie serait tenue de nommer un agent de l'intelligence artificielle pour en assurer une utilisation sécuritaire, éthique, impartiale et non discriminatoire au sein de l'organisation.
L'histoire montre que lorsque la professionnalisation n'occupe pas une place suffisamment prioritaire, une énorme lacune en matière d'expertise peut survenir. À titre d'exemple, je vais citer l'étude sur la cybermain-d'œuvre publiée en 2022 par ISC2. Elle porte sur le manque croissant de cybertravailleurs. Selon ce rapport, il y a 4,7 millions de professionnels de la cybersécurité dans le monde, mais il en manque encore 3,4 millions pour répondre aux besoins des entreprises. Nous croyons que sans effort concerté pour perfectionner les compétences de professionnels dans des domaines parallèles, nous ferons face à une pénurie similaire en gouvernance de l'intelligence artificielle et à un manque de professionnels pour mettre en œuvre l'intelligence artificielle de manière responsable et conformément au projet de loi et à d'autres objectifs législatifs.
Enfin, dans un récent sondage sur la gouvernance de l'intelligence artificielle que nous avons fait à l'IAPP, 74 % des répondants disent qu'ils utilisent actuellement la technologie ou qu'ils ont l'intention de s'en servir au cours de la prochaine année. Cependant, 33 % des répondants ont mentionné un manque de formation et de certification professionnelles en gouvernance de l'intelligence artificielle et 31 % ont cité une pénurie de professionnels de la gouvernance de l'intelligence artificielle comme étant les principaux obstacles à la mise en œuvre et au fonctionnement efficaces de programmes de gouvernance en la matière.
Une reconnaissance législative de la nécessité d'avoir des professionnels compétents et la prise de mesures incitatives à cet égard contribueraient à ce que les organisations affectent des ressources adéquates aux programmes de gouvernance de l'intelligence artificielle pour faire le travail.
En somme, nous croyons que des règles sur l'intelligence artificielle verront le jour. Ce qui est peut-être plus important encore, ce sont les professionnels dont nous avons besoin pour mettre ces règles en pratique. L'histoire nous montre que les investissements précoces dans une main-d'œuvre professionnelle rapportent plus tard. À cette fin, dans notre mémoire, nous allons vous soumettre un texte législatif qui pourrait être inséré dans la LIAD.
Merci de votre temps. Je serai heureuse de répondre à vos questions.
:
Merci, monsieur le président.
Madame Wylie, le ministre a parlé d'environ 300 consultations menées après, pas avant, le dépôt du projet de loi. Lorsque je regarde la liste qu'il nous a fournie à notre demande, je vois que 28 négociations étaient auprès d'universitaires et 216 étaient essentiellement auprès de grandes entreprises. On n'a pas vraiment consulté les personnes touchées, et c'était un peu comme prêcher à des convertis.
Si possible, j'aimerais que vous expliquiez un peu plus pourquoi vous pensez qu'une consultation en bonne et due forme, après avoir rejeté le projet de loi et en avoir présenté une nouvelle mouture, donnerait un meilleur résultat.
Je pense que, même dans le cas des universitaires, on ne travaille pas dans un contexte d'utilisation. La raison pour laquelle j'ai donné des exemples, c'est que je pense que l'intelligence artificielle commence à être sensée lorsque nous en parlons dans un contexte précis — comme je l'ai mentionné, dans le secteur manufacturier, en santé, dans les cabinets dentaires. Nous pourrions faire le tour de la société ici. Nous devons parler aux personnes qui travaillent dans ces milieux, pas aux spécialistes généraux.
C'est ce que je veux dire. Même les détracteurs de la technologie ont intérêt à se plonger entièrement dans la complexité de la question plutôt que de prendre du recul et se demander pourquoi nous faisons cela. Qu'essayons-nous d'accomplir? Les réponses à ces questions seront très différentes d'un secteur à l'autre. Ce qui paraît bénéfique et nuisible varie énormément selon le secteur.
Je pense que c'est la raison pour laquelle nous devons ravoir la discussion en commençant par ce que nous essayons de faire ici, et nous pourrons ensuite parler de la façon de procéder. On ne peut pas parler de la façon de faire avant de savoir clairement pourquoi nous voulons le faire.
Il y a deux choses à dire à ce sujet. Tout d'abord, les préjudices sont toujours contextuels. Quelque chose peut sembler tout à fait sécuritaire, par exemple la collecte de données par un médecin, mais quelqu'un d'autre pourrait entrer en possession de ces données. C'est dangereux. Il faut toujours tenir compte du contexte et de l'utilisation, toujours, et je soutiens donc que cette catégorisation structurelle est incorrecte.
La raison pour laquelle nous nous tournons toujours vers l'Europe et nous demandons ce que les Européens font... Je sais qu'il est tentant de dire que ce qu'ils font là‑bas est judicieux, mais sur le plan géopolitique, d'un point de vue économique, ils veulent leurs propres Google, Amazon et Microsoft. Lorsqu'on génère toute cette complexité, on protège son industrie nationale. C'est une façon de permettre à l'économie de croître, en fonction de règles nationales.
Il y a ensuite ce que vous entendez à propos d'uniformisation à grande échelle. À quel point est‑ce que cela a bien fonctionné mondialement au moyen de lois sur la protection des données? Cela ne fonctionne pas. Cela ne fonctionne pas plus pour ce qui est de la protection des données personnelles.
C'était les deux éléments de ma réponse à cette question.
:
Merci beaucoup, monsieur le président.
L'une des choses que j'aime beaucoup au Comité, ce sont les points de vue divergents que nous entendons, le niveau d'engagement ainsi que le niveau d'intelligence que nous observons en abordant la question.
La réalité est que le génie est sorti de la bouteille. Ce qui me préoccupe, c'est que nous n'allons pas revenir où nous en étions avant.
Ma première question est pour Mme Casovan.
En avril 2023, vous avez cosigné avec 75 autres chercheurs une lettre qui demandait au gouvernement de donner suite à la loi sur l'intelligence artificielle et les données et qui disait qu'un nouveau report de la loi se traduirait par un décalage compte tenu du rythme auquel la technologie évolue. Avez-vous changé d'avis depuis le jour où vous avez cosigné cette lettre?
:
C'est une excellente question.
L'objectif du groupe est de rassembler des experts et des décideurs de renommée mondiale pour réfléchir aux applications pratiques de l'intelligence artificielle.
Dans les documents récents du groupe sur l'avenir du marché du travail se trouvent 10 recommandations sur les aspects inconnus que nous avons cernés avec l'Organisation internationale du travail, à savoir l'idée que l'intelligence artificielle aura des répercussions inconnues à l'avenir pour 8 % de la population active, et il est possible d'agir.
C'est une organisation formidable qui rassemble des intervenants de partout dans le monde. Nous discutons, de manière très concrète, de la façon d'appliquer la législation. L'organisation serait ravie d'être encore consultée dans le cadre de ce processus, et elle peut donner des exemples concrets de la façon dont l'intelligence artificielle peut être développée de manière responsable et profiter à l'humanité.
:
Il faut tenir compte de deux aspects.
Le premier est l'incidence sur le travail aujourd'hui au Canada et dans le monde. C'est le premier aspect. Le deuxième est l'incidence sur la société et les lieux de travail de demain.
Aujourd'hui, des millions de gens travaillent en coulisse sur les systèmes d'IA pour qu'ils fonctionnent de façon efficace. Cette loi — ou toute autre mesure législative sur l'IA qui est présentée — ne les protège pas. C'est la raison pour laquelle il est possible d'inscrire la chaîne d'approvisionnement de l'IA dans la loi pour ce qu'elle est: une chaîne d'approvisionnement qui comprend des millions de travailleurs.
Pour ce qui est du deuxième aspect — l'incidence sur les travailleurs à l'avenir —, nous connaissons peu de choses sur l'incidence qu'aura l'intelligence artificielle sur les travailleurs et leur travail.
L'un des avantages du Partenariat mondial sur l'intelligence artificielle est qu'il est composé de représentants d'universités, de l'industrie, de syndicats et de gouvernements. La déclaration qui a été publiée disait que nous devons mener des études sur les répercussions de l'intelligence artificielle sur le travail de demain. Nous devons investir dans le recyclage professionnel. Nous devons effectuer des investissements pour assurer la transition dans certains postes. Nous devons être conscients — surtout maintenant avec l'avènement de l'intelligence artificielle générative — que les travailleurs peu spécialisés ressentent déjà des répercussions économiques. Ils devront se recycler et obtenir d'autres occasions.
Ces mesures sont nécessaires pour l'avenir du travail, et le Partenariat mondial sur l'intelligence artificielle a un document d'information à ce sujet en ligne.
:
Merci, monsieur le président.
Je remercie l'ensemble des témoins.
Je vais commencer par m'adresser à Mme Casovan.
Madame Casovan, pendant votre travail au gouvernement du Canada, vous avez dirigé l'élaboration de la toute première politique sur l'intelligence artificielle, à savoir la Directive sur la prise de décisions automatisée. Cette directive impose un certain nombre d'exigences sur l'utilisation par le gouvernement fédéral des technologies qui assistent ou remplacent le jugement d'un décideur humain, y compris par l'utilisation d'apprentissages automatiques et d'analyse prédictive. Parmi ces exigences, il y a la nécessité de fournir un avis lorsque le système de prise de décisions automatisée est utilisé ainsi que l'existence de méthodes de recours pour ceux qui souhaitent contester les décisions administratives.
À votre avis, faut-il prévoir ce type de disposition d'avis ou de recours dans la Loi sur l'intelligence artificielle et les données?
:
Je pense que ce genre d'avis est nécessaire.
Dans cette Directive sur la prise de décisions automatisée, nous avons reconnu, entre autres, que ces systèmes sont utilisés dans une multitude de contextes différents et qu'ils comportent différentes formes de préjudices. Si vous y faites référence dans la mesure législative comme nous le faisons à l'annexe C de la Directive, vous constaterez qu'il existe différentes exigences pour ces différentes formes de préjudices.
L'une des difficultés que nous avons eues lors de la mise en œuvre de cette Directive était que les gens se demandaient quelles étaient les normes acceptables ou quel était le seuil auquel ils devaient se conformer. Malheureusement, ces éléments n'ont pas été précisés. Il faut le faire pour répondre aux préoccupations que vous avez soulevées. Il doit y avoir des avis et des exigences en matière de documentation. Ces éléments complémentaires sont nécessaires. Vous devriez prendre des règlements supplémentaires qui soutiennent le cadre plus large de la LIAD, et ensuite examiner ce qui est requis dans ces contextes selon les différents niveaux et catégories de risque.
:
Je vous remercie de la question.
Comme l'a dit Mme Wylie, je pourrais vous donner une foule d'exemples de préjudices et de répercussions dans le monde réel et vous parler de tout ce qui ne cesse de changer. Cependant, j'aimerais revenir en arrière et parler de la raison pour laquelle il est important d'examiner la question du travail.
Avant de vous dire qui peut le faire, il me semble paradoxal de vouloir que des technologies si complexes soient agiles. Nous ne les comprenons pas. La plupart des gens ne les comprennent pas. Ces technologies sont mystérieuses. Les ingénieurs ne les comprennent toujours pas. Les travailleurs en subissent continuellement les effets. Quand je dis « effets », je parle de répercussions négatives et de préjudices. Mme Renee Sieber et moi avons soumis un mémoire à votre comité dans lequel nous en discutons longuement. Vous devez examiner de nombreuses études d'années différentes. Cela fait maintenant cinq ans que je suis les travaux de l'entreprise Sama qui se targue d'être une entreprise d'« IA éthique ». Nous devrions nous poser des questions à propos des acteurs qui se disent éthiques. Nous devrions nous interroger sur ce que l'on entend par « éthique ».
Pendant mes cinq premières minutes, j'ai dit qu'on veut nous faire avaler que l'IA est un avantage pour la société. En effet, on nous dit: « Nous devons renforcer la littératie numérique. Nous devons apprendre à utiliser l'IA. Nous savons que c'est bien et qu'elle est là pour de bon. » Je suis ici pour rejeter cette idée. Nous devrions être en mesure d'interdire l'IA lorsque cela s'impose. Nous devrions pouvoir écouter les travailleurs pour savoir ce qu'ils veulent et ce qu'ils pensent. À quoi ressemble leur travail au quotidien? Ont-ils suffisamment de pauses? Regardez ce que fait Amazon. Elle gère la vie de ses employés à la milliseconde près. Les travailleurs d'usine vivent dans l'incertitude. En fait, ils ne vivent pas dans l'incertitude, ils vivent un calvaire.
Comment éviter cette situation? Pourquoi ne pas s'adresser aux ministères du Travail qui connaissent ces avantages? C'est la raison pour laquelle ISED n'est pas en mesure de faire ce travail seul. Tout à l'heure, on m'a demandé quelle autre agence pourrait le faire. Il ne peut pas y en avoir qu'une seule. Il faut qu'il y en ait plusieurs, car c'est un travail d'équipe. Cela nous ramène à la démocratie. Il faut ralentir un peu et écouter ce que les gens ont à dire. Nous ne savons pas ce que veut la population, parce qu'elle n'a pas participé au processus. Nous devons écouter les organisations syndicales, les représentants des ministères qui se concentrent sur la question du travail partout au pays, et les travailleurs eux-mêmes. C'est pourquoi nous ne pouvons pas nous contenter d'avoir des gens dans ces salles. Nous ne pouvons pas nous contenter d'un débat télévisé. Il faut que les gens viennent à vous. Vous devez aller à la rencontre des gens. Nous devons organiser des assemblées publiques. Nous devons envisager des façons de faire dans d'autres contextes. Nous devons donner une tribune à la population à des moments et dans des endroits différents, parce que nous vivons dans un monde numérique.
Vous dites que nous devons tout changer pour l'IA. Non. Comme l'a dit Mme Wylie, l'IA doit changer pour nous.
:
Je remercie tous les témoins de leur présence aujourd'hui.
Ce projet de loi défaillant me préoccupe beaucoup. En tant que législateurs, nous, autour de cette table, comprenons ce qui est en jeu ici, et c'est très inquiétant. C'est la deuxième fois, depuis que nous avons commencé à examiner ce projet de loi, que le nous envoie des documents d'information volumineux qui viennent complètement modifier le projet de loi dont nous sommes saisis. Je me demande comment le ministre a pu rater son coup de la sorte et où était le ministère pendant toutes ces années. Où était‑il?
Lors de la dernière réunion, j'ai demandé à un certain nombre d'experts si Industrie Canada ou le gouvernement du Canada avaient la capacité de relever ce défi. C'est l'une des premières questions que j'ai soulevées au Parlement après avoir été élu. Je faisais partie du Comité HUMA qui était chargé d'examiner les systèmes de données du ministère des Ressources humaines, qui utilisait encore une méthode de code binaire datant des années 1970. Je pense que cette méthode est toujours utilisée. Le gouvernement du Canada a prouvé, de manière générale, qu'il se trompe sur beaucoup de choses et qu'il n'est pas au diapason du 21e siècle. Je suis très inquiet à l'idée de donner à ce ministère plus de pouvoir dans un domaine à propos duquel la plupart des experts se demandent toujours comment bien faire les choses.
Cela dit, je pense que, malgré l'incompétence du dans ce domaine, son cœur est peut-être en partie à la bonne place. Il essaie de proposer des amendements et de faire quelque chose pour réparer son gâchis. Cependant, il est très effrayant de constater qu'il est si incompétent qu'il ne fait que nous envoyer ces renseignements.
Je m'excuse pour cette diatribe, mais une partie de moi se dit en ce moment...
:
En ce moment, les membres libéraux du Comité pourraient décider d'un commun accord avec le Bloc Québécois d'appuyer cette partie du projet de loi. Je ne sais pas où cela va aboutir. Nous tenons ouvertement un débat pour déterminer si ce texte doit être adopté. Nous avons procédé en toute bonne foi.
Cela dit, si le texte est adopté, les membres du Comité devraient-ils examiner les amendements que nous allons présenter afin d'ajouter des mesures de protection pour les enfants à la première partie du projet de loi?
J'ai à cœur la protection des innocents. J'ai une fille de 10 mois, un fils de 4 ans et un fils de 8 ans. Je suis très préoccupé par la manipulation dont ils pourraient être victimes. Le projet de loi, je l'admets, tient compte des préjudices psychologiques, mais je ne pense pas qu'une ou deux dispositions suffisent à prévenir les torts causés par une économie axée sur les données qui, à notre époque, a des répercussions sur les personnes de leur naissance à leur mort.
Pourriez-vous parler un peu de cet aspect?
:
Bien sûr. J'ai évoqué tout à l'heure un pan de ma vie personnelle en réaction aux questions que vous aviez posées. C'est préoccupant. Je ne parle pas habituellement de ce genre de choses, mais je me suis surprise à réfléchir pour la première fois à l'évolution des différents types de technologies et à l'incidence de ces dernières sur la société, moi qui travaille dans ce domaine depuis presque une décennie — ce qui fait un peu peur.
J'ai aussi hoché la tête lorsque vous avez mentionné les difficultés qui existent dans les ministères. Je les ai vues et connues de près lorsque je travaillais au gouvernement. Là‑bas comme dans toutes les organisations, l'utilisation de vieilles technologies pour régler des problèmes modernes cause des inquiétudes. En fait, tout prend énormément de temps.
Quant aux enfants, depuis que je suis devenue maman récemment, je m'intéresse beaucoup plus aux dommages causés par les technologies. Ces choses sont devenues beaucoup plus réelles et viscérales que j'aurais pu l'imaginer. Tout cela était abstrait auparavant.
Étant donné les amendements proposant la possibilité d'ajouter à la loi de nouvelles catégories de systèmes d'intelligence artificielle à incidence élevée, ce serait bien que le projet de loi tienne compte non seulement de ces préjudices, mais aussi de la protection de la jeunesse, à l'instar de ce qui a été instauré aux États-Unis.
:
Grosso modo, le développement de systèmes d'intelligence artificielle nécessite plusieurs étapes.
La première est la collecte des données qui seront versées dans le système d'IA. La deuxième est l'annotation de ces données. Par exemple, une image montrant des yeux et un nez est annotée par quelqu'un. Ensuite, un mécanisme de rétroaction permet d'enrichir les données, qui passent par une application logicielle dont les résultats sont par la suite revalidés par un être humain. La solution est alors présentée sous forme de prototype appelé preuve de concept, qui est souvent lancé avant de devenir un produit utilisé par les consommateurs ou les entreprises. Voilà l'ensemble de la chaîne d'approvisionnement.
Dans sa version actuelle, le projet de loi ne porte que sur les produits. Il ne tient pas compte de tout le travail de développement des systèmes d'IA, qui est accompli par des êtres humains. Il faut donc adopter une loi qui permettra de réglementer autant la chaîne d'approvisionnement que les produits.
Ma recommandation [Difficultés techniques]
:
C'est une excellente question.
D'abord, les systèmes d'IA sont très impressionnants. Il faut toutefois que des millions de personnes travaillent en coulisse quotidiennement pour faire fonctionner ces systèmes qui permettent de faire une foule d'activités allant des interactions dans les médias sociaux aux prises de décisions automatisées.
Ce que je demande est très simple. En inscrivant dans la loi un mécanisme de divulgation qui exigerait des entreprises qu'elles transmettent des informations sur les données qu'elles ont recueilles et sur leurs méthodes de collecte, nous protégerions contre les processus d'exploitation les millions de personnes dans le monde qui annotent les données quotidiennement et qui interagissent avec les systèmes d'IA en arrière-scène.
En ce moment, aucune loi n'est en place nulle part dans le monencore de. C'est la jungle. Personne ne protège ces travailleurs. Ce sont des jeunes au P etkistan, des femmes a, mais aussi des Canadiens vulnérables qui occupent un deuxième emploi pour arrondir les fins de mois. Rien n'est en place pour les protéger.
:
Merci, monsieur le président.
Monsieur Shee, j'aimerais poursuivre avec vous.
Hier, Radio‑Canada a présenté un reportage sur l'intelligence artificielle au service de la guerre. Il faisait référence à l'utilisation de l'intelligence artificielle et du logiciel Gospel par l'armée israélienne pour mieux cibler les installations attribuées au Hamas. Cependant, cette technologie augmente le nombre de victimes civiles, selon les experts, parce qu'il y a moins d'interactions humaines derrière chaque décision prise avant de passer à l'offensive.
Dans ce cas, y a-t-il là un certain dérapage de l'intelligence artificielle? Comment peut-on encadrer ces pratiques pour sauver des vies humaines?
:
C'est une excellente question.
Je n'ai aucune expérience de l'intelligence artificielle dans des situations de guerre ou de défense. Je peux simplement commenter cela en tant que citoyen averti.
Je pense qu'il faut un encadrement extrêmement clair qui prend en considération les règles de guerre déjà établies. Malheureusement, les systèmes d'intelligence artificielle sont utilisés dans des situations de guerre et ils font énormément de victimes. Il faut être conscient du risque et prendre des mesures pour l'encadrer.
Très humblement, c'est un peu hors de mon champ d'expertise. Cependant, je pense que vous soulevez un point important. En effet, l'intelligence artificielle sera utilisée dans des situations de guerre et des systèmes [difficultés techniques].
:
Merci, monsieur le président.
Madame Wylie, je vais vous poser une question, puisque vous n'avez pas eu la chance de participer à la discussion. Si la fonction de commissaire à l'intelligence artificielle ou de commissaire aux données, peu importe le nom que nous lui donnerions, était établie, le serait-elle selon un modèle indépendant comme celui du commissaire à la protection de la vie privée?
Ensuite, peut-être avez-vous des suggestions, mais comment assurons-nous l'indépendance et la reddition de comptes de cette fonction tout en lui donnant des moyens d'agir?
:
Je vais revenir à ce que je disais tout à l'heure sur le fait de commettre la même erreur pour la troisième fois. Nous avons commis cette erreur avec la protection de la vie privée et des données en traitant ces sujets comme des objets coupés de la réalité. Ce raisonnement erroné s'est soldé par un échec. Nous parlons beaucoup de protection de la vie privée, mais nous avons affaire à un espace très privatisé dont les infrastructures — particulièrement l'IA, peu importe les données et les logiciels — sont contrôlées par des intérêts privés.
Si nous pensons aux échecs en matière d'accès à la justice pour des choses comme la protection de la vie privée et la protection des données, et que nous pensons aux failles de ce type de modèle, la question n'est pas de déterminer si nous devons résoudre les problèmes d'accès, mais plutôt de déterminer comment les résoudre. Si nous voulons prendre le virage vers un monde différent où nous aurions le contrôle des technologies, il faut examiner les choses en contexte.
À mon avis, il faut revenir à la base. Qui est le ministre responsable de tel ou tel secteur? Qui est responsable de la gestion des forêts, de la protection de l'environnement ou encore du transport automobile? Nous devons toujours revenir à cela. Nous avons beau continuer à échafauder des processus complexes et à empiler les mécanismes de conformité jusqu'à l'infini, nous ne réglerons pas le problème fondamental d'accès à la justice au pays. Combien de Canadiens ont le temps et l'énergie de déposer une plainte auprès du commissaire à la protection de la vie privée? Quel est le profil des personnes qui déposent ce genre de plaintes? À quel segment de la population appartiennent ces personnes?
De la même manière, nous ne pouvons même pas savoir aujourd'hui si nous avons subi des préjudices causés par l'intelligence artificielle. J'ai entendu récemment quelqu'un faire une comparaison avec l'amiante. Puisque ce minéral peut se trouver dans la matière sans que nous le sachions, qui pouvons-nous tenir responsable? Il existe des processus clairs pour ceux qui se font frapper par une voiture. Pourquoi bâtir quelque chose d'entièrement nouveau alors que nous avons déjà des éléments palpables et un ensemble parfaitement fonctionnel de normes de gouvernance? Il existe des pouvoirs publics à cet effet. Les seuls qui vont profiter de cet échafaudage de complexités additionnelles, ce sont les détenteurs d'intérêts privés. Dans les démocraties — les préjudices causés par les technologies existent depuis 30 ans —, ce sont les pouvoirs publics qui doivent être renforcés.
Est‑ce que je souhaite la création d'une fonction de commissaire à l'intelligence artificielle? Non. Il ne faut pas instaurer un nouveau régime pour l'IA.
:
Merci, monsieur le président.
Je remercie tous les témoins.
Comme on le dit en québécois, je suis « sur le cul ».
[Traduction]
Je ne sais pas si vous comprenez cette expression. En anglais, on dirait littéralement « I'm on my ass ».
[Français]
Je ne sais pas si cela se traduit comme cela.
Je m'excuse auprès des interprètes.
Madame Wylie, vous êtes en train de nous donner une leçon particulièrement intéressante.
Le projet de loi est sur la table depuis près de deux ans. Il a été évalué. Il a été créé par des fonctionnaires, de toute évidence, à Ottawa. Certains politiciens ont fait du travail pour essayer de mettre en place une loi qui viendrait encadrer un problème que vous ne voyez pas réellement. En effet, vous dites que toutes les lois dont on a besoin existent déjà. Il faut simplement procéder par secteur pour corriger les éléments qui auront un lien avec l'intelligence artificielle.
Au Comité, nous avons accueilli des gens. Au cours des dernières années, nous avons mené des études sur les chaînes de bloc, sur l'industrie automobile, sur le droit à la réparation, etc.
Aujourd'hui, vous nous dites que ce que nous sommes en train de faire ne donne absolument rien. Vous nous dites de reprendre les études que nous avons menées et les lois existantes et de corriger ce qui va toucher l'intelligence artificielle, car celle-ci se trouve déjà dans tous ces secteurs, qu'on se le dise.
Je m'adresse toujours à vous, madame Wylie, mais j'aimerais aussi savoir ce que Mmes Brandusescu et Casovan pensent de votre position.
:
Je tiens à être très claire: il n'y a rien de mal à soutenir le secteur de l'intelligence artificielle. Toutefois, je trouve tout à fait trompeur d'évoquer la peur, la sécurité, la réduction des préjudices, la protection des droits de la personne et plus encore pour justifier le projet de loi. C'est la raison pour laquelle j'ai demandé ce que le projet de loi accomplissait réellement.
Si nous repartions de zéro, nous pourrions demander: « Quels préjudices constate‑t‑on dans différents secteurs? Comment les a‑t‑on réparés dans les secteurs des logiciels et des banques? ». Aucun secteur ne part de rien. Tous ont eu à prendre des mesures à l'égard des données, de la protection de la vie privée, des logiciels. Les logiciels causent énormément de préjudices, mais on ne fait rien à ce sujet. La mesure ne cadre même pas avec la réalité des 30 dernières années de préjudices entraînés par la technologie.
Ce que je dis, c'est qu'il faut consulter la population. Je le répète, les seules personnes avec qui il faudrait s'entretenir n'ont pas été incluses dans le processus. Ce sont elles qui pourraient vous parler des problèmes, parce qu'à l'heure actuelle, tout le monde s'exprime en termes généraux.
Pour ajouter à ce que Mme Wylie a dit, à mon avis, il faut réglementer l'intelligence artificielle. Il faut ralentir. Il ne faut pas tout casser en réglementant rapidement. Je le répète, l'intelligence artificielle est déjà réglementée, mais par le secteur privé. C'est de l'autoréglementation, et cela ne fonctionne pas. M. Shee l'a déjà dit durant sa déclaration préliminaire.
Il faut des mesures différentes. Comme au sein de l'Union européenne, la réglementation doit être élaborée et par le secteur public et par le secteur privé. De plus, elle ne doit pas être centralisée. J'insiste sur ce fait, car les enjeux sont trop importants pour donner tout le pouvoir à un seul organisme. J'ajouterais qu'il ne faut pas s'en remettre uniquement au Commissariat à la protection de la vie privée parce que l'intelligence artificielle ne concerne pas uniquement la protection de la vie privée. Elle concerne également la privatisation.
Aujourd'hui, on court un risque de capture de la réglementation, car chaque fois que les grands gouvernements, dont le nôtre, se réunissent en sommet, comme à Bletchley Park, au Royaume-Uni, ils annoncent une nouvelle collaboration avec une grande entreprise. Il y a les suspects habituels — Amazon, Google et Microsoft —, ainsi que les nouveaux joueurs. On ne peut pas fonctionner ainsi.
Je le répète, ce n'est pas du tout une question de perfection. Le problème, c'est que pendant le processus d'un an et demi qui nous a menés jusqu'ici, il n'y a eu presque aucune consultation publique, aucune demande de participation et aucun échange de connaissances, malgré le fait, comme Mme Wylie l'a souligné, qu'il existe de nombreux exemples précis de préjudices. Oui, il faut réglementer l'intelligence artificielle. Nous pouvons faire appel à notre imagination pour élaborer des mesures législatives en ce sens.
:
Je pense que j'ai répété à plusieurs reprises qu'à mes yeux, l'intelligence artificielle n'est pas un bloc monolithique. Selon moi, elle exige une réglementation proprement sectorielle.
D'après moi, la LIAD fournit un cadre pour la mise en place subséquente d'autre réglementation proprement sectorielle. Le processus suivi pose indubitablement problème. D'autres consultations publiques sont nécessaires. J'ai été ravie de constater qu'au moins les amendements tiennent compte des réactions et tentent d'y répondre.
Je ne vais pas m'attarder sur cette question, car c'est à vous de débattre du processus. Cela dit, c'est très important de réglementer les systèmes d'intelligence artificielle. Je travaille beaucoup auprès d'organisations de la société civile; j'ai vu les préjudices causés par l'intelligence artificielle. Je ne crois pas qu'on puisse compter sur les entreprises pour fixer elles-mêmes les règles qu'elles doivent suivre. Je ne crois pas non plus que se fier à leur parole lorsqu'elles disent qu'elles font de leur mieux les incitera à bien se comporter. Les législateurs doivent intervenir.
Il faut aussi imposer les devoirs. On ne peut pas dire aux entreprises de préparer leurs propres épreuves et de les évaluer elles-mêmes. Je trouve très important que ce soit les organisations de la société civile, en collaboration avec les intervenants du secteur, les gouvernements et les chercheurs universitaires, qui imposent les épreuves, les normes dont je parle, et que ces normes soient ensuite utilisées pour évaluer les pratiques du secteur.
:
Merci, monsieur le président.
Je remercie tous les témoins de leur présence. Nous avons un bel échantillon de points de vue. Depuis le début de notre étude, nous recueillons les opinions de témoins d'horizons divers.
Je pense que tous s'entendent sur le fait que nous avons affaire à une mesure législative importante, volumineuse, complexe et ardue, tant pour les législateurs que pour... Je ne crois pas qu'un seul intervenant ait une vue globale de la manière de procéder. Je trouve très bien d'avoir des discussions mouvementées comme celles‑ci. Je comprends que les défis sont nombreux.
Tout d'abord, je tiens à mentionner que le projet de loi a été élaboré pour donner suite aux recommandations du comité consultatif en matière d'intelligence artificielle du ministre, qui était formé d'experts du domaine. La dénonciatrice de Facebook fait aussi partie des éléments qui ont déclenché ce travail.
J'ajouterais aussi qu'à ma connaissance, plus de 300 intervenants ont été consultés, dont des universités, des instituts, des entreprises, des regroupements sectoriels, des associations, des spécialistes de la protection de la vie privée et des groupes de protection des consommateurs. Je pense qu'il y a aussi d'autres catégories d'intervenants, mais ce sont celles que je peux voir. J'ai la liste sous les yeux. Elle a été rendue publique, et les membres du Comité l'ont reçue.
De plus, pour parler des usages parlementaires, habituellement, les amendements ne sont pas fournis à l'avance pendant une étude à laquelle participent des témoins. Cette fois‑ci, le gouvernement a fourni les amendements à l'avance, en plus de convoquer des témoins.
Il y a divers points de vue sur le processus à suivre. Certains témoins nous ont dit que déposer un projet de loi-cadre est un bon moyen d'inscrire une mesure au Feuilleton, pour ensuite mener de vastes consultations, puis proposer des amendements. Aux yeux de certains, cette méthode convient parfaitement.
Je tenais d'abord à présenter ces observations.
Madame Casovan, d'autres témoins nous ont parlé comme vous de l'équilibre entre innovation et protection. Ce que j'ai compris, c'est que la mise en place de garde-fous raisonnables permettra aux gens de profiter de l'intelligence artificielle, tout en les protégeant. Je sais que c'est un objectif difficile à atteindre. Tout projet de loi implique une recherche d'un juste milieu.
D'après vous, comment saurons-nous si nous avons trouvé un juste milieu?
:
Vous le saurez si personne ne subit de préjudices.
C'est très difficile, mais il faut essayer. Il faut reconnaître que si l'on s'en remet au marché libre, on n'obtiendra probablement pas les résultats voulus.
Je ne sais pas si vous connaissez la base de données des incidents d'IA. C'est une excellente ressource. Elle fait le suivi de différentes formes de préjudices. Ce serait formidable que les incidents soient compilés; ainsi, on les comprendrait mieux et l'on pourrait les expliquer de manière plus générale.
C'est difficile de répondre à la question sans ces informations. Je trouve important de confier à un commissariat la responsabilité de collecter des données sur les incidents qui lui sont signalés.
:
Je pense qu'il y a deux éléments importants à souligner.
D'abord, il doit absolument y avoir un centre de responsabilité. Étant donné l'interopérabilité entre les différents systèmes d'intelligence artificielle, pour savoir exactement... Par exemple, il va peut-être de soi que les véhicules automatiques sont du ressort du ministère des Transports, mais pour les systèmes de soins de santé, les enjeux peuvent toucher à la fois la protection des consommateurs et la santé et la sécurité. La détermination est difficile à faire. D'après moi, le projet de loi oblige la collaboration entre les différents organismes de réglementation, ainsi que l'harmonisation de la réglementation.
Ensuite, il y a aussi des écarts à combler.
En troisième lieu, je répéterais peut-être ce que j'ai dit durant ma déclaration préliminaire: il faut professionnaliser le milieu pour rendre des personnes responsables de la gouvernance des systèmes. Cela favorisera l'harmonisation de la réglementation.
:
Merci beaucoup, monsieur le président.
Madame Casovan, j'aimerais vous poser quelques questions complémentaires.
La discussion d'aujourd'hui est fort intéressante, soit dit en passant, surtout en ce qui concerne la LIAD.
On parle de la valeur des données publiques et privées, surtout dans le contexte de la LIAD, et des exemptions que prévoit le projet de loi. Aux termes actuels du projet de loi, la LIAD ne s'applique pas au MDN, au SCRS, au CST et à tout autre ministère ou organisme fédéral ou provincial désigné par règlement. Autrement dit, la loi ne s'applique pas à l'ensemble du gouvernement fédéral et des sociétés d'État.
À votre avis, est‑il juste d'exempter l'ensemble du gouvernement fédéral de la LIAD?
:
Cela dit, une mesure législative portant sur la protection de la vie privée, les données liées à l'intelligence artificielle et l'intelligence artificielle dans son ensemble comprendrait certainement des dispositions à ce sujet. Pour l'approvisionnement, on tiendrait seulement compte d'autres mesures, comme la Loi sur Investissement Canada ou d'autres lois.
Je trouve cette omission intéressante. C'est une lacune flagrante que j'ai seulement remarquée aujourd'hui.
Je vais me tourner maintenant vers Mme Wylie ou Mme Brandusescu.
Je porte beaucoup d'attention aux obstacles à la concurrence. Nous examinons les géants conglomérats autoritaires qui règnent sur le système.
Madame Wylie, vous avez fait une observation intéressante. Vous avez dit que le secteur est le seul qui semble avancer parce que le capital cherche un endroit où aller. Les exemples que vous avez donnés d'entreprises qui génèrent des profits sont Amazon, Microsoft et Google. Ce sont de géants conglomérats autoritaires, des sociétés énormes qui ne cherchent qu'à prendre de l'expansion et, bien sûr, à engranger des profits.
Nous sommes le comité de l'industrie. Nous tenons à ce que les jeunes compétiteurs et les petites entreprises puissent entrer sur le marché et soutenir la concurrence.
J'appuie vos arguments sur l'état actuel de la LIAD. Disons que nous reprenions du début. Comment pourrions-nous favoriser la concurrence? Par où faudrait‑il commencer pour faire en sorte que tous les intervenants participent aux discussions, pas seulement les plus grands, mais aussi les plus petits?
:
Je n'ai que deux commentaires à faire là‑dessus.
Premièrement, c'est en partie la raison pour laquelle, si nous avions un engagement public adéquat et que nous reprenions du début, il faudrait recenser les biens infrastructurels qui composent l'intelligence artificielle. Il n'y a pas d'intelligence artificielle sans les géants de la technologie, un point c'est tout. Vous ne pouvez pas la créer dans votre garage. Vous ne pouvez pas créer votre petite entreprise de logiciels parce que le code est à votre disposition. Ce n'est pas ainsi que fonctionne cette industrie. C'est ce que je veux dire. Je suis préoccupée du manque de travail préparatoire réalisé pour nous assurer de partir d'une réalité matérielle, physique, infrastructurale, et pour savoir la façon dont c'est lié à cette industrie. C'est une chose.
La deuxième chose que je veux dire est liée à la conversation que nous avons eue au sujet de la centralisation ou de la décentralisation. Non seulement le gouvernement canadien n'a pas beaucoup d'influence pour dire ce que cette infrastructure peut faire ou non... Lorsque nous songeons à la législation sur la protection des renseignements personnels, si nous commençons ici avec un parapluie appelé « protection de la vie privée », puis que nous examinons comment les choses se passent dans différents secteurs, nous pourrions savoir à quoi nous en tenir à l'échelle sectorielle. Si notre parapluie s'appelle « intelligence artificielle », qu'est‑ce que c'est? Que tentons-nous de faire exactement dans ce cas? Essayons-nous de l'utiliser partout?
Je veux simplement nous rappeler que nous avons une conversation dans un cadre qui ne tient compte ni de la réalité, dans la façon dont cette industrie est structurée, ni de la façon dont notre législation préexistante est établie.
Je veux simplement dire à quel point les entreprises pourraient être peu nombreuses à aller de l'avant. Les entreprises en démarrage espèrent que personne ne posera de questions sur leurs revenus après deux ou trois ans. Tout ce qu'elles ont à faire, c'est de montrer leur échelle. C'est ainsi que fonctionne le secteur du capital de risque. Vous n'avez qu'à montrer que votre entreprise prend de l'expansion; vous n'avez pas à montrer qu'elle fait de l'argent. C'est à ce point semblable à un casino.
C'est pourquoi le fait que nous intégrions ce secteur sans examiner les conséquences sur le reste de notre économie est aussi une grave erreur, selon moi.
:
Pour compléter ce qu'a dit Mme Wylie, j'aimerais revenir quatre ans en arrière, lorsque le public et le privé ont investi massivement dans la société Element AI. C'est un dossier dont on ne parle plus au Canada et au Québec. Cela revient à ce que disait Mme Wylie au sujet de la propriété de l'infrastructure et du centre de données par rapport aux ensembles de données. Encore une fois, sans les géants de la technologie, il n'y aurait peut-être pas d'intelligence artificielle. Je dirais toutefois que sans l'armée, il n'y aurait pas d'intelligence artificielle, parce que c'est de là qu'elle vient, comme la plupart des technologies.
Element AI était l'enfant chéri du Canada. En fin de compte, la place que nous occupions dans le cadre réglementaire de la concurrence ne lui a pas permis de survivre. Que s'est‑il passé? La société a été acquise par ServiceNow, une entreprise de la Silicon Valley qui, franchement, assure la surveillance des travailleurs.
Lorsque nous passerons à cette nouvelle idée, j'aimerais savoir exactement à quoi ressemblera une plus grande prospérité commune dans la concurrence entre les PME et les grandes entreprises. J’aimerais réfléchir aux échecs de l’IA au Canada dans l’espace industriel. Où avons-nous fait fausse route? Qu’est‑il advenu des sommes colossales de financement et de dépenses gouvernementales qui ont été versées pour soutenir notre industrie, compte tenu de toute l’expertise en recherche sur l’IA que nous avons et de tous les centres d’excellence? Nous devrions y songer avant même de réfléchir à la forme que devrait prendre la concurrence. Nous devrions réfléchir à ce qui s'est passé, surtout avec la société Element AI.
:
Je le peux certainement. J'ai entendu à maintes reprises des témoins parler d'échelle, mais pas de violence à grande échelle. C'est ce que nous voyons — c'est ainsi que l'intelligence artificielle est employée dans l'armée. Nous devons revenir à une chose dont j'ai parlé lorsque le Parlement réalisait une étude sur la technologie de reconnaissance faciale: des entrepreneurs du secteur de la défense sont maintenant des entreprises d'IA et d'analyse des données. L'entreprise Palantir en est un exemple connu. Vous la connaissez peut-être.
Palantir est une entreprise intéressante, parce qu'elle a commencé dans le domaine de la défense, mais qu'elle est maintenant partout. Le National Health Service du Royaume-Uni vient de lui accorder un contrat de plusieurs millions de dollars, malgré toute l'opposition qu'elle suscite. Palantir a promis que le gouvernement du Royaume-Uni serait responsable des données des gens, mais au bout du compte, ce n'est pas vrai. Nous avons des exemples de violations des droits de la personne commises par Palantir dans le passé. Mettons les choses en perspective. Par exemple, une étude réalisée par Amnesty États-Unis a montré que là‑bas, le gouvernement a planifié les arrestations massives de près de 700 personnes et « la séparation des enfants de leurs parents [...] causant des dommages irréparables. »
Je vais revenir à l'armée. Qu'est‑ce que cela signifie? L'armée est le principal bailleur de fonds de l'IA. Nous assistons à des tueries rapides et exacerbées à grande échelle. Lorsque nous nous précipitons pour favoriser l’intelligence artificielle, la rendre plus rapide et créer une réglementation plus vite simplement pour nous justifier de l’utiliser, nous ne réfléchissons pas à ce qui devrait être interdit, à ce qui devrait être mis hors service...
:
Je vous remercie, madame Brandusescu. Je dois vous interrompre ici. Je voulais simplement en savoir plus à ce sujet. À ma connaissance, la plupart des grands joueurs de l’IA sont dans le secteur privé, mais je vous remercie des exemples que vous avez donnés.
La sonnerie se fait entendre, chers collègues, ce qui signifie que nous avons besoin du consentement unanime des membres du Comité pour continuer. Je regarde dans la salle pour voir si nous l'avons, étant donné que nous aurons environ 35 heures de vote, grâce à nos amis à ma gauche, mais certainement à ma droite aussi, sur le plan politique.
Ai‑je le consentement unanime du Comité pour continuer encore 10 minutes?
Des députés: D'accord.
Le président: Je cède maintenant la parole au député Gaheer.
:
La technologie de reconnaissance faciale, comme nous le savons, est, espérons‑le, la voie facile de l'intelligence artificielle dangereuse. Il semble que le préjudice soit hors contexte. Je vais la qualifier de dangereuse parce que c'est ce qu'elle est. Pourtant, nous avons besoin de ces niveaux d'imagination pour interdire certaines technologies, et les technologies de reconnaissance faciale devraient être interdites.
Le secteur public peut faire ce choix parce qu'il est redevable au public au bout du compte. Le secteur privé, dans sa forme actuelle, rend des comptes à l'actionnaire et au modèle d'affaires qui consiste à faire plus d'argent. C'est ainsi que fonctionne le capitalisme. C'est ce que nous constatons.
Ce n'est pas le travail du gouvernement. Encore une fois, lorsque je dis que la LIAD devrait faire l'objet d'une réflexion publique et privée, c'est exactement ce à quoi je pense. Je songe à la technologie de reconnaissance faciale utilisée par les forces de l'ordre, la sécurité nationale et Immigration, Réfugiés et Citoyenneté Canada. Maintenant, elle peut être utilisée à Service Canada, ou peut-être à l'ARC de la façon dont l'Internal Revenue Service voulait utiliser la reconnaissance faciale pour faire des déclarations de revenus. Encore une fois, ces technologies ne sont pas limitées à un domaine. Tout comme Palantir est passée de l'armée à la santé, la technologie de reconnaissance faciale fonctionne de la même façon. Le secteur public doit intervenir et rendre des comptes à la population.
Je reviens vraiment aux points soulevés par Mme Wylie au sujet de la démocratie. La participation est compliquée, mais nous devons le faire de façon à ce qu'il y ait dissidence, discussion, non-conformité dans l'ensemble et consensus, parce qu'il est important de s'assurer que ces technologies ne seront plus utilisées tant elles sont dangereuses. Nous avons vu ce qui s'est passé avec Clearview AI. C'est une affaire de protection de la vie privée, mais aussi de surveillance de masse, en plus de ce qui est évident, c'est‑à‑dire les dangers et les préjudices que la mesure a causés à tant de groupes marginalisés.
:
Merci, monsieur Lemire.
Normalement, M. Masse aurait maintenant la parole, mais je pense qu'il a dû partir pour voter. Cela va donc conclure le dernier tour de questions, et, comme il reste peu de temps pour nous diriger vers la Chambre, cela va mettre fin à la rencontre d'aujourd'hui.
M. Masse est de retour. Je pensais que nous l'avions perdu.
[Traduction]
La parole est à vous, monsieur Masse.