:
Je déclare la séance ouverte.
Bonjour à toutes et à tous. Je vous souhaite la bienvenue à la 108e réunion du Comité permanent de l'industrie et de la technologie de la Chambre des communes. La réunion d'aujourd'hui se déroule sous forme hybride, conformément au Règlement.
Conformément à l'ordre de renvoi du lundi 24 avril 2023, le Comité reprend l'étude du projet de loi .
Nos témoins d'aujourd'hui se joignent tous à nous par vidéoconférence. Nous accueillons M. Ignacio Cofone, titulaire de la Chaire de recherche du Canada sur le droit de l'intelligence artificielle et la gouvernance des données à l'Université McGill. Nous recevons aussi Mme Catherine Régis, professeure titulaire à l'Université de Montréal. De l'Institut canadien de recherches avancées, nous avons Mme Elissa Strome, directrice générale, Stratégie pancanadienne en matière d'intelligence artificielle. Enfin, de Mila, institut québécois d'intelligence artificielle, nous accueillons M. Yoshua Bengio, directeur scientifique.
Je vous remercie tous et toutes de votre présence et vous souhaite la bienvenue.
Monsieur Cofone, puisque nous avons déjà un peu de retard, je vous donne sans plus tarder la parole pour cinq minutes.
:
Je vous remercie beaucoup, monsieur le président.
Bonjour tout le monde. Je vous remercie de m'avoir invité à faire part au Comité de mes réflexions sur le projet de loi .
Je comparais aujourd'hui à titre personnel. Comme le président m'a déjà présenté, je vais sauter cette partie et dire d'emblée qu'il est essentiel que le Canada se dote d'un cadre juridique qui favorise les énormes avantages de l'intelligence artificielle et des données tout en évitant que sa population en subisse les dommages collatéraux.
Je suis heureux de vous parler de mes idées générales sur le projet de loi, mais aujourd'hui, j'aimerais me concentrer sur trois améliorations importantes qu'il est possible de lui apporter tout en conservant les caractéristiques générales et l'approche qui lui sont propres. Je formulerai donc une recommandation pour la Loi sur l’intelligence artificielle et les données, ou la LIAD, une recommandation pour la Loi sur la protection de la vie privée des consommateurs, ou la LPVPC, et une recommandation qui s'applique aux deux lois.
La première recommandation concerne la nécessité d'améliorer la définition du mot « préjudice » dans le cadre de la LIAD. En effet, la LIAD est un cadre de responsabilisation, et l'efficacité de tout cadre de responsabilisation dépend de ce dont nous tenons les entités responsables. La LIAD reconnaît actuellement les préjudices matériels, économiques, physiques et psychologiques, mais pour que cette définition soit utile et complète, il faut lui ajouter un autre élément.
En effet, on n'a qu'à penser aux préjudices causés à la démocratie lors du scandale de Cambridge Analytica et les préjudices importants, mais diffus et invisibles, qui sont infligés chaque jour par les informations trompeuses propagées de manière intentionnelle pour polariser les électeurs. Il faut également penser à la représentation erronée des minorités, ce qui mine leurs capacités. Ces préjudices ne sont pas reconnus par la définition actuelle de « préjudice ».
Il est donc nécessaire d'apporter deux modifications à la LIAD pour reconnaître les préjudices intangibles au‑delà des préjudices psychologiques individuels. Tout d'abord, il faut reconnaître les préjudices causés aux groupes, par exemple les préjudices causés à la démocratie, car les préjudices causés par l'intelligence artificielle touchent souvent des communautés plutôt que des individus distincts. Il faut également reconnaître les préjudices causés à la dignité, comme ceux qui découlent de la représentation erronée et de l'accroissement des inégalités systémiques par des moyens automatisés.
J'encourage donc vivement le Comité à modifier le paragraphe 5(1) de la LIAD, afin d'y intégrer les préjudices intangibles subis par les individus et les communautés. Je serais également heureux de proposer une formulation pour ces changements.
La prise en compte plus complète des préjudices permettra au Canada de se conformer aux normes internationales, comme la loi sur l'intelligence artificielle de l'Union européenne, qui prend en compte les préjudices causés à l'intérêt public, aux droits protégés par les lois de l'Union européenne, à une pluralité de personnes et aux personnes en situation de vulnérabilité. Cette démarche est plus conforme aux cadres d'éthique en matière d'intelligence artificielle, par exemple la Déclaration de Montréal pour un développement responsable de l'intelligence artificielle, la Déclaration de Toronto et les principes en matière d'intelligence artificielle de la conférence d'Asilomar. Cela favoriserait également une plus grande cohérence au sein du droit canadien, car la directive sur la prise de décision automatisée fait référence à plusieurs reprises à des individus ou à des communautés.
Ma deuxième recommandation consiste à faire en sorte que la LPVPC reconnaisse les inférences comme étant des renseignements personnels. Nous vivons dans un monde où des choses de nature aussi délicate et dangereuse que notre orientation sexuelle, notre appartenance ethnique et notre affiliation politique peuvent être inférées de choses aussi inoffensives que ce que nous écoutons sur Spotify, ce que nous commandons dans un café ou les messages textes que nous envoyons, et ce ne sont là que quelques-unes des inférences que nous connaissons.
Les inférences peuvent être préjudiciables même lorsqu'elles sont incorrectes. Par exemple, TransUnion, une agence de notation de crédit, a été poursuivie en justice aux États-Unis il y a quelques années pour avoir inféré à tort que des centaines de personnes étaient des terroristes. En renforçant les inférences à outrance, l'intelligence artificielle a transformé l'environnement de la protection de la vie privée.
Nous ne pouvons pas nous permettre d'avoir une loi sur la protection de la vie privée qui se concentre sur les renseignements divulgués et qui crée une porte dérobée qui prive cette loi de son pouvoir de créer une protection efficace dans l'économie « inférentielle » d'aujourd'hui. La LPVPC n'exclut pas que les inférences soient des renseignements personnels, mais elle ne les intègre pas explicitement. Cela devrait pourtant être le cas. Je conseille donc vivement au Comité de modifier la définition des renseignements personnels dans l'une de ces lois pour qu'elle précise que les « renseignements personnels » s'entendent des renseignements divulgués ou inférés au sujet d'une personne ou d'un groupe identifiable.
Cette modification renforcerait également la cohérence au sein du droit canadien, puisque le Commissariat à la protection de la vie privée du Canada a déclaré à plusieurs reprises que les inférences devraient être considérées comme étant des renseignements personnels, ainsi qu'au sein des normes internationales, puisque les autorités étrangères responsables de la protection des données insistent sur l'importance de la question des inférences dans le cadre des lois relatives à la protection de la vie privée. Le procureur général de la Californie a également déclaré que les inférences devraient être considérées comme des renseignements personnels dans le cadre des lois sur la protection de la vie privée.
Ma troisième recommandation, qui sera brève, est une conséquence du projet de loi, car il s'agit de procéder à une réforme de l'application de la loi. Étant donné que l'intelligence artificielle et les données continuent de s'infiltrer dans un nombre toujours croissant d'aspects de notre vie sociale et économique, un organisme de réglementation doté de ressources et d'effectifs limités ne pourra pas tout surveiller. Il devra établir des priorités. Si nous voulons éviter que tous les autres préjudices passent à travers les mains du filet, il faut doter les deux parties de la loi d'un système d'application de la loi, à la fois public et privé, qui s'inspire du Règlement général sur la protection des données, ou RGPD, afin de permettre l'existence d'un organisme qui impose des amendes sans empêcher le système judiciaire d'accorder des indemnités pour les préjudices tangibles et intangibles causés aux individus et aux groupes.
Nous avons également un mémoire dans lequel ces recommandations sont décrites en détail.
Je serai heureux de répondre à vos questions ou de fournir toute précision nécessaire.
Je vous remercie beaucoup pour le temps que vous m'avez accordé.
:
Monsieur le président et chers membres du Comité, bonjour. Je vous remercie de m'offrir l'occasion de présenter mes commentaires sur la section du projet de loi portant sur l'intelligence artificielle.
Je suis professeure titulaire à la Faculté de droit de l'Université de Montréal. Je suis aussi titulaire de la Chaire de recherche du Canada sur la culture collaborative en droit et en politique de la santé, ainsi que de la Chaire en IA Canada-CIFAR affiliée à l'Institut Mila. Du 2 janvier 2022 à décembre 2023, j'ai été coprésidente du groupe de travail sur l'intelligence artificielle responsable du Partenariat mondial sur l'intelligence artificielle.
Comme premier commentaire, j'aimerais réaffirmer non seulement l'importance, mais aussi l'urgence de mieux encadrer juridiquement l'intelligence artificielle, comme le projet de loi propose de le faire. Je maintiens cette position depuis cinq ans, et j'en suis encore plus convaincue aujourd'hui au vu des développements récents et fulgurants de l'intelligence artificielle, que vous connaissez tous.
Nous avons besoin d'outils juridiques contraignants, qui définissent clairement nos attentes, nos valeurs et nos exigences en matière d'intelligence artificielle à l'échelle du pays. Je souligne d'ailleurs que, lors des consultations citoyennes qui ont mené à l'élaboration de la Déclaration de Montréal pour un développement responsable de l'intelligence artificielle, le premier besoin exprimé a été celui de se doter de cadres législatifs appropriés pour créer une intelligence artificielle digne de confiance.
Comme vous le savez probablement, il s'agit d'une tendance qui s'est élargie à l'échelle mondiale, dont le cas le plus patent est certainement celui de l'Union européenne. Cette dernière vient de franchir une nouvelle étape importante la semaine passée en vue de l'adoption de sa réglementation sur l'intelligence artificielle.
Outre ces besoins nationaux, les discussions qui auront lieu à l'échelle mondiale en matière d'intelligence artificielle et les décisions afférentes qui se prendront auront des répercussions dans tous les pays. On parle d'ailleurs de la création d'une instance spécifique à l'intelligence artificielle.
Le Canada doit pouvoir influer sur ces discussions et ces décisions s'il veut assurer la prise en compte des valeurs et des intérêts canadiens dans l'espace international. Or, l'établissement d'une vision et de normes claires et solides à l'échelle canadienne est une des conditions essentielles pour pouvoir jouer un rôle crédible, structurant et d'influence dans cet espace de gouvernance mondiale.
Cela dit, je pense que diverses améliorations pourraient encore être apportées au projet de loi . J'en ciblerais deux pour aujourd'hui.
La première amélioration consisterait à assurer une plus grande indépendance au commissaire à l'intelligence artificielle et aux données. En effet, même si les récents amendements ont donné lieu à des améliorations, le commissaire reste étroitement lié à Innovation, Sciences et Développement économique Canada. Pour éviter toute apparence de conflit d'intérêts ou tout conflit d'intérêts réel, il faut scinder davantage les deux entités pour éviter de créer des tensions entre le rôle de bailleur de fonds, d'une part, et de contrôleur de l'industrie, d'autre part.
Parmi les mesures pouvant être envisagées, il serait possible de créer un commissariat à l'intelligence artificielle complètement indépendant du ministère, de donner au commissaire le pouvoir d'imposer des sanctions administratives pécuniaires ou d'imposer des mesures correctives au cadre de responsabilisation, et de demander au commissaire de faire des recommandations quant aux règlements à adopter ou à modifier sur la base de son expérience de contrôleur, notamment par le truchement de son rapport annuel public.
D'autres mesures sont possibles. Il serait par exemple possible, une fois la loi adoptée, de donner au commissaire les moyens financiers et institutionnels de même que le personnel qualifié nécessaires pour mener à bien ses fonctions. Il faut vraiment lui donner les moyens d'atteindre ses objectifs. Une autre possibilité serait de trouver des façons qui permettraient aux citoyens d'accéder directement au commissaire pour qu'ils puissent lui faire certains signalements. Cela créerait un lien entre eux.
La deuxième grande amélioration possible consisterait, je pense, à affirmer davantage le rôle prépondérant que peuvent jouer les droits de la personne dans l'analyse des risques et des incidences de l'intelligence artificielle. Alors que la prise en compte de ces droits est spécifiquement mentionnée comme étant importante pour définir les classes d'intelligence artificielle à incidence élevée, la nécessité d'intégrer ensuite ces derniers dans les évaluations d'entreprise pouvant inclure des analyses de risque de préjudice ou d'effets néfastes se fait nettement plus timide.
Je recommanderais aussi l'ajout de mentions particulières concernant la nécessité d'effectuer des analyses d'impact sur les droits des personnes ou des groupes de personnes susceptibles d'être touchées par les systèmes d'intelligence artificielle à incidence élevée. Par ailleurs, une partie de ces évaluations pourrait être rendue publique. C'est ce qu'on appelle parfois des études d'impact sur les droits de la personne.
Le Conseil de l'Europe, l'Union européenne avec sa loi sur l'intelligence artificielle, et même l'Organisation des Nations unies pour l'éducation, la science et la culture, ou UNESCO, travaillent d'ailleurs sur des outils similaires. Il serait donc intéressant d'envisager un partage éventuel d'expertise entre tous les acteurs.
Cette deuxième recommandation est fondamentale parce que, si la course au développement de l'intelligence artificielle est bien réelle, personne ne gagnera la course de la violation des droits de la personne. Ce message doit être clair dans la loi.
Je vous remercie.
:
Merci, monsieur le président.
[Traduction]
Bonjour. Je m'appelle Elissa Strome et je suis directrice de la Stratégie pancanadienne en matière d'intelligence artificielle à l'Institut canadien de recherches avancées, ou l'ICRA.
[Français]
Je vous remercie de m'avoir donné l'occasion de rencontrer le Comité aujourd'hui.
[Traduction]
L'ICRA est un organisme de recherche mondial établi au Canada qui rassemble des personnes brillantes, au‑delà des disciplines et des frontières, pour s'attaquer à certains des problèmes les plus urgents auxquels font face le milieu scientifique et l'humanité. Nos programmes de recherche couvrent tous les domaines de la découverte humaine.
Grâce à sa volonté de repousser les limites scientifiques, l'ICRA a su reconnaître la promesse d'une idée que lui a présentée M. Geoffrey Hinton en 2004, soit de créer, à l'ICRA, un nouveau programme de recherche qui ferait progresser la notion des réseaux de neurones artificiels. À l'époque, cette notion était impopulaire et il était donc difficile de trouver le financement nécessaire pour la mettre en œuvre.
Vingt ans plus tard, ce programme de l'ICRA permet toujours au Canada de se démarquer sur la scène mondiale de la recherche de pointe en intelligence artificielle et compte parmi ses membres M. Hinton, M. Yoshua Bengio — qui est avec nous aujourd'hui —, M. Richard Sutton, de l'Université de l'Alberta, ainsi que de nombreux autres éminents chercheurs.
Grâce à cette vision précoce et aux liens durables que nous avons établis, l'ICRA a été invité, en 2017, à diriger la Stratégie pancanadienne en matière d'intelligence artificielle. Nous continuons à travailler avec de nombreux partenaires d'un bout à l'autre du pays et de tous les secteurs en vue de bâtir un écosystème d'intelligence artificielle robuste et interconnecté autour des carrefours centraux que sont nos trois instituts nationaux d'intelligence artificielle, soit Amii, à Edmonton, Mila, à Montréal et l'Institut Vecteur, à Toronto. Plus de 140 000 personnes travaillent aujourd'hui dans le domaine hautement spécialisé de l'intelligence artificielle à l'échelle du pays.
Cependant, si la Stratégie pancanadienne en matière d'intelligence artificielle a rempli sa promesse initiale de créer un vaste réservoir de talents et un écosystème solide dans le domaine de l'intelligence artificielle, le Canada n'a pas suivi en se dotant des approches appropriées en matière de réglementation et d'infrastructure. J'aimerais donc souligner trois priorités sur lesquelles devraient se concentrer les travaux du Comité et les efforts en cours.
La première est la rapidité. Nous ne pouvons pas retarder davantage les travaux liés à la réglementation en matière d'intelligence artificielle. Le Canada doit agir rapidement pour faire avancer ses organismes et ses processus de réglementation et pour travailler en collaboration, à l'échelle internationale, afin de s'assurer que le cadre canadien de l'intelligence artificielle responsable est établi en coordination avec ceux de nos partenaires. Nous devons également comprendre que la réglementation ne freinera pas l'innovation, mais qu'elle la renforcera, car elle favorisera une plus grande stabilité et garantira l'interopérabilité et la compétitivité des produits et des services d'intelligence artificielle dirigés par des Canadiens sur la scène mondiale.
Deuxièmement, il faut faire preuve de souplesse. L'approche choisie doit pouvoir être adaptée à une technologie et à un contexte mondial qui évoluent constamment. Les enjeux sont considérables, car l'intelligence artificielle peut être intégrée dans pratiquement tous les types d'entreprises et de services. Ces effets peuvent avoir une incidence importante, comme le reflète la Loi sur l’intelligence artificielle et les données. Cela signifie que nous devons adopter une approche inclusive pour ces travaux dans tous les secteurs tout en nous assurant de mobiliser les citoyens pour garantir leur soutien, et ce, tout au long de l'élaboration et du perfectionnement de ces règlements.
Nous devons également comprendre que l'intelligence artificielle n'est pas limitée aux frontières. C'est la raison pour laquelle nous devons disposer de systèmes qui nous permettent de suivre le contexte mondial et de nous y adapter. Nous devons également nous adapter aux progrès et aux utilisations et capacités potentiellement non prévues de cette technologie. C'est dans ce domaine que la collaboration avec nos partenaires mondiaux continuera d'être essentielle et qu'elle fera appel aux forces de la communauté scientifique canadienne, non seulement en ce qui concerne l'évolution de la sécurité en matière d'intelligence artificielle, mais aussi les cadres éthiques et juridiques qui doivent orienter les activités dans ce domaine.
Troisièmement, le Canada doit faire des investissements importants dans l'infrastructure, les systèmes et le personnel qualifié pour réglementer efficacement l'intelligence artificielle lorsqu'elle est utilisée dans des systèmes à incidence élevée. Nous sommes heureux de constater que cette notion a été définie dans les amendements apportés au projet de loi.
Tout comme ceux des États-Unis et du Royaume-Uni, nos gouvernements doivent se doter de l'expertise nécessaire pour comprendre cette technologie et son incidence.
Pour que le Canada demeure un chef de file dans la promotion de l'intelligence artificielle responsable, les entreprises et les institutions du secteur public du Canada doivent également avoir accès au financement et la puissance informatique dont elles ont besoin pour demeurer à la fine pointe de la technologie de l'intelligence artificielle. Là encore, les États-Unis, le Royaume-Uni et d'autres pays du G7 ont une longueur d'avance sur nous, car ils se sont déjà engagés à investir massivement dans l'infrastructure informatique pour soutenir leurs écosystèmes d'intelligence artificielle. Le Canada doit maintenant leur emboîter le pas.
Je ne prétendrai pas que ce travail ne nécessitera pas d'énormes ressources, car ce sera le cas. Cependant, nous nous trouvons à un tournant de l'évolution de l'intelligence artificielle, et si nous parvenons à prendre des règlements adéquats, le Canada et le monde entier pourront profiter de son immense potentiel.
En conclusion, le Canada dispose d'atouts considérables grâce à l'excellence de sa recherche, à son bassin de talents considérable et à son écosystème riche et interconnecté. Nous devons toutefois agir dès maintenant et agir de manière intelligente et résolue. La mise en œuvre d'un cadre de réglementation, d'une infrastructure et de systèmes adéquats sera essentielle pour permettre au Canada de continuer à s'imposer comme un chef de file mondial en matière d'intelligence artificielle.
J'ai hâte de répondre aux questions du Comité et d'entendre les commentaires des autres témoins.
Je vous remercie.
:
Merci, monsieur le président.
Bonjour à tous.
D'abord, merci de m'avoir invité à rencontrer les membres du Comité aujourd'hui.
Mon nom est Yoshua Bengio et je suis professeur titulaire à l'Université de Montréal, ainsi que le fondateur et le directeur scientifique de Mila, institut québécois d'intelligence artificielle. De plus, je suis récemment devenu l'informaticien le plus cité au monde, un fait intéressant.
[Traduction]
Au cours de la dernière année, j'ai eu le privilège de partager mon point de vue sur l'intelligence artificielle dans un certain nombre de forums internationaux importants, notamment le Sénat américain, le premier sommet mondial sur la sécurité en matière d'intelligence artificielle, un conseil consultatif du secrétaire général des Nations unies, et le Frontier AI Taskforce du Royaume-Uni — un groupe de travail sur l'intelligence artificielle —, en plus du travail que j'accomplis ici, au Canada, à titre de coprésident du comité consultatif sur l'intelligence artificielle pour le gouvernement.
Ces dernières années, le rythme des progrès en matière d'intelligence artificielle s'est accéléré de telle sorte que de nombreux chefs de file dans le domaine de l'intelligence artificielle et moi-même avons revu à la baisse nos estimations au sujet du moment où les niveaux humains de compétence cognitive générale, également connue sous le nom d'intelligence artificielle générale, ou IAG, seront atteints. Autrement dit, il s'agit du moment où nous aurons des machines aussi intelligentes que les humains sur le plan cognitif.
Auparavant, on pensait que cela n'arriverait que dans plusieurs décennies, voire plusieurs siècles. Comme un grand nombre de mes collègues, notamment Geoff Hinton, j'estime aujourd'hui qu'une intelligence artificielle surhumaine pourrait être mise au point au cours des deux prochaines décennies, voire au cours des prochaines années.
Il faut cependant admettre que les fondements ne sont pas encore prêts, et que cette perspective est extrêmement inquiétante.
[Français]
Cette perspective d'une arrivée hâtive d'une intelligence artificielle de niveau humain m'inquiète beaucoup.
[Traduction]
Comme il a été souligné dans le cadre des forums internationaux que j'ai mentionnés plus tôt, en l'absence de mesures de protection adéquates, la trajectoire actuelle de l'intelligence artificielle présente de sérieux risques de préjudices considérables pour la société, et ce, avant même que l'intelligence artificielle générale ne soit atteinte.
Il est à noter que les progrès réalisés dans le domaine de l'intelligence artificielle ont créé des possibilités passionnantes pour de nombreuses applications avantageuses qui me motivent depuis de nombreuses années, mais il est urgent d'établir les mesures de protection nécessaires pour encourager l'innovation tout en atténuant les risques et les préjudices.
Dans cette optique, il faut de toute urgence adopter des lois en matière d'intelligence artificielle qui ont une grande capacité d'adaptation. Je pense que le projet de loi va dans ce sens et qu'il va dans la bonne direction, mais des exigences initiales doivent être mises en place avant même que les consultations ne soient terminées pour élaborer un cadre réglementaire plus complet. Dans le cadre de l'approche actuelle, il faudrait environ deux ans avant que la loi puisse être appliquée.
[Français]
Je soutiens donc largement le projet de loi et je formule des recommandations à ce comité sur les moyens de renforcer sa capacité à protéger les Canadiens. Elles sont présentées en détail dans le document que j'ai envoyé, mais j'aimerais souligner trois éléments.
Le premier élément est l'urgence d'agir.
[Traduction]
Les progrès à venir risquent de provoquer de nombreuses perturbations et on ne peut pas prévoir quand cela se produira. Dans ces circonstances, une loi imparfaite dont la réglementation pourrait être adoptée ultérieurement vaut mieux que l'absence de loi ou le report prolongé de l'adoption d'une loi. Il est préférable d'aller de l'avant avec le cadre de la LIAD et de s'appuyer sur des systèmes de réglementation souples qui peuvent être adaptés au fil de l'évolution de ces technologies.
De plus, en raison de l'urgence de la situation, la loi devrait prévoir des dispositions initiales qui s'appliqueront dès son adoption, afin d'assurer la protection du public pendant l'élaboration d'un cadre de réglementation.
Quelle devrait être la première étape? La création d'un registre.
Les systèmes qui dépassent un certain niveau de capacité devraient être signalés au gouvernement et on devrait fournir des renseignements sur leurs mesures de sécurité et de sûreté, ainsi que des évaluations de la sécurité. Un organisme de réglementation sera ensuite en mesure d'utiliser ces renseignements pour formuler les meilleures exigences applicables aux futurs permis pour poursuivre la mise au point et le déploiement de ces systèmes avancés. Ainsi, ce seront les exploitants qui disposent des milliards de dollars nécessaires la construction de ces systèmes avancés, et non les contribuables, qui devront démontrer la sécurité de ces systèmes.
Deuxièmement, le projet de loi devrait également placer les risques pour la sécurité nationale et les menaces à la société dans les catégories à incidence élevée. Parmi les exemples de capacités susceptibles de causer des préjudices, citons le fait d'être facilement transformable pour aider des acteurs malveillants à concevoir des cyberattaques et des armes dangereuses, à tromper et à manipuler aussi efficacement ou mieux que les humains et à trouver des moyens de se reproduire en dépit des instructions de programmation contraires.
Mon dernier point concerne la nécessité d'établir des exigences préalables au déploiement. Les développeurs devraient être tenus d'enregistrer leur système et de démontrer qu'il est sécuritaire avant même que le système ne soit entièrement formé et mis au point, et avant son déploiement. Nous devons traiter et cibler les risques qui ont émergé plus tôt dans le cycle de vie de l'intelligence artificielle, mais le projet de loi actuel ne semble pas faire cela.
[Français]
Pour conclure, j'accueillerai avec intérêt les questions du Comité, ainsi que les commentaires de mes collègues témoins. D'ailleurs, je suis intéressé par tout ce qui a été dit jusqu'à présent par ces derniers.
Je veux d'ores et déjà vous remercier de la tenue de cette importante discussion.
:
Bien sûr. La directive sur la prise de décision automatisée reconnaît de manière explicite que des préjudices peuvent être causés à des individus ou à des collectivités. Or, dans la définition du terme « préjudice » qui figure au paragraphe 5(1) proposé, il est question à plusieurs reprises d'individus, soit de dommages à des biens et de préjudices économiques, physiques et psychologiques subis par un individu.
Le fait est que dans le contexte de la Loi sur l'intelligence artificielle et les données, souvent, les préjudices subis sont, de par leur nature, diffus. Souvent, on parle de préjudices causés à des groupes et non à des individus. Pour en avoir un bon exemple, il suffit de penser à la partialité de l'IA, qui est couverte par le paragraphe 5(2) proposé, et non par le paragraphe 5(1). Si l'on se sert d'un système automatisé pour embaucher du personnel, par exemple, et qu'il donne des résultats biaisés, il est très difficile de savoir si une personne a obtenu ou non l'emploi en raison de la partialité du système. Il est plus facile de voir que le système a un parti pris pour un groupe particulier.
Il en va de même pour les questions de représentation dans l'IA. Il serait difficile pour un individu de prouver qu'il a subi un préjudice en vertu de la loi, mais le préjudice est bien réel pour un groupe particulier. C'est la même chose pour la mésinformation. C'est la même chose pour certains types de discrimination systémique qui ne sont peut-être pas pris en compte dans la définition actuelle de la partialité dans la loi.
Ce qui me préoccupe, c'est qu'en réglementant une technologie qui est plus susceptible de toucher des groupes que des individus avec une définition de « préjudice » qui cible les individus, nous risquons d'exclure l'essentiel de ce que nous voulons couvrir.
:
Ma question s'adresse à tous les témoins. Peut-être que Mme Strome pourrait y répondre en premier.
Nous avons beaucoup parlé de ce qu'a affirmé M. Bengio, soit qu'il vaut mieux adopter un projet de loi imparfait que de ne pas adopter de projet de loi. À cet égard, deux problèmes se posent pour les parlementaires.
Premièrement, je n'aime jamais adopter un projet de loi imparfait, surtout s'il est aussi important que celui‑ci. Je ne pense pas qu'il soit utile de dire en quelque sorte que nous sommes les meilleurs parce que nous avons adopté notre premier projet de loi. Le Parlement fonctionne de telle sorte que nous devons attendre 5 à 10 ans avant d'être à nouveau saisis d'un projet de loi.
Je n'aime pas non plus que l'on donne un chèque en blanc au ministère et qu'il n'ait essentiellement pas à revenir devant le Parlement au sujet d'un cadre général de politique publique quant à la manière d'encadrer le tout. Le projet de loi en est dépourvu. Il n'y est question que des détails sur les systèmes d'apprentissage automatique et à usage général à incidence élevée. On n'y traite pas de l'ensemble, comme le fait la Loi canadienne sur la santé en désignant cinq principes.
Quels sont les cinq principes de l'IA, comme la transparence et ce genre de choses? Le projet de loi n'en fait pas mention et il régit l'IA dans son ensemble. Je pense que ce sera un problème pour la suite des choses. Je vois également un problème à donner à la bureaucratie, tout en maintenant une certaine latitude, le plein contrôle de la suite des choses sans qu'il soit nécessaire de demander l'approbation du Parlement.
J'aimerais que tous les témoins nous disent quels sont les cinq, quatre ou trois éléments qui constituent des principes importants concernant la façon dont nous devrions gérer l'IA au Canada, que ce projet de loi ne semble pas définir.
Je pose la question à Mme Strome, puis nous poursuivrons.
Il existe un vaste consensus à l'échelle internationale sur ce qui constitue une IA sûre et fiable. Qu'il s'agisse des principes de l'OCDE ou de la Déclaration de Montréal, de nombreuses organisations s'entendent sur ce qu'est l'IA responsable.
Parmi ces principes, l'équité est une préoccupation majeure. Elle permet de s'assurer que l'IA fournit des recommandations en traitant les gens de manière juste et équitable, sans discrimination ni parti pris.
Un autre principe est la responsabilité. Il s'agit de s'assurer que les systèmes d'IA et les concepteurs de systèmes d'IA sont responsables quant aux répercussions des technologies qu'ils développent.
La transparence est l'un des principes et vous l'avez mentionné. Elle garantit que nous avons la possibilité de sonder les systèmes et les modèles d'IA et de mieux comprendre comment ils parviennent aux décisions et aux recommandations qu'ils élaborent.
La protection de la vie privée est un principe indissociable du projet de loi dont vous êtes saisis aujourd'hui. Ce sont des questions qui sont aussi étroitement liées à l'IA pour garantir que les principes et les droits fondamentaux relatifs à la vie privée sont également protégés.
:
Merci, monsieur le président.
Je remercie tous les témoins de leur présence aujourd'hui. Il semble que les témoignages que nous recevons sont très importants. Je vous remercie donc de prendre le temps de participer à la réunion. Merci de nous faire profiter de votre expertise dans le cadre de nos discussions importantes.
Je pense que nous avons tous entendu l'expression selon laquelle la perfection peut être l'ennemi du bien. Je me demande si c'est le cas ici.
Le domaine de l'intelligence artificielle évolue très rapidement et nous disposons d'une grande expertise ici, au Canada, mais les opinions des uns et des autres divergent. Certains disent que nous devrions scinder le projet de loi et refaire la partie qui porte sur la Loi sur l'intelligence artificielle et les données. D'autres disent qu'il faut aller de l'avant. Dans bon nombre des déclarations préliminaires que j'ai entendues aujourd'hui, on a indiqué qu'il y avait urgence d'agir.
Monsieur Bengio, vous pourriez peut-être nous dire si, à votre avis, nous devrions reprendre du début le processus lié à la Loi sur l'intelligence artificielle et les données et peut-être nous parler de l'importance d'agir rapidement.
:
Peut-être que le problème à court terme qui constituait une priorité, par exemple, pour les spécialistes qui ont été consultés par le Forum économique mondial il y a quelques semaines, c'est la désinformation. Par exemple, on a recours actuellement à l'hypertrucage pour reproduire des images de personnes en imitant leurs voix et en simulant leurs mouvements dans une vidéo et en interagissant avec des gens au moyen de messages textes et de dialogues d'une manière qui peut tromper un utilisateur de médias sociaux et le faire changer d'avis sur des questions politiques.
L'utilisation de l'intelligence artificielle à des fins politiques allant à l'encontre des principes de notre démocratie suscite de réelles inquiétudes. C'est une préoccupation à court terme.
Je dirais que le problème qui vient ensuite, et on parle peut-être d'un an ou de deux ans plus tard, est la menace que pose l'utilisation des systèmes d'IA avancés pour mener des cyberattaques. Sur le plan de la programmation, beaucoup de progrès ont été réalisés ces dernières années dans ces systèmes et on s'attend à ce que cela se poursuive à un rythme même plus rapide que pour toute autre capacité, parce que nous pouvons générer une quantité infinie de données, tout comme dans le jeu Go. Lorsque ces systèmes deviendront suffisamment puissants pour vaincre nos cyberdéfenses actuelles et notre infrastructure numérique industrielle, nous aurons des problèmes, en particulier si ces systèmes se retrouvent entre de mauvaises mains. Nous devons sécuriser ces systèmes. Dans le décret de Biden, on insistait notamment sur l'idée que l'on doit sécuriser ces grands systèmes afin d'atténuer les risques.
D'autres risques ont également été évoqués, comme le fait d'aider de mauvais acteurs à développer de nouvelles armes ou à disposer d'une expertise qu'ils n'auraient pas autrement. Tous ces éléments doivent faire l'objet d'une loi le plus rapidement possible afin de nous assurer que nous réduisons les risques au minimum.
Professeur Bengio, dans votre allocution d'ouverture, vous avez parlé de dispositions qui pourraient être appliquées immédiatement, vu l'urgence de la situation. Vous avez parlé de quelque chose qui ressemblerait à un registre des grands modèles génératifs, qui serait déposé au gouvernement et qui comprendrait une analyse de sécurité.
Ce que vous dites, essentiellement, c'est qu'on devrait procéder de la même façon que pour les médicaments: avant de mettre un produit sur le marché, on doit démontrer que celui-ci est sécuritaire et que les avantages sont plus importants que les inconvénients.
Êtes-vous en train de dire que les modèles d'intelligence artificielle soulèvent un problème comparable à un défi de santé publique et que cela justifie le dépôt de preuves substantielles auprès d'une agence gouvernementale?
:
Merci, monsieur le président.
Je remercie les témoins.
Il y a deux ou trois choses qui, dans le passé, au sein de ce comité, ont été instructives par rapport à la situation dans laquelle nous sommes actuellement et au code volontaire. Tout d'abord, il était autrefois légal pour les entreprises au Canada de déduire des amendes et des pénalités relatives à la protection de l'environnement ou du consommateur qui leur étaient imposées. Elles bénéficiaient d'une déduction fiscale pouvant représenter jusqu'à 50 % des amendes et des pénalités. Des entreprises pharmaceutiques se sont vu imposer des amendes pour avoir trompé les gens et des entreprises environnementales se sont vu imposer des amendes pour avoir fait ce qu'il ne fallait pas faire — en fait, il ne s'agissait pas d'entreprises environnementales, mais de cas où des dommages avaient été causés à l'environnement.
On s'est retrouvé avec cette distorsion, cette situation qui incitait les entreprises à adopter des pratiques qui nuisent aux personnes et à l'environnement parce que c'était payant pour elles. Cette situation a créé un déséquilibre au chapitre de l'innovation, entre autres choses.
L'autre chose concerne le travail que j'ai fait au sujet de la question du droit de réparer, qui a été étudiée par ce comité et par le Sénat. Puis, nous avons fini par aboutir à un accord volontaire dans le secteur automobile. En gros, nous avons dit que nous avions réussi un placement plutôt qu'un touché. Cette question est à nouveau d'actualité, car certains acteurs de l'industrie se conformeront à l'accord volontaire et d'autres ne le feront pas. Certains ne voulaient même pas adhérer à l'accord volontaire, y compris Tesla, jusqu'à récemment. Il y a encore des problèmes majeurs et ils sont de retour sur la Colline pour faire du lobbying. Nous savions ce qu'il en était quant à la vulnérabilité il y a 10 ans, lorsque nous avons commencé le processus; nous savions qu'avec l'électronique et le partage d'informations et de données, les choses changeaient à nouveau, et il n'y avait rien.
Ma question s'adresse à Mme Strome, à Mme Régis et à M. Bengio.
Avec cet accord volontaire, avons-nous peut-être créé un système dans lequel les bons acteurs viendront à la table et se conformeront à un accord volontaire alors que les mauvais acteurs pourraient, en fait, s'en servir comme une occasion de développer leurs plans d'affaires et d'éliminer la concurrence? J'ai vu une telle chose se produire dans les deux exemples que j'ai donnés.
J'aimerais que vous commenciez, madame Strome, car je ne vous ai pas encore entendue. Par la suite, Mme Régis et M. Bengio pourraient répondre, dans cet ordre si possible, s'il vous plaît.
Avant de passer à M. Cofone, j'aimerais faire un constat: le problème, c'est que nous avons déjà ce code volontaire. Il y a les actions et les délibérations des sociétés qui prennent des décisions actuellement, certaines dans un sens et d'autres dans un autre, et elles continueront jusqu'à ce qu'elles soient assujetties à des pouvoirs de réglementation. Je pense qu'il est trop tard, dans une certaine mesure, pour savoir où cela peut nous mener. Nous nous retrouvons avec ce projet de loi et toutes les lacunes qu'il comporte sur de nombreuses questions différentes.
J'ai rencontré l'ACTRA, la guilde des acteurs. Bon nombre des doléances des acteurs relativement à l'IA doivent être réglées au moyen de la Loi sur le droit d'auteur, et c'est un défi. M. Cofone pourra peut-être en parler un peu en raison de son expérience en matière de gouvernance. Cependant, si nous n'en tenons pas compte dans ce projet de loi, nous laissons en fait un vide béant ouvrant la voie à non seulement l'exploitation des acteurs — y compris des enfants — et à l'atteinte de leur bien-être, mais aussi à la manipulation du public sous tous ses aspects, de la société de consommation à la politique.
Que devons-nous faire? Avez-vous des suggestions? Comment pouvons-nous combler les lacunes que nous ne sommes même pas...? C'est une loi à part entière.
:
Oui. Je pourrais peut-être ajouter rapidement quelque chose à votre question, mis à part le fait que je suis d'accord avec les trois réponses précédentes.
Un environnement comme celui que vous avez mentionné en est un excellent exemple. Dans le passé, nous, les juristes spécialisés en droit de l'environnement, étions d'avis qu'il était difficile de réglementer, parce que nous pensions à tort que les coûts étaient locaux, alors que les préjudices étaient mondiaux. Nous pensions que le fait de ne pas réglementer permettait de développer l'industrie tout en évitant d'imposer des préjudices mondiaux.
C'est la même chose avec l'intelligence artificielle. Nous pensons parfois que les préjudices sont mondiaux et que les coûts de la réglementation sont locaux, mais ce n'est pas le cas. Bon nombre des préjudices causés par l'intelligence artificielle se font ressentir à l'échelle locale. Il est donc urgent que le Canada adopte un règlement comme celui‑ci, qui protège ses citoyens tout en soutenant l'industrie.
En ce qui concerne la Loi sur le droit d'auteur, c'est une question difficile. Comme M. Bengio l'a souligné un peu plus tôt, l'intelligence artificielle ne se résume pas à une technologie. Les technologies permettent de faire des choses — pensons aux voitures autonomes et aux caméras —, mais l'intelligence artificielle est une famille de méthodes qui permet de tout faire. La réglementation de l'intelligence artificielle ne consiste pas à changer une variable ou une autre; l'intelligence artificielle aura une incidence sur toute la législation. Il faudra procéder à une refonte en profondeur des lois.
Ce dont il est question aujourd'hui, c'est un cadre de responsabilisation et une loi sur la protection des renseignements personnels, qui reflètent l'aspect le plus envahissant de l'intelligence artificielle. Je ne pense pas que nous devrions nourrir l'illusion que le projet de loi tiendra compte de tous les aspects de l'intelligence artificielle et de tous ses effets ni que nous devrions renoncer au projet de loi parce qu'il contient des lacunes. Ce n'est pas possible. Nous devrions envisager un cadre de responsabilisation pour tenir compte des préjudices et des préjugés, ainsi que des modifications relatives à la protection de la vie privée pour tenir compte de l'intelligence artificielle. Il serait éventuellement justifié de modifier la Loi sur le droit d'auteur pour tenir compte de l'intelligence artificielle génératrice et des nouveaux défis qu'elle pose en matière de droit d'auteur.
:
Merci beaucoup, monsieur le président.
Je remercie tous les témoins. Les discussions d'aujourd'hui sont très intéressantes.
Je ne m'adresse pas nécessairement à quelqu'un en particulier, mais plutôt à tous les témoins.
Des individus mal intentionnés, qu'ils soient des terroristes, des arnaqueurs ou des voleurs, pourraient utiliser l'intelligence artificielle à mauvais escient. Je pense que c'est d'ailleurs l'une des préoccupations de M. Bengio. Si nous adoptions le projet de loi demain matin, cela empêcherait-il de tels individus de le faire?
Pour faire suite à la question de mon collègue du Bloc québécois tantôt, il me semble évident que, même dans le cas d'un message enregistré en vue d'arnaquer quelqu'un, l'arnaqueur ne précisera pas que son message a été conçu à l'aide de l'intelligence artificielle.
Croyez-vous véritablement que le projet de loi changera des choses ou sécurisera véritablement la population québécoise et canadienne quant à l'intelligence artificielle?
:
Je le crois, en effet. Ce qu'il va permettre, par exemple, c'est que la loi va obliger les compagnies canadiennes légitimes à protéger les systèmes d'intelligence artificielle qu'elles auront développés pour éviter qu'ils se tombent entre les mains de criminels. Cela n'empêchera évidemment pas ces criminels d'utiliser des systèmes conçus ailleurs, ce qui explique que nous devons travailler sur des traités internationaux.
Il faut déjà collaborer avec notre voisin du Sud de façon à réduire au minimum ces risques. Ce que les Américains demandent aux compagnies aujourd'hui inclut cette protection. Je pense que, si nous voulons nous aligner sur les États‑Unis sur cette question pour éviter que des systèmes très puissants tombent entre de mauvaises mains, nous devrions prévoir au moins la même protection qu'eux et travailler à l'international pour l'élargir.
En outre, le fait d'envoyer le signal que les usagers doivent pouvoir distinguer ce qui est de l'intelligence artificielle de ce qui n'en est pas va inciter les compagnies à trouver des solutions techniques. Par exemple, une des choses auxquelles je crois, c'est qu'il faudrait que ce soit les compagnies fabriquant le contenu des appareils photo et des enregistreurs qui cryptent une signature permettant de distinguer ce qui est généré par l'intelligence artificielle de ce qui ne l'est pas.
Pour que les compagnies avancent dans cette direction, il faut que des lois leur disent qu'elles doivent aller dans cette direction autant que possible.
:
J'aimerais soulever quelques petits points. Une question a été posée à savoir si la loi canadienne sera suffisante. Premièrement, elle va certainement aider, mais elle ne suffira pas, compte tenu des autres ordres législatifs dont il faut tenir compte. En effet, les provinces ont un rôle à jouer à cet égard. D'ailleurs, en ce moment même, le Québec lance son rapport de recommandations sur l'encadrement de l'intelligence artificielle, intitulé « Prêt pour l'IA ». Le gouvernement du Québec a mandaté le Conseil de l'innovation du Québec pour proposer des pistes de réglementation. Il faut donc considérer que la loi canadienne fera partie d'un ensemble plus vaste d'initiatives qui vont aider à solidifier les garanties et à bien nous protéger.
Concernant les États‑Unis, il est difficile de prévoir dans quelle direction ils se dirigeront pour la suite des choses. Toutefois, le décret présidentiel de M. Biden était un signal d'une ampleur à laquelle peu de gens s'attendaient. C'est une bonne initiative, donc, et ce dossier est à suivre.
Votre question touche un peu au volet vraiment important de l'interopérabilité. Comment le Canada s'arrimera-t-il avec l'Union européenne, les États‑Unis et les autres?
En ce qui a trait au cas européen, le texte final de la législation a été publié la semaine passée. Comme il a 300 pages, je n'ai pas tous les détails; cependant, je vous dirais qu'il faut certainement y penser pour ne pas pénaliser nos entreprises. Autrement dit, il faut vraiment savoir comment notre législation et les citoyens vont, jusqu'à un certain point, s'y arrimer.
Par ailleurs, une des questions que je me pose d'emblée est la suivante. La législation européenne est plus axée sur les systèmes d'IA à haut risque et leur cadre juridique traite plus des risques, tandis que le nôtre parle plus des incidences. Comment les deux peuvent-ils vraiment s'arrimer? C'est une question à laquelle il faut réfléchir davantage.
:
Je vous remercie de la question. Je vais essayer de vous répondre.
Ce rapport a été rédigé par Gillian Hadfield, professeure et directrice de l'Institut Schwartz Reisman pour la technologie et la société de l'Université de Toronto. Elle est titulaire d'une chaire en IA du CIFAR Canada et vous avez recueilli son témoignage la semaine dernière ou la semaine précédente.
Comme vous pouvez le comprendre, Mme Hadfield est experte en matière de réglementation et c'est une spécialiste de la réglementation de l'IA au Canada et à l'étranger.
Le document d'orientation publié par le CIFAR présente les idées de Mme Hadfield, son laboratoire, ses associés de recherche et ses collègues, qui se sont penchés sur la nécessité d'innover davantage pour réglementer l'IA. C'est une technologie qui évolue très rapidement et qui comporte énormément de dimensions que nous n'avons pas encore étudiées dans d'autres secteurs réglementés.
Je crois que le point que Mme Hadfield et ses collègues ont fait valoir, c'est que dans le cadre de notre réflexion sur la réglementation de l'intelligence artificielle, nous devons être incroyablement souples, dynamiques et réactifs à la technologie à mesure qu'elle évolue.
La Stratégie pancanadienne en matière d'intelligence artificielle, à ses débuts, a vraiment été conçue pour faire progresser le leadership du Canada en matière de recherche, de formation et d'innovation dans ce domaine. Il visait vraiment à créer un vaste bassin de personnes talentueuses possédant une expertise en IA dans tout le pays et à mettre en œuvre des écosystèmes d'IA très riches, robustes et dynamiques dans nos trois centres à Toronto, Montréal et Edmonton. C'était le fondement de la stratégie.
À mesure que la stratégie a évolué au fil des ans, nous avons vu des investissements supplémentaires dans le budget de 2021 nous permettant de nous concentrer sur le développement, le déploiement et l'adoption responsables de l'intelligence artificielle, ainsi que de nous pencher sur les possibilités de collaboration, notamment à l'échelle internationale, sur des dossiers comme les normes, etc.
Je dirais que la stratégie pancanadienne en matière d'intelligence artificielle a au moins eu une influence indirecte sur le développement de la loi sur l'intelligence artificielle et les données de diverses façons. Il y a d'abord le conseil consultatif sur l'intelligence artificielle dont M. Bengio a parlé plus tôt. Il est le coprésident de ce conseil. Plusieurs dirigeants de l'écosystème de l'IA participent aux activités du conseil ou en sont membres. J'en suis également membre. La Loi sur l'intelligence artificielle et les données et le projet de loi ont fait l'objet de discussions au sein du conseil.
Deuxièmement...
:
Merci, monsieur le président.
Professeure Régis, je ne veux présumer de rien ni nous vieillir indûment, mais, quand j'étais petit, je regardais des films à la télévision et, après quelque 10 minutes, il y avait des annonces. On utilisait des techniques de persuasion pour essayer de me vendre des produits. Il était évident qu'il s'agissait de persuasion et que, si je regardais ces choses, je consentais explicitement à me faire vendre toutes sortes de trucs.
Il me semble qu'aujourd'hui, avec tous les algorithmes qui circulent, qu'ils soient liés à l'intelligence artificielle ou non, il est de plus en plus difficile d'identifier une tentative de persuasion. Ce phénomène va être appelé à se répandre de plus en plus. Souvent, on nous demande de consentir à quelque chose, mais c'est en petits caractères et c'est incompréhensible pour une personne moyenne, voire une personne très éduquée.
Premièrement, êtes-vous d'accord qu'il est de plus en plus difficile de consentir à ces tentatives? Deuxièmement, comment peut-on améliorer la qualité du consentement lorsqu'on fait face à cette situation? Troisièmement, y a-t-il moyen d'améliorer le projet de loi actuel pour améliorer la qualité du consentement?
Ce sont beaucoup de questions. Il vous reste une minute quinze secondes et je vous laisse y répondre en rafale.
:
Oui. Il est encore plus facile qu'avant de se laisser persuader, et c'est une des stratégies, d'ailleurs. Cela peut être fait d'une manière très personnalisée, en utilisant votre historique et certaines de vos données personnelles. C'est donc effectivement un problème et qui, dans le cas des enfants, me préoccupe encore davantage.
C'est un problème non seulement pour les consommateurs, comme vous l'avez soulevé, mais aussi, plus largement, pour les démocraties. Une de mes préoccupations est liée à l'enfermement dans des bulles où on ne reçoit que de l'information qui confirme certaines choses ou qui nous expose à des points de vue moins variés. Le filon des préoccupations qui entourent cette question est très large, et il faut en tenir compte. Voilà ma réponse à la première question.
Maintenant, que peut-on faire de plus? Comme je vous le disais, cela mérite réflexion. C'est aussi une question de protection du consommateur, qui soulève le volet provincial, sur lequel on pourra travailler davantage. Dans une étude réalisée il n'y a pas si longtemps par l'Institut canadien de recherches avancées, on a analysé des millions de gazouillis pour savoir comment les gens d'un bout à l'autre du Canada percevaient l'intelligence artificielle. Contrairement à ce qu'on pourrait penser, les gens ont parfois une vision extrêmement positive de l'intelligence artificielle, mais ils ont moins ce regard critique, cette compréhension de ce que cette technologie fait concrètement dans leur vie et de ses limites. On parle beaucoup des questions juridiques, entre autres, mais cette compréhension est encore jeune.
D'ailleurs, une des recommandations formulées dans le rapport du Conseil de l'innovation du Québec vise à sensibiliser les gens à l'importance de développer cet esprit critique et de se questionner sur ce que fait l'intelligence artificielle, sur les façons dont elle peut nous influencer et sur les façons dont on peut se créer un guide d'autodéfense à ce sujet. Cela doit commencer très jeune.
[Traduction]
Madame Strome, vous avez mentionné dans votre déclaration liminaire que nous devons investir dans des experts en la matière au ministère de l'Industrie. Cela me préoccupe beaucoup. Nous savons que l'intelligence artificielle n'est pas seulement présente au Canada; elle est aussi mondiale. Même si nous avons une approche réglementaire au Canada, si ce projet de loi est effectivement adopté, je ne pense pas que nous puissions nous isoler des préjudices sociétaux et individuels potentiels causés par les acteurs de l'IA dans d'autres parties du monde.
Je me souviens qu'il y a quelques années, le gouvernement du Canada — et je n'essaie pas de marquer des points politiques ici — avait de la difficulté à gérer son calendrier de paiements pour les fonctionnaires.
M. Brian Masse: C'est toujours le cas.
M. Brad Vis: C'est toujours le cas.
Comment diable Industrie Canada va‑t‑il réglementer les préjudices en ligne causés par l'intelligence artificielle? Le gouvernement ne peut même pas gérer ses propres systèmes de paye. Je ne sais tout simplement pas si notre fonction publique est assez souple en ce moment pour faire le travail dont nous avons besoin selon la procédure suggérée jusqu'à présent.
Nous avons des occasions de travailler avec des pays aux vues similaires partout dans le monde. De toute évidence, nous sommes un proche allié des États-Unis, du Royaume-Uni et des autres pays du G7. Ces pays sont tous aux prises avec les mêmes problèmes concernant les risques associés à l'intelligence artificielle.
Des pas sont faits dans la bonne direction. De nouveaux systèmes sont mis au point et envisagés en ce qui concerne la collaboration internationale pour réglementer l'intelligence artificielle. Il y a notamment le sommet sur la sécurité de l'intelligence artificielle dont j'ai parlé et qui a eu lieu au Royaume-Uni. Un groupe de pays aux vues similaires se rassemblent régulièrement pour examiner et comprendre ces risques et la façon de collaborer pour les atténuer.
Dans la déclaration de Bletchley, qui a été publiée après cette réunion, il était très révélateur de voir qu'on reconnaît même que différents pays auront différentes approches réglementaires, lois et mesures législatives concernant l'intelligence artificielle. Cependant, malgré ces différences, il y a, tout d'abord, des possibilités d'harmonisation et même d'interopérabilité. Je pense que c'est un excellent exemple, et c'est une occasion pour le Canada d'apporter une contribution vraiment majeure.
:
Je crois que les brevets ne sont pas la seule mesure de la valeur dans notre écosystème d'intelligence artificielle. En fait, je crois que le talent est la meilleure mesure de sa force et de sa valeur.
Les brevets sont assurément importants, plus particulièrement pour les entreprises en démarrage qui essaient de protéger leur propriété intellectuelle. Cependant, une grande partie de l'intelligence artificielle qui est créée se retrouve dans le domaine public; c'est libre d'accès. Nous obtenons vraiment beaucoup de valeur ainsi que de nouveaux produits et services très innovateurs qui reposent sur l'intelligence artificielle grâce aux personnes très qualifiées qui unissent leurs efforts avec les bonnes ressources, la bonne expertise, les bons collaborateurs et le bon financement pour innover dans le domaine.
Les brevets sont une mesure, mais ce n'est pas la seule. Je pense donc que nous devons adopter une perspective plus vaste à ce sujet.
Quand nous regardons la position du Canada à l'échelle internationale, on constate qu'il est vrai que l'intelligence artificielle se trouve sur une plateforme mondiale très concurrentielle. Parmi les indices existants, il y a l'indice mondial sur l'intelligence artificielle. Depuis de nombreuses années, le Canada est au quatrième rang dans le monde, ce qui n'est pas mauvais pour une petite économie par rapport à certains des autres acteurs. Nous perdons toutefois du terrain selon cet indice. Cette année seulement, nous sommes passés de la quatrième à la cinquième position, et lorsqu'on examine attentivement les détails sur les aspects pour lesquels nous perdons du terrain dans le domaine de l'intelligence artificielle, on voit que c'est à cause du manque d'investissements dans l'infrastructure connexe. D'autres pays font des promesses importantes, ils prennent des engagements de taille et font des investissements considérables dans la mise sur pied et la progression de leur infrastructure dans ce domaine, et le Canada ne suit pas le rythme.
Selon l'indice le plus récent, nous sommes passés de la quinzième à la vingt-troisième place dans le monde en matière d'infrastructure d'intelligence artificielle, ce qui a un effet sur notre compétitivité à l'échelle mondiale.
:
À propos du capital-risque, c'est habituellement investi dans des entreprises en démarrage.
Je vais d'abord poser la question à Mme Strome et ensuite à M. Cofone et aux autres témoins qui voudront intervenir.
À propos de la réglementation de l'intelligence artificielle, on veut qu'elle soit... C'est comme la comptabilité. On a un principe. La réglementation est très normative en comptabilité. On veut éviter qu'elle soit stricte au point de limiter la croissance et la capacité d'évoluer et d'innover, mais on veut aussi veiller à ce qu'elle ne soit pas permissive au point d'avoir des lacunes et des échappatoires, si je peux employer ce mot.
Avons-nous le bon équilibre? C'est très difficile à obtenir. J'ai parlé de l'intelligence artificielle à des collègues en Europe, tant à l'échelle infranationale qu'à l'échelle européenne. Toutes les assemblées législatives sont aux prises avec cette question.
Où en sommes-nous pour atteindre le bon équilibre?
:
Merci beaucoup, monsieur Sorbara.
Merci à tous nos témoins d'aujourd'hui. Cela a été une discussion fascinante.
Nous devons maintenant organiser un peu les travaux du Comité. Je vous laisse donc tous partir.
Des députés: Bravo!
Le président: Je ne sais pas si vous pouvez l'entendre sur Zoom, mais nos membres vous applaudissent. C'était très intéressant. Je vous remercie de votre travail dans ce dossier et je vous remercie de nous avoir fait part de vos points de vue dans le cadre de notre étude de ce projet de loi.
Vous êtes libres de partir, et merci encore.
[Français]
Chers collègues, ceci nous amène aux travaux du Comité. Je sais que quelques avis de motion ont été déposés, dont celui de M. Williams.
Monsieur Williams, vous avez la parole.
:
Merci, monsieur le président.
Je suis désolé d'insister autant à ce sujet, mais je pense qu'il est vraiment important que nous continuions d'examiner les factures de téléphonie cellulaire au nom des Canadiens. Nous ne nous arrêterons pas tant que nous n'aurons pas réussi à faire baisser les factures de téléphone cellulaire.
Il y a une motion dont nous avons parlé la semaine dernière, et j'aimerais y revenir. Nous l'avons modifiée légèrement pour faire en sorte que non seulement Rogers et Bell comparaissent devant le Comité, mais Vidéotron aussi. Je pense qu'il est important que nous invitions les PDG de ces entreprises à venir nous parler de ce qui se passe avec les factures de téléphonie cellulaire des Canadiens.
Deuxièmement, nous voulons entendre le . Je pense que c'est important pour lui. Je sais, pour lui avoir parlé dans le passé, qu'il dit toujours vouloir montrer aux Canadiens qu'il souhaite voir réduire les factures de téléphonie cellulaire.
Reportons-nous au 5 mars 2020. Le ministre de l'Industrie de l'époque, Navdeep Bains, avait alors annoncé que son gouvernement allait réduire les factures de téléphonie cellulaire de 25 % au cours des deux années suivantes, d'ici 2022. Les familles économiseraient ainsi 690 $ par année. Selon les annonces faites la semaine dernière par Bell — il y a maintenant trois semaines, je crois —, la facture moyenne de téléphonie cellulaire au Canada est de 106 $. Rogers et Bell s'apprêtent à y ajouter une augmentation de 9 $ par mois, de sorte que la facture passera à 115 $.
Tout se résume à une chose, et ce sont les données. C'est la question que nous voulons poser aux PDG. Les Canadiens ont utilisé trois fois plus de données en 2022 qu'en 2015. Vous savez que lorsqu'on regarde Instagram, qu'on télécharge des Reels ou qu'on utilise YouTube ou Netflix, on consomme plus de données. La facture de téléphonie cellulaire d'une personne qui ne consomme que cinq gigaoctets par mois a diminué de 25 %, mais les Canadiens consomment plus de données, et les factures de téléphonie cellulaire augmentent. Ce sont de bonnes questions à poser au nom de tous les Canadiens.
Je propose ce qui suit:
Que, comme les Canadiens paient déjà les tarifs des téléphones cellulaires les plus élevés au monde, et Rogers et Bell ont annoncé une augmentation des factures de téléphone cellulaire de 9 $, le Comité demande deux réunions tenues d'ici le 15 février 2024, la première avec les PDG de Rogers, Vidéotron, et Bell, et la deuxième, avec le ministre de l'Innovation, des Sciences et de l'Industrie, pour expliquer pourquoi les prix augmentent, et que ce Comité condamne également les augmentations de prix et en fasse rapport à la Chambre.
Merci, monsieur le président.
:
Nous avons eu une excellente réunion du sous-comité. Évidemment, c'était une réunion à huis clos, donc je ne parlerai pas de la conversation que nous avons eue, mais le rapport du sous-comité que nous avons produit est public. Il y est question d'une étude très approfondie que a proposée au départ et que nous avons convenu d'entreprendre. De plus, au point 5, on y mentionne tous les PDG de toutes les entreprises, y compris Telus. Nous avons déjà convenu de convoquer les PDG pour leur poser des questions sur les factures de téléphonie cellulaire. Je parle ici du point 5 du rapport du sous-comité à ce sujet, qui a fait l'objet d'un consensus. Je crois également comprendre, selon le calendrier actuel du Comité, que nous avons déjà prévu des dates et des heures pour ces réunions.
La façon dont je vois les choses, c'est qu'il semble que M. Williams essaie simplement de faire adopter quelque chose qui va se produire de toute façon, quelque chose dont nous avons déjà convenu. Je ne vois pas comment la motion se justifie, alors que nous en sommes déjà arrivés à un consensus à ce sujet. Nous avons tous convenu qu'il s'agit d'un sujet important. Nous avons tous convenu qu'il y a des préoccupations concernant les augmentations de prix des téléphones cellulaires qui sont prévues par Rogers et d'autres. Nous pourrions également mieux comprendre les faits, car il y a beaucoup d'autres renseignements à examiner. Il y a tout un éventail d'autres questions dont nous pourrions parler, mais elles sont toutes déjà incluses dans le rapport du sous-comité et dans sa motion.
D'après ce que je comprends, nous avons convenu de tenir des réunions à ce sujet dès le 26 février. La motion de M. Williams, je crois, ne fait que devancer l'échéance. Il demande que ces réunions aient lieu une semaine ou 10 jours plus tôt.
Quelle en est la raison? Pourquoi le Comité aurait‑il besoin de devancer cela de deux semaines ou de 19 jours alors que nous avons déjà convenu de le faire en temps et lieu? Nous en avons convenu.
Il y a également d'autres études dont nous avons parlé. Nous avons eu cette conversation ensemble et nous nous sommes entendus. Nous sommes parvenus à un consensus.
Cela semblerait venir renverser le consensus auquel nous sommes arrivés. Nous avons eu une conversation très constructive pour parvenir à un consensus, je pensais que nous avions un plan, et maintenant voilà une motion pour tenter de devancer cette étude de 10 jours. Quelle en est la raison? Je ne comprends pas.
J'aimerais que quelqu'un m'éclaire à ce sujet. Peut-être que M. Williams pourrait nous expliquer son raisonnement.
:
Merci, monsieur le président.
Je sais que nous avons convenu de mener une étude plus vaste sur les télécommunications, qui porte sur l'infrastructure et les problèmes que nous avons connus avec les entreprises. Celle‑ci est propre aux augmentations de prix de Rogers, comme l'a annoncé Rogers, et de Bell. Bien sûr, nous sommes d'accord avec le Comité pour que d'autres témoins — les quatre cavaliers ou d'autres — comparaissent ensemble devant le Comité, parce que c'est nécessaire et pertinent dès maintenant. C'est la troisième fois que nous essayons de faire adopter cette motion pour réunir ces personnes devant le Comité.
Il y aura une étude plus vaste sur les télécommunications. Il y sera question d'infrastructure, de sans-fil et des nombreux Canadiens qui n'ont toujours pas accès au téléphone cellulaire et au signal. Je sais que sept millions de Canadiens se sont fait promettre l'accès à Internet haute vitesse. La moitié du Canada n'y a toujours pas accès.
En gros, on se concentre sur un seul sujet ici: les augmentations annoncées par Rogers, et on réunirait ces PDG et le ministre ici pour parler de cette augmentation.
Pourquoi est‑ce si important? Je vais vous le dire.
Pas plus tard que ce matin, à 11 heures, Manuvie, qui avait annoncé la semaine dernière qu'elle allait offrir des médicaments spécialisés à Loblaws uniquement, selon une entente exclusive qui posait problème, s'est rétractée aujourd'hui sous la pression. Elle a annoncé qu'elle ne donnerait pas suite à cette entente. C'est ce qui arrive lorsque nous travaillons ensemble et que nous exerçons des pressions politiques sur les entreprises.
Rogers doit répondre de sa décision maintenant, pas dans quatre semaines ni dans six. Elle doit nous expliquer d'ici deux semaines pourquoi elle compte maintenant augmenter les prix pour les Canadiens. Nous devons agir dès maintenant, sans attendre.
Merci.
:
Personne ne conteste le fait que les dirigeants des sociétés de téléphonie cellulaire doivent être convoqués devant le Comité et interrogés sur les augmentations prévues. Je pense que nous sommes tous d'accord là‑dessus. C'est écrit dans le rapport du sous-comité, en fait. Je pense que cette étude sera plus substantielle. Elle prévoit déjà la comparution des PDG de Telus et de Québecor Média, entre autres. Elle touchera tous les PDG de toutes les entreprises qui ont été mentionnées. L'accent sera mis sur l'augmentation des factures de téléphonie cellulaire des clients, donc tout... C'est déjà là.
Je pense que nous avons déjà convenu de faire ce travail, alors je ne comprends toujours pas la raison d'être d'une motion supplémentaire qui ne fait que devancer certaines choses. Si vous demandiez des ressources supplémentaires pour commencer plus tôt cet élément de l'étude générale, d'accord, mais ne sommes-nous pas limités par les ressources octroyées au Comité? Si nous avons demandé des ressources supplémentaires pour étudier le projet de loi , pourquoi ne serait‑ce pas la priorité, comme nous l'avions décidé?
Nous nous sommes déjà entendus là‑dessus. Nous avons déjà eu ce débat et cette conversation. Nous nous sommes entendus sur ce qui paraît dans le rapport du sous-comité, alors pourquoi déposer cette motion maintenant? Même si nous en avons déjà convenu, pour une raison ou pour une autre, c'est maintenant devenu une priorité plus grande encore pour vous parce que vous l'avez décidé dans la dernière semaine, environ.
Cela ne me semble pas logique étant donné que nous avons déjà convenu de mener une étude plus générale. Nous avons déjà convenu de convoquer tous ces témoins. Nous avons convenu de nous concentrer sur les prix et les factures de téléphonie cellulaire; nous avons convenu que ce peut être la priorité dans cette étude plus vaste. Nous avons également convenu de présenter un rapport à la Chambre afin de lui présenter nos conclusions et nos recommandations.
Je ne comprends tout simplement pas ce que... D'une certaine façon, cette motion n'est-elle pas redondante? Nous en avons déjà convenu.
N'y a‑t‑il pas une règle dans le Règlement selon laquelle une motion doit proposer quelque chose de substantiellement différent pour être admissible? Cela ne semble pas du tout différent. Je ne vois rien de différent ici. Je ne comprends vraiment pas la raison d'être de cette motion, si ce n'est un peu pour épater la galerie.
Je pense qu'un certain nombre de choses ont changé la donne depuis que nous avons établi le calendrier, mais vous avez soulevé un très bon point. Si des témoins ont déjà prévu de participer aux réunions, cela veut dire qu'ils devront se déplacer, etc., alors je pense que nous pouvons trouver un consensus.
Si nous obtenons des ressources supplémentaires pour ce comité, nous pourrons commencer l'étude plus tôt. C'est ce que je souhaiterais. Je pense qu'il s'agit d'une question très importante. Il y a de bonnes interventions, mais si nous créons un problème pour d'autres témoins... C'est quelque chose dont nous n'avions pas à nous soucier avant même que cette motion ne soit déposée. À un moment donné, il semblait que certains de ces témoins ne viendraient pas, mais c'est désormais le cas.
Je propose que nous nous en remettions à vous, monsieur le président, pour voir si nous pouvons obtenir des ressources supplémentaires afin de pouvoir commencer cette étude plus rapidement, si c'est possible. Voilà ce que je vous propose pour la suite des choses, et je pense que c'est un bon compromis.
Je pense que les gens s'inquiètent de plus en plus de ce que font les sociétés de téléphonie cellulaire. Nous nous en rendons tous compte. C'est la principale préoccupation — à part ce qui se passe à Gaza et quelques autres situations qui ont cours — dont mes concitoyens me font part, et ce régulièrement.
Quoi qu'il en soit, j'estime que nous devrions vous laisser le soin de voir si nous pouvons obtenir des ressources supplémentaires à ce comité pour commencer cette étude un peu plus tôt. Nous pourrons décider ce que nous ferons ensuite. Nous ne voulons pas perturber le travail que notre greffière a accompli ni le déroulement des travaux qui vous attendent.
Si les autres membres du Comité n'y voient pas d'objection, je pense que ce serait une bonne façon de procéder.
:
D'accord. Je peux très bien voir...
Si nous atteignons un consensus pour que nous commencions cette étude sur les télécommunications plus tôt que prévu, si nous avons les ressources supplémentaires, et que nous continuions l'étude du projet de loi comme prévu... La greffière pourra m'aider, et nous essaierons de trouver des ressources supplémentaires.
Toutefois, notre comité est toujours saisi d'une motion. Je ne sais pas comment les collègues veulent procéder avec cette motion. Êtes-vous d'accord pour que nous commencions l'étude sur les télécommunications plus tôt?
Je vais donner la parole à M. Turnbull, puis à M. Masse.
Monsieur Turnbull, la parole est à vous.