Passer au contenu

ETHI Réunion de comité

Les Avis de convocation contiennent des renseignements sur le sujet, la date, l’heure et l’endroit de la réunion, ainsi qu’une liste des témoins qui doivent comparaître devant le comité. Les Témoignages sont le compte rendu transcrit, révisé et corrigé de tout ce qui a été dit pendant la séance. Les Procès-verbaux sont le compte rendu officiel des séances.

Pour faire une recherche avancée, utilisez l’outil Rechercher dans les publications.

Si vous avez des questions ou commentaires concernant l'accessibilité à cette publication, veuillez communiquer avec nous à accessible@parl.gc.ca.

Publication du jour précédent Publication du jour prochain
Passer à la navigation dans le document Passer au contenu du document






Emblème de la Chambre des communes

Comité permanent de l'accès à l'information, de la protection des renseignements personnels et de l'éthique


NUMÉRO 145 
l
1re SESSION 
l
42e LÉGISLATURE 

TÉMOIGNAGES

Le mardi 30 avril 2019

[Enregistrement électronique]

(1540)

[Traduction]

     La 145e séance du Comité permanent de l’accès à l’information, de la protection des renseignements personnels et de l’éthique est ouverte. Conformément au paragraphe 108(2) du Règlement, nous étudions les aspects éthiques de l’intelligence artificielle et des algorithmes.
    Je donnerai la parole tout d’abord à M. Angus, qui a une motion à présenter.
    À vous, monsieur Angus.
    Merci. Je serai bref.
    J’ai une motion à proposer, mais puis-je au préalable faire un peu de publicité?
     Je n’ai aucun intérêt financier à cet égard, mais j'exhorte mes collègues du Comité à regarder l’émission de télévision Brexit de la BBC. Notre ami Zack Massingham y apparaît comme l’un des personnages centraux. Chose certaine, et il ne semble pas aussi fatigué, aussi perdu, à la mémoire aussi embrouillée qu’il nous a semblé.
    C'est une émission?
    Oui. En tant que président, je vais vous envoyer le lien.
     J’ai téléchargé l'émission sur iTunes. Allez la chercher comme bon vous semblera.
    Il serait très intéressant que M. Zack Massingham comparaisse de nouveau. Nous pourrions lui demander son avis sur le portrait qu'on a fait de lui...
    Il a été beaucoup plus impliqué qu’il ne l'a prétendu.
    Beaucoup plus.
    J’ai présenté un avis de motion au Comité:
Que le Comité entreprenne une étude sur les aspects éthiques de l’intelligence artificielle et des algorithmes.
    Je réponds par cette motion au greffier, selon qui, si nous voulons entendre le prochain groupe de témoins, il nous faut adopter une motion en bonne et due forme.
    Je vais rapidement dire un mot à ce sujet, monsieur Angus, à propos de divers aspects de l’étude, puis je vais céder la parole au greffier. Notre calendrier est très chargé, compte tenu de ce que nous pouvons accomplir. Les analystes se demandent jusqu’où nous mènerons cette démarche. Devons-nous présenter un rapport?
    Monsieur le greffier, à vous la parole.
    Je peux vous envoyer un calendrier après la réunion de ce soir. Il montrera clairement ce que nous pouvons faire.
    Il s’agit essentiellement de définir les priorités du Comité. Voulez-vous produire un rapport sur la protection des données personnelles dans les services gouvernementaux numériques et un autre sur cette nouvelle étude que vous amorcez?
    Quelqu'un voudrait intervenir?
    Je souhaite vivement poursuivre certaines des discussions que nous avons eues au sujet de l'utilisation qu'on a faite des algorithmes sur certaines plateformes pour fausser le débat public et le discours politique en poussant les internautes vers un contenu de plus en plus extrémiste et faux, au lieu de leur permettre de trouver de bonnes sources dignes de foi.
    Nous n’avons pas vraiment examiné certains de ces algorithmes, particulièrement dans le cas de YouTube — nous avons accordé beaucoup d’attention à Facebook —, mais ces algorithmes ont un effet très net sur le débat public. Il vaut la peine de nous renseigner sur leur fonctionnement. Bien sûr, pour ce qui est des questions plus vastes que nous avons abordées au sujet de l’intelligence artificielle et des algorithmes, je laisse à mes collègues le soin de décider s’ils estiment qu'il y a lieu de choisir d’autres témoins, mais j'ai l'impression que nous avons déjà une assez bonne liste et pas beaucoup de temps.
    Je dirais qu’il faut se mettre au travail.
    Monsieur Kent.
(1545)
    Le sujet mérite une étude approfondie, et les témoins vont sans doute en aborder des éléments aujourd’hui. Nous devrions étudier la question.
    Toutefois, étant donné qu’il nous reste à peine six semaines de travail utile au Comité, je ne suis pas certain que nous puissions entreprendre une étude en bonne et due forme. Chose certaine, si, au gré des échanges sur le plan du projet de rapport sur les services numériques, de nouvelles possibilités apparaissent, nous pourrons entendre d'autres témoignages. Plus nous pourrons en entendre, mieux les députés de la prochaine législature seront en mesure de s'attaquer sérieusement à la question et d'y réfléchir.
    Monsieur Erskine-Smith.
    Juste un mot. Évidemment, le 28 mai, nous avons une séance de Comité beaucoup plus large à laquelle participeront des collègues de l'étranger. Les échanges porteront en partie sur la responsabilité et la transparence relativement aux algorithmes.
     Que cela débouche ou non sur un rapport plus complet d'une façon ou d'une autre — nous pourrions manquer de temps, mais ce n'est pas grave —, je suis d’accord avec M. Kent pour dire que, quoi qu’il en soit, il vaut la peine que nous entendions les témoignages. Il vaut la peine d’écouter des experts avant le 28 mai. Nous aurons peut-être ainsi des questions plus pointues à poser.
    Voilà qui semble convenir. D’autres réflexions à ce sujet?
    Monsieur Angus, à vous.
    Eh bien, je crois fermement qu’il faut toujours produire des rapports parce qu'ils témoignent du travail des comités, mais comme le temps file, je suis prêt à céder.
     Je suis d’accord avec M. Erskine-Smith. Il s’agit de nous préparer pour le grand comité international afin d'être tout à fait prêts; nous avons eu l’occasion d’examiner d’autres questions que nous pourrions aborder. À mon avis, il s’agit d’une bonne séance de formation.
    Ensuite, cette séance du Comité aboutira peut-être à une déclaration internationale, ou nous pourrions estimer qu’un autre rapport s'impose. J’y reviendrai après la séance internationale du Comité, quand nous connaîtrons le sentiment de nos collègues du monde entier.
     D’accord. D’autres interventions? Dans ce cas, que tous ceux qui sont en faveur de la motion...
    (La motion est adoptée.)
    Le président: Adoptée à l'unanimité.
    Merci, monsieur Angus.
    Passons à nos travaux. Nous accueillons aujourd’hui deux témoins: M. Ben Wagner, professeur adjoint à la Vienna University of Economics, qui va témoigner par téléconférence, et M. Yoshua Bengio de Mila - Institut québécois d'intelligence artificielle, où il est directeur scientifique. Il témoigne également par téléconférence, depuis Montréal.
    Nous allons commencer par vous, monsieur Wagner. Vous avez 10 minutes.
    Merci beaucoup de me donner l’occasion de m’adresser au comité permanent, à qui je suis vraiment reconnaissant de s'intéresser à ces questions. Je m’appelle Ben Wagner. Je travaille au Privacy and Sustainable Computing Lab de Vienne.
    Nous travaillons en étroite collaboration à ces questions depuis un certain temps, et nous cherchons surtout à comprendre comment protéger les droits de la personne dans un monde où l’intelligence artificielle et les algorithmes deviennent extrêmement courants. Nous avons notamment aidé Affaires mondiales Canada à se préparer au G7 de l’an dernier. Ce fut un grand plaisir de travailler avec des collègues comme Tara Denham, Jennifer Jeppsson et Marketa Geislerova.
    Les résultats auxquels nous sommes parvenus peuvent tout à fait intéresser le Comité également. Il y a notamment la Vision commune de Charlevoix sur l’avenir de l’intelligence artificielle. Dans le même ordre d’idées, l’an dernier, nous avons également entrepris — cette fois dans le contexte du Conseil de l’Europe — une étude sur la question des droits de la personne dans le domaine des algorithmes, ce qui, à mon avis, doit être extrêmement utile, surtout si vous discutez d'études et de défis communs. Bon nombre des défis communs dont vous parlez sont déjà abordés dans les documents du G7 et dans les déclarations élaborées par le Conseil de l’Europe.
    Pour en revenir à une conception plus générale des raisons qui confèrent son importance à la question, disons que l’intelligence artificielle ou IA est souvent considérée comme quelque chose de nouveau et qui sort de l'ordinaire. Or, il importe de reconnaître qu’il ne s’agit pas d’une technologie nouvelle ou qui sort de l'ordinaire. Elle existe déjà et elle est présente dans de nombreuses applications en usage.
    De plus en plus, l'intelligence artificielle pénètre la vie réelle, si bien qu'il sera bientôt difficile de vivre dans le monde moderne sans qu'elle touche chacun dans son quotidien. Sa profonde intégration dans les sociétés fait évidemment apparaître des défis considérables, mais elle fait aussi surgir des possibilités. Lorsque nous examinons les aspects éthiques et réglementaires comme, je crois, le Comité le fait, il est extrêmement important de ne pas oublier de s'assurer que tous ont accès aux possibilités offertes par ces technologies au lieu qu'elles soient l'apanage d'une petite élite.
    Comment peut-on s'y prendre? Il y a toute une série de défis et d'enjeux. Une question des plus courantes est celle de savoir si nous voulons discuter d’un cadre éthique ou d’un cadre de gouvernance plutôt réglementaire. Il est important de ne pas opposer les deux. Les cadres éthiques ont leur place. Ils sont extrêmement importants et précieux, mais, bien sûr, ils ne peuvent pas se substituer aux cadres de gouvernance ni en bloquer le fonctionnement. S’ils pouvaient le faire, la situation ne serait pas facile. Mais si les deux cadres fonctionnent en parallèle de façon utile et durable, leur conjugaison peut être très efficace.
    On peut en dire autant même si on opte pour un cadre davantage axé sur la gouvernance et fondé sur les droits de la personne. Il arrive très fréquemment que, dans ces contextes, on fasse jouer des droits de la personne les uns contre les autres. Le droit à la liberté d’expression est perçu comme plus important que le droit à la vie privée. Et ce dernier est vu comme plus important que le droit à la liberté de réunion, et ainsi de suite. Il est très important que, dans l’élaboration de normes et de cadres en pareil contexte, nous tenions toujours compte de tous les droits de la personne et que ces droits soient le fondement de notre perception des algorithmes et de l’intelligence artificielle.
    Jetez un coup d'œil aux documents de Charlevoix qui ont été élaborés l’été dernier. Vous remarquerez aussi qu’on met beaucoup l’accent sur l’intelligence artificielle axée sur l’être humain. Bien qu’il s’agisse d’un élément de conception extrêmement important, il importe également de reconnaître que les orientations axées sur l'être humain ne suffisent pas à elles seules. Par ailleurs, alors que les systèmes automatisés se multiplient, beaucoup d’acteurs qui mettent au point des systèmes de cette nature ne sont pas prêts à dire comment ils les développent ni quels en sont les éléments précis.
    On dit souvent à la blague que certains des exemples les plus fréquemment utilisés dans les plans d’affaires de démarrage de l’intelligence artificielle sont plus près du Turc mécanique — c’est-à-dire un travail humain dissimulé — que de vrais systèmes d’intelligence artificielle avancée. Ce travail humain, on en perd souvent la trace quelque part ou il n’est pas reconnu.
    Cela vaut également dans le contexte des cadres extrajuridiques qui sont fréquemment appliqués lorsqu'on discute de cadres éthiques, de cadres qui ne régissent pas les choses comme le droit peut le faire. Dans quelle mesure des cadres comme ceux-là peuvent-ils se substituer au régime du droit ou l'emporter sur lui? Il faut faire preuve à cet égard d'une extrême prudence. C’est précisément le cas dans beaucoup de débats qui ont cours en ce moment. Je suis sûr que vous avez entendu parler du comité d'éthique de Google, mis sur pied récemment et éliminé au bout d'à peine une ou deux semaines.
    Vous remarquerez que certains acteurs déploient des efforts intenses pour adopter un comportement plus éthique, mais le cadre d'éthique ne suffit pas, et ils en sont conscients, étant donné les critiques virulentes qui déferlent. Il ne s'agit pas de dire que l'éthique est sans importance ni qu'elle est nécessaire, mais plutôt de rappeler qu'il faut s'y prendre correctement si on veut obtenir des résultats conséquents. Cela signifie que le secteur public a également un rôle important à jouer. Nous ne pouvons pas tolérer que les entreprises temporisent ou cherchent à s'implanter là où les contraintes éthiques sont les moins lourdes. Nous ne pouvons pas accepter que les normes existantes soient abaissées.
    Comme vous le savez sans doute, les normes existantes, dans de nombreux domaines de la gouvernance publique — c'est-à-dire les normes relatives à la façon dont nous régissons la technologie et les activités des sociétés, si on considère le cadre de l'ONU relatif aux affaires et aux droits de la personne, par exemple —, sont déjà relativement anémiques. Dans certains domaines, il y a un risque que ces principes éthiques soient même en deçà des normes existantes en matière d’affaires et de droits de la personne.
(1550)
    Par ailleurs, sur une note plus positive, il y a ici un rôle extrêmement important pour le secteur public, ce qui me donne l'occasion de louer les travaux de Michael Karlin, qui a accompli une besogne fantastique pour le gouvernement du Canada sur le plan de l'évaluation d'impact algorithmique. Il faut vraiment voir une mesure importante dans la façon dont le Canada prend l’initiative. Il montre vraiment ce qui est possible dans le contexte de l'évaluation d'impact algorithmique. Je peux certainement le féliciter de son travail.
    En même temps, au vu des récentes accusations selon lesquelles Facebook aurait enfreint les lois canadiennes sur la protection de la vie privée, il faut avouer que nous avons un grave problème de mise en œuvre. Plus précisément, ces dérogations qui préoccupent de nombreux organismes canadiens de réglementation de la protection de la vie privée font surgir une question. Pouvons-nous nous concentrer uniquement sur le secteur public et celui-ci peut-il à lui seul montrer la voie, ou devons-nous prendre des mesures semblables pour, à tout le moins, les grandes et puissantes entreprises du secteur privé? En effet, dans le monde d'aujourd'hui, qu’il s’agisse d’ouvrir un compte bancaire, d’afficher un contenu sur Facebook, de parler à un ami en ligne ou même de faire livrer une pizza, les algorithmes et l’IA sont omniprésents.
     À moins que nous ne soyons prêts à limiter l’utilisation de ces algorithmes, il y a deux choses à prendre en compte lorsque nous examinons ce qui se rapporte à la démocratie. Les algorithmes commencent à nous dominer de plus en plus, mais nous n'en sommes pas rendus à un scénario digne de celui de Terminator, où nous devrions avoir peur que les robots ne nous envahissent et ne s'emparent du monde.
    Le problème, c'est plutôt que, grâce à ces technologies, un grand pouvoir se concentre entre les mains d'un très petit groupe, et c'est précisément pour affronter des situations de cet ordre que les institutions démocratiques ont été mises en place, comme le comité parlementaire qui tient des audiences sur cette question en ce moment. Il s’agit de veiller à ce que le pouvoir d’un petit nombre devienne celui du grand nombre, de veiller à ce que tout être humain ait accès à l’IA et à ses avantages, mais aussi à ce que soit tenue la promesse fondamentale de l’IA, soit que la technologie améliore la vie des gens, tant au Canada qu’ailleurs, qu'elle soit accessible à tous les êtres humains. Il faut aussi s'assurer que les droits de la personne sont le fondement essentiel qui guide le développement et la conception de la technologie à l’avenir.
    Merci beaucoup de m’avoir écouté. Je me ferai un plaisir de répondre à vos questions.
(1555)
    Merci.
    Nous passons maintenant à M. Bengio, de Montréal.
    Je vous en prie. Vous avez 10 minutes.
    Bonjour. Je suis spécialisé en informatique. J’ai été un pionnier de l’apprentissage profond, qui a fait passer l’intelligence artificielle des milieux universitaires à une réalité qui joue un rôle économique important et mobilise des investissements de milliards de dollars.
    Il importe de dire que, malgré des progrès remarquables, les systèmes d’intelligence artificielle actuels sont très loin d'une intelligence artificielle comparable à l'humain. Ils ont bien des faiblesses. Ils ne comprennent pas le contexte humain, bien sûr, ni les valeurs morales. Ils ne comprennent pas grand-chose, mais ils peuvent exceller dans certaines tâches et cela peut être très utile sur le plan économique. Il reste qu'il faut être conscient de ces limites.
    Considérons par exemple, l'utilisation de ces outils dans l’armée. Un système va prendre la décision de tuer une personne sans avoir le contexte moral qui pourrait amener un être humain à refuser d'obéir à l'ordre de tuer. Le secrétaire général de l’ONU a parlé d'une ligne rouge à ne pas franchir.
    Pour revenir à l’IA et au rôle du Canada, ce qui est intéressant, c’est que le Canada a joué un rôle très important dans le développement de la science récente de l’IA et qu'il est clairement reconnu comme un chef de file scientifique. Il joue également un rôle de plus en plus important sur le plan économique. Bien sûr, le Canada souffre toujours de la comparaison avec la Silicon Valley, mais son industrie technologique croît très rapidement dans le domaine de l’intelligence artificielle et il a la possibilité, grâce à sa vigueur scientifique, de devenir non seulement un consommateur d’intelligence artificielle, mais aussi un producteur, ce qui signifie que les entreprises canadiennes s’engagent. Il est important de ne pas l'oublier non plus.
    Ce qui importe, outre notre position de tête au plan scientifique et, de plus en plus, au plan économique, en matière d’intelligence artificielle, c’est le leadership moral, et le Canada tient là une chance de jouer un rôle crucial dans le monde. Il a déjà été remarqué à cet égard. Je tiens à rappeler notamment la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle, à laquelle j’ai contribué et qui porte vraiment sur les principes éthiques.
    Dix principes ont été définis, avec un certain nombre de sous-principes pour chacun. Ce que la déclaration a d'intéressant et de différent des autres efforts visant à donner une forme définitive aux aspects éthiques et sociaux de l’IA, c'est qu'elle a réuni non seulement des experts en IA, mais aussi, bien sûr, des universitaires en sciences sociales et humaines, et que de simples citoyens ont aussi eu l’occasion de donner leur avis. La déclaration a été modifiée grâce à la rétroaction de simples citoyens dans les bibliothèques, par exemple. Ils ont assisté à des ateliers où ils pouvaient discuter des questions présentées dans la déclaration.
    En général, pour l’avenir, il est bon de garder à l’esprit que les simples citoyens doivent rester dans le coup. Nous devons les informer pour qu’ils comprennent les enjeux parce que nous prendrons des décisions collectivement, et il est important qu'ils comprennent.
    Lorsque je parle d’intelligence artificielle, les plus grandes préoccupations que j’entends concernent souvent son effet sur la motivation et l’emploi. Il est clair que les gouvernements doivent y réfléchir et cette réflexion doit se faire bien avant les changements qui s’en viennent. Si on songe, par exemple, à modifier le système d’éducation pour l’adapter à une nouvelle vague de personnes qui pourraient perdre leur emploi au cours de la prochaine décennie, ces changements peuvent prendre des années, voire une décennie, pour avoir un impact réel. Il est donc important de commencer tôt. C’est la même chose si nous décidons de modifier notre filet de sécurité sociale pour nous adapter à ces changements rapides qui pourraient survenir sur le marché du travail. Il faudrait s’attaquer à ces problèmes sans trop tarder.
     J’ai un autre exemple de préoccupation à court terme. J’ai parlé des applications militaires. Ce serait vraiment bien que le Canada joue un plus grand rôle de chef de file dans les discussions qui se déroulent actuellement à l’ONU sur l’utilisation militaire de l’intelligence artificielle et de ce qu'on appelle les « drones tueurs » qui peuvent être utilisés, grâce à des vidéos informatiques, pour reconnaître des gens et les cibler.
(1600)
     Il y a déjà une importante coalition de pays qui expriment des préoccupations et qui travaillent à l'élaboration d'une interdiction internationale. Même si tous les pays — ou même de grands pays comme les États-Unis, la Chine ou la Russie — n'adhèrent pas à un tel traité international, je pense que le Canada peut jouer un rôle important. Un bon exemple est ce que nous avons fait dans les années 1990 avec les mines antipersonnel et le traité qui a été signé au Canada. Cela a vraiment eu un impact. Même si des pays comme les États-Unis ne l'ont pas signé, la stigmatisation sociale de ces mines antipersonnel, grâce à l'interdiction, a fait en sorte que les entreprises ont graduellement cessé de les produire.
    D'un point de vue éthique, un autre sujet de préoccupation concerne la partialité et la discrimination, ce qui est très important pour les valeurs canadiennes. Je pense que c'est aussi un domaine où les gouvernements peuvent intervenir pour s'assurer que les règles du jeu sont les mêmes pour toutes les entreprises.
     À l'heure actuelle, les entreprises peuvent choisir d'utiliser une seule approche — ou aucune approche — pour tenter de s'attaquer aux problèmes potentiels de partialité et de discrimination dans l'utilisation de l'intelligence artificielle. Ces problèmes proviennent principalement des données sur lesquelles ces systèmes sont formés, mais il y aura un compromis entre leur utilisation de ces techniques et, disons, la rentabilité ou la prévisibilité des systèmes. En l’absence de réglementation, ce qui va se passer, c'est que les compagnies plus éthiques vont perdre des parts de marché au profit de concurrents dont les normes ne sont pas aussi élevées. Bien entendu, il est important de s’assurer que tout le monde soit placé sur un pied d’égalité.
    Un autre exemple intéressant est l'utilisation de l'intelligence artificielle, pas nécessairement au Canada, mais dans d'autres pays, parce que les systèmes qui l'emploient peuvent être utilisés pour suivre les déplacements des gens, encore une fois, grâce aux caméras que l'on retrouve partout. Les systèmes de surveillance, par exemple, sont actuellement vendus par la Chine à certains pays autoritaires. Nous allons probablement en voir davantage à l'avenir. C'est une question discutable au plan éthique. Nous devons décider si nous voulons tout simplement ignorer cela ou si nous voulons une réglementation qui fait en sorte que nos entreprises n'en feront pas une utilisation potentiellement contraire à l'éthique.
    La publicité est un autre domaine intéressant pour le gouvernement. À mesure que l'intelligence artificielle gagne en puissance, elle peut exercer plus efficacement une influence sur l'esprit des gens. En utilisant l'information qu'une entreprise possède sur un utilisateur donné, une personne en particulier, la publicité peut être ciblée de façon à avoir beaucoup plus d'influence sur nos décisions que les anciennes formes de publicité. Si vous prenez la publicité politique, par exemple, cela pourrait être un véritable problème, mais même dans d'autres domaines où ce type de publicité peut influer sur notre comportement d'une façon qui n'est pas nécessairement bonne pour nous — en ce qui concerne notre santé, par exemple —, nous devons agir avec prudence.
    Enfin, toujours au sujet des annonces publicitaires ciblées, il y a l'utilisation de l'intelligence artificielle dans les réseaux sociaux. Nous avons vu les problèmes avec Cambridge Analytica et Facebook, mais je pense qu'il y a une question plus générale sur la façon dont les gouvernements devraient établir les règles du jeu pour minimiser ce genre d'influence en utilisant, encore une fois, des messages ciblés. Ce n'est pas nécessairement de la publicité, mais c'est l'équivalent de quelqu'un qui paie pour exercer une influence sur l'esprit des gens d'une façon qui pourrait ne pas correspondre à ce qu'ils pensent vraiment ou à ce qui est dans leur intérêt.
    La question des données est liée aux réseaux sociaux. Une grande partie des données utilisées par des entreprises comme Google et Facebook, bien sûr, viennent des utilisateurs. À l'heure actuelle, les utilisateurs signent un consentement pour permettre à ces entreprises de faire essentiellement ce qu'elles veulent avec ces données.
(1605)
     Il n'y a pas vraiment de pouvoir potentiel de négociation entre un seul utilisateur et ces entreprises. Ainsi, diverses organisations, particulièrement au Royaume-Uni, ont songé à des façons de rétablir un certain équilibre entre le pouvoir de ces grandes entreprises et les utilisateurs qui fournissent les données. Il y a une notion de fiducie des données, que j'encourage le gouvernement canadien à considérer comme approche juridique pour s'assurer que les utilisateurs peuvent se regrouper — on peut penser à un syndicat — pour négocier des contrats qui correspondent à leurs valeurs et à leurs intérêts.
    Merci.
    Nous allons passer aux questions.
    Je tiens à souligner que nous avons un invité spécial et sa classe avec nous aujourd'hui. Monsieur Michael Geist, je vous remercie de votre présence. Vous pourriez probablement comparaître devant le même groupe de témoins aujourd'hui, mais vous allez prendre la solution facile aujourd'hui et écouter.
     Bienvenue aux étudiants.
    Nous avons aussi des étudiants de l'Université de Haïfa.
    Ils viennent de Haïfa, alors nous avons des étudiants d'outre-mer.
    C'est à l'est de St. John's, je crois.
    Juste un peu.
     Merci d'être venus aujourd'hui.
    Nous allons commencer par M. Erskine-Smith, pour sept minutes.
    Merci beaucoup.
    Je veux parler davantage de la réglementation que de l'éthique, surtout en raison de l'exemple le plus récent où Facebook a dit à notre commissaire à la protection de la vie privée: « Merci de vos recommandations; nous n'allons pas les suivre », alors je pense que nous avons besoin de règles plus strictes.
    Monsieur Wagner, dans un article récent, l'un des trois exemples que vous citez au sujet de l'intelligence artificielle est la modération du contenu des médias sociaux. Dans le cadre des travaux de notre comité, nous avons parlé de transparence algorithmique. Au sein de l'Union européenne, c'est l'explicabilité algorithmique. Dans cet article, vous dites qu'on ne sait pas trop à quoi cela ressemble. C'est une nouvelle idée, évidemment, en ce sens que lorsque nous avons parlé à la commissaire à l'information du Royaume-Uni et que nous avons eu des conversations récentes avec le superviseur de la protection des données de l'Union européenne, ils ne font qu'accroître leur capacité de régler cette question et de comprendre à quoi cela ressemble.
    Ayant examiné vous-même cette question et écrit à ce sujet, quand nous parlons de transparence algorithmique, quelle compréhension pratique devrions-nous en avoir? C'est une chose de faire une recommandation sur la transparence algorithmique. À quoi cela devrait-il ressembler précisément?
    C'est une excellente question. À ce stade-ci, il y a beaucoup de propositions sur ce que cela pourrait être, mais je pense que la première chose, pour aller droit au but, c'est que la transparence ou l'explicabilité elle-même est insuffisante. Il ne suffit pas de dire que nous pouvons expliquer ce que cela fait et que, par conséquent, c'est suffisant. Il faut que quelqu'un soit vraiment responsable des gestes posés et il faut un cadre de gouvernance.
    Lorsque nous parlons, surtout dans le contexte des médias sociaux, d'avoir un cadre pour la façon dont le contenu est modéré, cela signifie aussi des mécanismes d'appel, des mécanismes de transparence et une certaine forme d'arbitrage externe en cas de désaccord dans ces contextes, puis d'ajouter une couche supplémentaire de complexité lorsque nous parlons de mesures de nature réglementaire à ce sujet.
    Une fois que des systèmes de type intelligence artificielle ou des systèmes automatisés ont été intégrés à des organisations, ces organisations deviennent dépendantes de ces systèmes. Il est très difficile alors d'aller au-delà de ces systèmes ou d'en sortir. Vous devez donc dès le départ être très forts sur la gouvernance pour vous assurer que vous avez vraiment un effet solide et significatif sur la façon...
    J'aimerais savoir ce que cela pourrait être de plus. Pour ce qui est de l'explicabilité et de la transparence, vous avez mentionné Karlin ici au Canada, et vous avez aussi mentionné ce que le Conseil du Trésor a fait au sujet des évaluations d'impacts algorithmiques dans le secteur public. Il me semble que si nous sommes sérieux quant à ce niveau de transparence et d'explicabilité, cela pourrait signifier l'obligation d'effectuer des évaluations d'impacts algorithmiques dans le secteur privé, comme dans le cas d'un dépôt auprès de la SEC, où la non-conformité serait assortie de sanctions si l'information n'était pas incluse. Pensez-vous que c'est le niveau que nous devrions viser?
(1610)
    Oui. En principe, je pense que c'est exactement ce que nous devrions faire. C'est exactement le genre de proposition que j'essayais de faire quant à l'orientation que devraient prendre les choses. J'ajouterais bien sûr que ce faisant, vous ne voulez pas étouffer l'innovation, alors il vous faudrait une sorte de seuil au-dessus duquel, disons pour les sociétés cotées en bourse ou pour les entreprises d'une certaine taille, il y a un certain impact. Bien entendu, selon la quantité de données que détiennent ces entreprises, sachant qu'il peut s'agir de très petites entreprises, il faudrait différents types de seuils pour différents types d'organisations. Oui, je pense que ce serait extrêmement utile.
     Monsieur Bengio, vous avez parlé de partialité et de discrimination. Vous avez parlé de la publicité, de la capacité d'exercer plus efficacement une influence et de l'utilisation de l'intelligence artificielle dans les réseaux sociaux. Chaque fois, je pense que vous faisiez allusion à quelque chose. Je veux dire, en ce qui concerne la partialité et la discrimination, vous avez explicitement fait allusion à la nécessité d'une réglementation ou vous avez laissé entendre qu'il fallait une réglementation.
    Oui.
    S'il ne s'agit pas seulement d'un cadre éthique... et je reconnais le travail que vous avez fait relativement à la déclaration de Montréal sur l'éthique, mais si nous parlons de réglementation, y a-t-il des conseils que vous donneriez au Comité quant à la façon de réglementer la prise de décisions algorithmiques pour résoudre certains des problèmes que vous avez recensés?
    Oui. Je ne suis pas un spécialiste du droit, alors il pourrait y avoir différentes façons de réglementer. Dans certains cas, peut-être que les lois actuelles suffisent et elles doivent passer le test des tribunaux. Permettez-moi de vous donner un exemple de partialité et de discrimination. Prenons l'industrie de l'assurance. Il faudrait probablement des règlements différents pour différentes industries où la façon dont les problèmes surviennent pourrait être différente. Dans le cas de l'assurance, les renseignements utilisés par les entreprises pourraient mener, disons, à une discrimination fondée sur le sexe. Même si les variables utilisées par la compagnie d'assurance ne mentionnent pas explicitement le sexe, ou ne mentionnent pas explicitement la race, il se peut que ce soit quelque chose que le système d'intelligence artificielle suppose implicitement. Par exemple, si vous vivez dans un certain quartier, c'est peut-être une bonne indication de votre race à certains endroits.
    La bonne nouvelle, c'est qu'il existe des algorithmes pour atténuer cela, mais il y aura un compromis entre l'élimination de l'information implicite sur le sexe et l'exactitude des prévisions faites par les systèmes. Ces prévisions se transforment en dollars. Pour une compagnie d'assurance, si je peux faire une évaluation très précise de votre risque, du montant que vous allez me coûter, c'est ainsi que je vais déterminer votre prime, alors cette précision vaut vraiment de l'argent. Les entreprises exerceront des pressions pour utiliser le plus d'information possible de leurs clients, mais cela pourrait aller à l'encontre de nos principes juridiques. Nous devons nous assurer de trouver le bon compromis.
    Justement, parce que je pense que ce que cela veut dire, c'est que nous avons des règles du point de vue des droits de la personne.
    Oui.
    D'une certaine façon, la raison pour laquelle la transparence devient la première étape, c'est qu'il est très difficile d'appliquer ces règles tant qu'un commissaire aux droits de la personne ne peut pas évaluer adéquatement ce qui se passe. Lorsque nous avons posé des questions à la commissaire à l'information du Royaume-Uni en novembre, elle nous a dit que son travail consistait à faire en sorte que la situation puisse s'expliquer. D'autres organismes de réglementation ont d'autres règles, d'autres points de vue, d'autres droits et d'autres valeurs qu'ils veulent faire respecter, et c'est alors à eux d'assumer leurs rôles.
    Est-ce l'impression que vous avez? Est-ce la bonne approche?
    C'est une première étape. Nous devons savoir clairement de quelle façon ces processus sont mis en place par des entreprises comme les compagnies d'assurance, qui utilisent des données pour prendre des décisions au sujet des gens. Nous devons avoir accès à cela. Il est compréhensible qu'elles veuillent un certain secret, mais les représentants gouvernementaux devraient être en mesure d'examiner la façon dont elles procèdent et s'assurer que c'est conforme à certains des principes que nous avons inscrits dans la loi ou dans les règlements. Cela ne veut pas dire que le système doit expliquer chaque décision en détail, parce que ce n'est probablement pas raisonnable, mais il est vraiment important de documenter, par exemple, le genre de données qui ont été utilisées, d'où elles proviennent, la façon dont elles ont été utilisées pour former le système, et en vertu de quel objectif il a été formé pour qu'un expert puisse l'examiner et dire que, par exemple, c'est bien ou qu'il y a un risque de partialité et de discrimination et, de plus, que vous devriez peut-être effectuer tel ou tel test pour vérifier qu'il n'y en a pas. S'il y a un problème, alors vous devriez utiliser l'une des techniques de pointe qui peuvent être utilisées pour l'atténuer.
(1615)
    Merci, monsieur Erskine-Smith.
    Nous passons maintenant à M. Kent, pour sept minutes.
     Merci, monsieur le président.
    Merci à vous deux de comparaître devant le Comité aujourd'hui.
    Monsieur Bengio, vous méritez des félicitations pour le travail que vous avez fait dans le cadre de la déclaration de Montréal pour un développement responsable de l'intelligence artificielle, mais comme le Comité l'a appris et comme le public — je l'espère — en est de plus en plus conscient, le développement de l'intelligence artificielle a été financé en grande partie par ceux qui détiennent le monopole des données, les Facebook, les Google et, comme nous l’apprenons, par leur mépris des lignes directrices et des lois éthiques, écrites et non écrites, de plus en plus de notoriété publique.
    Soit dit en passant, et vous ne le savez peut-être pas, lorsque le Comité s'est rendu au siège social de Facebook à Washington l'an dernier, on nous a dit, presque en passant, que lorsque nous avons demandé si l'entreprise accepterait une réglementation accrue au Canada, le genre d'investissement que nous avons fait dans la plaque tournante de l'intelligence artificielle à Montréal pourrait ne plus être disponible, ce qui m'a complètement abasourdi. Il s'agissait essentiellement d'une menace d'un « monopole de données » selon laquelle le Canada serait ostracisé de l'investissement dans l'intelligence artificielle si nous mettions en place une réglementation plus rigoureuse, même dans le sens du Règlement général sur la protection des données de l'Union européenne ou de certains de ses éléments.
    Ma question s'adresse à vous deux. Les grandes entreprises utilisent et exploitent déjà l'intelligence artificielle de façons très louables et merveilleuses, mais aussi de diverses façons qui font fi des lignes directrices éthiques et juridiques. Devraient-elles être responsables de l'utilisation abusive de l'intelligence artificielle sur leurs plateformes?
    Permettez-moi de répondre à votre première question au sujet de l'investissement de Facebook à Montréal.
    À l'heure actuelle, nos centres de recherche sur l'intelligence artificielle sont principalement financés par les gouvernements provinciaux et fédéral, soit Mila à Montréal, Vector à Toronto et Amii à Edmonton. L'investissement qui a été fait, par exemple, par Facebook pour créer un laboratoire à Montréal ou pour parrainer des organisations comme Mila, est assez modeste par rapport aux autres investissements qui se font.
    Je ne suis pas vraiment inquiet. Facebook et d'autres organismes sont venus s'installer ici parce qu'ils y trouvent leur compte. Cela leur permet de recruter plus facilement les personnes dont ils ont besoin pour leurs groupes de recherche.
    Vous ne considérez pas inacceptable une menace ou une possibilité de partenariats exposant l'intelligence artificielle qui est mise au point par les divers partenaires à la plaque tournante par ces très grandes entreprises?
    Non, elles font un peu de recherche ici et ce n'est qu'une petite partie de la recherche qu'elles font partout dans le monde, qui n’a en fait rien à voir avec leur activité réelle. À moins qu'elles ne veuillent recourir à la menace, il serait à leur désavantage de se retirer immédiatement du Canada.
    L'autre chose, c'est que leur investissement dans ces autres entreprises est plutôt modeste par rapport à l'importance de l'impact dont nous parlons pour tous les Canadiens. Bien sûr, il serait dommage de les voir partir, mais je serais surpris qu'elles le fassent; je pense que nous ne devrions même pas porter attention à ce genre de déclaration.
    D'accord.
    Monsieur Wagner?
     Je pense que des menaces de ce genre sont révélatrices d'un défi réglementaire général, c'est-à-dire que chaque pays veut être le chef de file en matière d'intelligence artificielle à l'heure actuelle, et cela n'est pas toujours propice au meilleur climat réglementaire pour les citoyens de ces pays.
    Il semble y avoir eu une sorte d'entente entre le gouvernement des Pays-Bas et l'industrie automobile, qui est en train de transformer l'intelligence artificielle en voitures autonomes, pour qu'on ne regarde pas de trop près alors qu'on construit une usine là-bas, afin que la construction de cette usine génère des emplois et des investissements dans ce pays.
    Je pense que l'impact de l'intelligence artificielle et de ces technologies sera suffisamment transformateur pour que, bien que ces géants américains semblent très importants à l'heure actuelle, ce ne sera peut-être plus le cas dans quelques années. Souvent, je pense que le danger est en fait l'inverse. Historiquement, le secteur public a investi beaucoup plus que ce que bien des gens savent, et une bonne partie de la fortune de ces grandes entreprises bien connues est fondée là-dessus. Bien sûr, en termes politiques, il semble toujours plus attrayant d'avoir Google, Facebook ou Tesla parmi vos industries locales, parce que cela envoie aussi un message politique.
    J'ai l'impression que cela fait partie du défi qui a amené les organismes de réglementation à s'engager sur la voie où il existe de véritables lacunes du régime réglementaire. Je vous mets également en garde de ne pas vous attendre à ce que les commissaires à l'information ou les organismes de réglementation de la protection de la vie privée soient les seuls à pouvoir répondre à cette question. Il y a aussi des organismes de réglementation des médias, des responsables des élections, des gens à qui il incombe de s'assurer que, au quotidien, la concurrence fonctionne.
     Tous ces organismes de réglementation font face à de grands défis en raison des nouvelles technologies numériques, et il serait sage, comme société, de prendre un peu de recul et de nous assurer qu'ils sont vraiment en mesure de faire leur travail d'organismes de réglementation, qu'ils ont accès à toutes les données pertinentes. Il se peut que nous trouvions qu'il y a encore des lacunes sur le plan de la réglementation et que nous ayons besoin de pouvoirs réglementaires supplémentaires.
     Là, je pense que le danger est de dire que nous voulons seulement du progrès; nous voulons seulement de l'innovation. Si vous faites cela à quelques reprises et continuez de permettre que ce soit une possibilité... Cela ne veut pas dire que vous devez dire non à des entreprises comme Facebook ou Google si elles veulent investir dans votre pays, mais si vous commencez à recevoir des menaces comme celle-ci, je les verrais exactement comme une tentative futile de résister au changement qui s'en vient déjà.
(1620)
    Merci.
    Nous passons maintenant à M. Angus, pour sept minutes.
    Merci, messieurs.
    Vous soulevez des questions très troublantes et très générales qui dépassent de beaucoup le mandat de notre comité et notre rôle comme politiciens. Mon travail quotidien consiste à faire en sorte que l’électricité de Mme O’Grady soit rebranchée. C’est ce qui me permet d’être élu.
    Toutefois, lorsque nous discutons d’IA avec vous, c'est le risque de délocalisation massive d'emplois qui ressort. Qu’est-ce que cela signifierait pour la société? Nous n’avons même pas entamé la conversation à ce sujet. Il y a aussi l’incidence sur les droits de la personne, en particulier si l'on exportait l’IA vers des régimes autoritaires.
    En ce qui touche ma propre compréhension, il y a les droits des citoyens et leur autonomie personnelle. L’argument qu’on nous a fait valoir — et j’ai été un idéaliste du numérique à un moment donné —, c’est que l'Internet serait autoréglementé et que les consommateurs auraient le choix: ils pourraient décider pour eux-mêmes et cliquer sur les applications qui les intéressent.
    Mais quand il s'agit de l’IA, on n'a pas la capacité, comme citoyen, de contester une décision qui a été prise, parce qu’elle a été prise par un algorithme. Est-ce qu'il nous faut ou non envisager d’adopter des règlements pour protéger les droits des citoyens...
    Monsieur Wagner, vous avez écrit un article intitulé « Ethics as an Escape from Regulation: From ethics-washing to ethics-shopping? »
    Quel est votre avis sur cette question?
     Je suis sûr que vous avez deviné, d’après le titre que vous venez de mentionner, que je vois la montée de l’éthique — et je n’inclurais pas explicitement la déclaration de Montréal, parce que je ne pense pas que ce soit un bon exemple... Il y a certainement, dans bien des cas, des cadres éthiques qui n'offrent pas de cadre institutionnel clair. Une grande partie de mon travail vise essentiellement à amener les gens à s’occuper soit des droits de la personne et de la gouvernance, soit de l’éthique, mais dans ce cas, à prendre l’éthique au sérieux, et à s’assurer que les cadres éthiques qu'ils élaborent soient solides et rigoureux.
    À la fin de l’article que vous avez mentionné, il y a littéralement un cadre constitué de critères à respecter pour y arriver, à savoir: la participation externe, la surveillance externe, la prise de décisions transparente et la mise en place de normes non arbitraires. L’éthique ne remplace pas les droits fondamentaux.
    Pour revenir à l’exemple que vous avez mentionné sur l’autoréglementation dans l'Internet et sur la façon dont nous avons tous supposé que ce serait la voie à suivre pour protéger l’autonomie des citoyens, je pense que c’est là l’un des principaux défis. Cet argument a été tellement utilisé à mauvais escient par des entreprises privées qui disaient, par exemple: « Nous avons un million de “j'aime” et vous n’avez que 500 000 votes. Nos “j'aime” valent sûrement autant que vos votes. » Je n’ai même pas à expliquer cela en détail. C’est juste un argument qui veut qu'un grand nombre de clics et de « j’aime »puisse s'apparenter à des votes. Dans un contexte démocratique, c’est extrêmement difficile.
    Enfin, vous avez mentionné l’exportation de l’IA vers des régimes autoritaires. Je pense qu’il y a un lien étroit entre les débats que nous avons au sujet de l’exportation de l’IA vers des régimes autoritaires et la façon dont nous faisons le commerce des technologies de surveillance. Il y a beaucoup de technologies extrêmement puissantes qui tombent entre de mauvaises mains en ce moment. Il deviendra de plus en plus important de limiter ce commerce ou de s’assurer, par des accords comme celui de Wassenaar et d’autres, qu’un certain contrôle est exercé pour certains types de technologie à double usage.
    Il y a déjà des mécanismes en place. Il y a déjà des cadres pour le faire, mais il faut être prêts à les mettre en oeuvre, et ce, collectivement parfois, même si cela signifie qu'il faille soutenir une légère baisse — et j’insiste, une légère baisse — de la croissance économique à cause de cela. Nous pourrions alors dire que nous faisons preuve de plus de leadership dans ce dossier. Il est difficile d'imaginer comment des gains économiques à court terme permettront de créer le genre d'environnement propice aux droits de la personne que nous voudrions voir dans les années et les décennies à venir.
(1625)
    Merci.
    Je suis un amateur de musique. Chaque matin à mon réveil, YouTube a choisi de la musique pour moi. Leurs algorithmes sont assez bons et je regarde ce qu'ils me proposent. Je suis aussi un mordu de la Seconde Guerre mondiale et YouTube m’offre toutes sortes de documentaires. Je reçois sur mon fil d'actualités certains documentaires sur le grand historien David Irving, reconnu pour nier l’Holocauste.
    J’ai des cheveux blancs, je sais qui est David Irving, mais si je suis un élève du secondaire, je l'ignore. Il reçoit beaucoup de mentions « j'aime » parce que beaucoup d’extrémistes font sa promotion. L’algorithme nous pousse à voir du contenu qui serait autrement illégal.
    Pour ce qui est de l’autoréglementation, je regarde l'état des choses au Canada. Nous avons des normes de radiodiffusion pour les médias. Cela ne veut pas dire que nous n’avons pas toutes sortes de débats et de commentaires incroyables et les gens sont libres de le faire, mais si quelqu’un était à la radio ou à la télévision en train de faire la promotion du déni de l’Holocauste, il y aurait des conséquences. Lorsqu’il s’agit de YouTube, nous n’avons même pas de mécanisme approprié pour les tenir responsables de leurs actes.
    Encore une fois, en ce qui concerne les algorithmes qui nous envoient du contenu extrémiste, croyez-vous que devraient s'appliquer les mêmes obligations juridiques que pour les médias de radiodiffusion ordinaires? Si l'on diffuse quelque chose, on a une obligation, on doit en prendre acte.
    Je pense qu’il y a une distinction à faire entre les plateformes en ligne et les plateformes médiatiques. Je pense qu’il y a une différence importante. Je ne pense pas qu’il soit toujours utile de se concentrer uniquement sur le contenu. Dans bien des cas, les solutions à ce problème ont tendance à relever plus de la procédure et, en quelque sorte, de l'organisation. Si les consommateurs avaient plus de contrôle sur les algorithmes que YouTube utilise pour leur présenter de la musique ou de l’information, cela pourrait déjà régler une grande partie du problème.
    Cela ne veut pas dire que ces grandes organisations ne devraient pas être responsables: elles doivent certainement l'être. Mais le danger est aussi grave lorsque trop de règles gouvernementales entravent la liberté de choisir ce que l’on peut et ne peut pas voir sur Internet, ce n’est pas toujours...
    Qu’en est-il du contenu illégal?
    Si c’est illégal dans un pays en particulier, alors il faut absolument prendre des mesures pour s’assurer que... Mais dans bien des cas, du moins, d’après mon expérience de la modération du contenu, ce n’est pas tant une question de légalité ou d’illégalité: c'est plutôt qu'un certain contenu crée une atmosphère particulière, et le problème avec cette atmosphère est qu'elle refroidit le discours et rend les minorités ethniques, les transgenres et les personnes ayant des orientations sexuelles différentes beaucoup moins à l’aise de s'exprimer, et cela appauvrit le discours dans la sphère publique.
    Nous vivons dans un monde où, en ce moment, il y a un grave problème, à savoir que des groupes de personnes qui constituent une part importante de nos collectivités ne se sentent plus à l’aise de discuter de certaines choses dans Internet. Je ne pense pas que le simple fait d'appliquer la même recette qu'aux médias réglera ce problème. Il y a un énorme défi à relever pour restaurer un espace où les gens se sentent vraiment à l’aise d’entretenir une conversation publique. Je pense que c’est un défi énorme, mais extrêmement important.
     Merci.
    Le prochain intervenant est M. Saini, pour sept minutes.
    Bonjour à vous deux, messieurs.
    Monsieur Bengio, j’aimerais commencer par vous, parce que j’aimerais vous poser une question technique pour mieux comprendre le fonctionnement des algorithmes. Je suis sûr que vous connaissez l’expression « problème de la boîte noire ».
    Oui.
    Pouvez-vous l'expliquer? Pour moi, ça ressemble à ceci: il y a un algorithme, les données ne sont pas très bonnes, l’algorithme produit un résultat et vous tenez simplement pour acquis que le résultat est bon, sans qu'aucun humain ait pu voir quoi que ce soit ni interagir avec le processus. Pouvez-vous m’expliquer cela un peu plus clairement?
    Bien sûr. En fait, nous savons beaucoup de choses sur la façon dont ce résultat est obtenu. Nous savons qu'il est obtenu en fonction de l’optimisation de certains objectifs — par exemple, en minimisant l’erreur de prédiction dans un grand ensemble de données — ce qui nous en dit long sur ce que le système essaie d’accomplir. À la conception du système, il est possible d'évaluer dans quelle mesure cet objectif est atteint ainsi que le nombre moyen d'erreurs qu'il produit dans les nouveaux cas. Beaucoup d’autres choses peuvent être faites pour analyser ces systèmes avant même qu’ils ne soient mis entre les mains des utilisateurs.
    Ce n’est pas vraiment une boîte noire. La raison pour laquelle on le qualifie de boîte noire... En fait, il est très facile à examiner. Le problème, c’est que ces systèmes sont très complexes et qu’ils ne sont pas entièrement conçus par des humains. Les humains ont conçu leur mode d'apprentissage, mais ce qu’ils apprennent et ce qu’ils détaillent relève de leur propre fonctionnement. Ces systèmes apprennent à trouver des solutions aux problèmes. Nous pouvons examiner la façon dont ils apprennent, mais cela exige un effort de compréhension beaucoup plus important. On peut facilement examiner tous les chiffres qui y sont calculés. Tout est ouvert. Ce n’est pas noir: c’est juste très complexe. Ce n’est pas une boîte noire. C’est une boîte complexe.
    Il y a des choses qui sont très faciles à faire. Par exemple, une fois que le système est programmé et mis à l'essai, il est possible d'examiner un cas particulier où le système a été amené à prendre une décision. Il est alors très facile de déterminer quelles variables ont été les plus pertinentes et comment elles ont influencé le résultat. Il est possible de mettre en évidence certains détails qui expliquent le résultat.
(1630)
    Merci.
    Monsieur Wagner, j’aimerais vous poser une question au sujet d’un terme que vous avez utilisé dans un article que vous avez écrit récemment. Vous avez parlé de « quasi-automatisation » et de la nécessité de tenir les humains au courant. Pouvez-vous nous expliquer cela un peu plus clairement?
     Vous avez parlé de trois instances où vous estimiez que la participation des humains à la prise de décisions était discutable. Vous avez parlé des voitures autonomes. Vous avez parlé des fouilles à la frontière basées sur les données des dossiers passagers. Vous avez aussi parlé des médias sociaux.
     Peut-être pourriez-vous mieux définir ce terme pour nous, de sorte que nous comprenions mieux ce que vous vouliez dire.
    Avez-vous entendu cette question, monsieur Wagner?
     Je suppose que non. Est-ce que l’un de vous deux peut m’entendre maintenant?
    Je vous entends bien.
    Monsieur Wagner?
    Je pense que non.
    Oui. Je vais considérer cela comme un non.
    Votre temps est encore compté, monsieur Saini. J’espère que vous allez le récupérer.
(1635)
    Monsieur Bengio, j’ai une brève question. Je suis tombé sur le terme « singularité ». Est-ce une réalité?
    Non.
     Pourriez-vous nous l’expliquer un peu? Quand je l’ai lu, je me suis inquiété, comme vous pouvez le comprendre.
    Oui. C’est l’intention des gens qui...
    Donc, est-ce une chose réelle, et si elle l’est...
    Non.
    Ce n’est pas une réalité, donc. Pourquoi alors continue-t-on d’écrire à ce sujet?
    Malheureusement, l'intelligence artificielle donne lieu à beaucoup de confusion dans la tête des gens. Cela vient en grande partie de l’association que nous faisons avec la science-fiction.
    La vraie IA sur le terrain est très différente de celle qu’on voit dans les films. La singularité, c’est la théorie. C’est juste une théorie selon laquelle, une fois que l’IA sera devenue aussi intelligente que les humains, alors l’intelligence des machines s'emballera et elles deviendront infiniment plus intelligentes que nous.
    Il n’y a pas plus de raison de croire à cette théorie qu’il n’y en a, disons, de croire à la théorie contraire selon laquelle une fois qu’elles auraient atteint le niveau de l’intelligence humaine, elles pourraient difficilement aller au-delà, en raison des obstacles naturels que l'on peut imaginer.
    L'idée que cela puisse constituer un problème n'obtient pas beaucoup d'adhérents dans le monde scientifique, mais il y a des gens qui s’en inquiètent. Ils s'inquiètent de ce qui se passerait si les machines devenaient si intelligentes qu’elles pourraient prendre le contrôle de l’humanité à leur guise. Étant donné la façon dont les machines sont conçues aujourd’hui — elles apprennent de nous et elles sont programmées pour faire les choses que nous leur demandons de faire et que nous valorisons —, en ce qui me concerne, c’est très peu probable.
    C’est bien qu’il y ait des chercheurs qui réfléchissent sérieusement aux façons de se prémunir contre cette éventualité, mais c’est un domaine de recherche très marginal. Ce qui me préoccupe beaucoup plus, comme beaucoup de mes collègues, c’est la façon dont les machines pourraient être utilisées par les humains, et ce, à mauvais escient, de façons qui pourraient être dangereuses pour la société et pour la planète. Pour moi, c’est une préoccupation beaucoup plus importante.
    La sagesse actuelle de la société ne croîtra peut-être pas aussi rapidement que ne le fera la puissance de ces technologies, au fur et à mesure qu’elles se développeront. C’est ce qui me préoccupe le plus.
    Merci beaucoup.
     M. Wagner est de retour.
    Monsieur Wagner, avant qu’on nous coupe la parole, je citais un terme que vous aviez utilisé récemment dans une revue, la « quasi-automatisation ». Vous avez parlé de l’absence d’intervention humaine dans certains processus décisionnels discutables, par exemple, les voitures autonomes, les fouilles à la frontière et le contenu des médias sociaux. Le Dr Bengio a également mentionné les fausses nouvelles et la mauvaise utilisation de l’IA.
    Il me semble que, dans certains cas, les êtres humains ne constituent qu'une infime partie du processus et qu'on cherche à limiter leur intervention. Comment pouvons-nous nous assurer qu’il y ait toujours une dimension humaine dans la prise de décisions, surtout lorsqu’il s’agit de choses comme les fausses nouvelles et l’utilisation de la publicité politique?
    Cela représente un défi en ce sens que si nous présumons que l’intervention humaine à elle seule va tout régler, nous nous retrouverons dans une situation également difficile, parce que les êtres humains, pour toutes sortes de raisons, ne prennent souvent pas les meilleures décisions. Nous avons des centaines d’années d’expérience sur la façon de gérer les mauvaises décisions humaines, mais pas autant sur la façon de gérer la prise de décisions essentiellement automatisée. Mais les meilleures décisions viennent en général d’une bonne configuration des interactions entre les humains et les machines.
    Si vous regardez la façon dont les décisions sont prises à l’heure actuelle, les êtres humains approuvent souvent automatiquement des décisions automatisées prises par l'IA ou les algorithmes, apposent l'estampille et on se dit: « Super, un être humain a décidé ceci. » Dans les faits, la raison était de contourner différents règlements juridiques et différents principes des droits de la personne et c'est pourquoi nous parlons de quasi-automatisation. On dirait qu'il s'agit d'un processus automatisé, mais dans les faits, il n'y a eu que trois à cinq secondes d'intervention humaine pour examiner la chose.
    Dans l'article que j’ai rédigé et également dans les lignes directrices du Groupe de travail sur l’article 29, des directives ont été conçues en fonction de ce qu’on appelle une « intervention humaine significative » et seulement lorsque cette intervention est significative. Lorsque les êtres humains ont suffisamment de temps pour comprendre la décision qu’ils prennent, suffisamment de formation, suffisamment de soutien pour pouvoir exécuter cette intervention unique, alors on considère qu'il s'agit d'une prise de décision significative.
    Cela signifie également que si vous êtes dans une voiture autonome, vous avez besoin de suffisamment de temps en tant qu’opérateur pour pouvoir vous arrêter, effectuer un changement, prendre des décisions et, bien souvent, on construit des systèmes technologiques qui ne le permettent pas. Si l'on songe aux deux récents écrasements de Boeing 737 Max, c’est exactement ce qui s'est passé: il y avait une interface entre des systèmes technologiques et des systèmes humains et on n'arrivait plus à savoir ou l’on ne savait pas exactement jusqu'à quel point les humains pouvaient intervenir. Même s’ils avaient eu la maîtrise de l'appareil et qu'ils avaient pu appuyer sur le gros bouton rouge pour contourner le système automatisé, ils ne savaient pas si le fait d'actionner cette commande aurait suffi pour leur remettre la maîtrise de l’avion.
    Si je comprends bien le débat actuel à ce sujet, la question demeure ouverte. C'est une question qui est débattue actuellement. Avec les pilotes automatiques et autres systèmes automatisés d’aéronefs, cela nous amènera de plus en plus à nous poser des questions dans la vie de tous les jours, non seulement au sujet des avions, mais aussi au sujet des régimes d’assurance, de la façon de publier des commentaires en ligne et de la façon dont les services gouvernementaux seront offerts. Il est extrêmement important de bien faire les choses.
(1640)
    Merci beaucoup.
     Monsieur Gourde.

[Français]

     Merci, monsieur le président.
    Je remercie les témoins d'être présents.
    Je vais m'adresser à vous, monsieur Bengio. Peut-être me répondrez-vous en français.
    L'intelligence artificielle trouve des solutions à nos problèmes et améliore les services, la connaissance et les informations que nous recevons. Jusque là, cela me va. Cependant, vous m'avez vraiment inquiété quand vous avez dit que l'intelligence artificielle pouvait trouver d'elle-même des solutions à des problèmes. Que se passerait-il si l'intelligence artificielle déterminait que le problème, c'est nous?
    Vous avez parlé de drones tueurs, à la rigueur capables de génocides. Si la programmation de l'intelligence artificielle comprend une liste de tous les parlementaires canadiens à éliminer dans l'espace d'une semaine, devrons-nous nous inquiéter? Est-ce de la pure fiction? Cela pourrait-il se produire?
     Certaines des choses que vous avez dites sont de la pure fiction, mais d'autres méritent que l'on s'inquiète.
    Je pense que l'on doit effectivement s'inquiéter d'un système recourant à l'intelligence artificielle et programmé pour cibler, disons, tous les parlementaires d'un certain pays. C'est une chose tout à fait plausible d'un point de vue scientifique puisqu'elle ne soulève que des questions d'ordre technologique en lien avec la mise en place d'un tel système. C'est d'ailleurs pour cette raison que plusieurs pays discutent aujourd'hui d'un traité qui bannirait ce genre de systèmes.
    Il faut par contre se rappeler que ces systèmes ne sont pas vraiment autonomes à haut niveau. Ils vont simplement exécuter les instructions que nous leur donnerons. Par conséquent, un système ne va pas décider de lui-même de tuer quelqu'un. Il va falloir le programmer dans ce but.
     En règle générale, ce seront toujours les humains qui vont décider ce qui constitue un bon ou un mauvais comportement du système, un peu comme on fait avec les enfants. Le système va donc apprendre à imiter le comportement humain. Le système trouvera ses propres solutions, mais selon des critères ou un objectif choisi par les humains.
    On a beaucoup parlé de pertes d'emplois, d'efficacité et du fait que l'intelligence artificielle pourrait finir par remplacer les contremaîtres dans les usines. Ainsi, je pourrais être avisé au moyen de mon téléphone intelligent du travail qui m'attend aujourd'hui sur ma ligne de production. À la rigueur, l'intelligence artificielle pourrait accomplir elle-même une grande partie du travail.
    Est-ce que les travailleurs vont finir par n'aller à l'usine que pour des tâches trop difficiles à faire exécuter par des robots, comme déplacer certaines choses? Il est même question que l'intelligence artificielle contrôle les transports. Est-il possible qu'une grande partie de la population se retrouve au chômage d'ici 10 à 20 ans?
(1645)
    Oui, c'est tout à fait possible.
    L'exemple que vous donnez d'une machine qui assigne le travail existe déjà. Par exemple, les messagers qui transportent des lettres d'un bout à l'autre de la ville sont souvent guidés aujourd'hui par des systèmes recourant à l'intelligence artificielle et qui décident qui va où porter quel paquet. Il n'y a donc plus ce contact humain entre le répartiteur et la personne qui exécute les tâches.
    Au fur et à mesure que la technologie progresse, il est clair que de plus en plus de ces emplois, surtout les plus routiniers, vont être automatisés. Dans l'exemple des messagers que je viens de donner, l'emploi le plus routinier et le plus facile à automatiser était celui du répartiteur. Le travail de l'humain qui se promène dans les rues de la ville est plus difficile à automatiser pour l'instant, mais cela va probablement finir par arriver.
    Il est donc vraiment important que les gouvernements planifient, prévoient ce qui s'en vient et réfléchissent à des mesures qui réduiront le plus possible la misère humaine qui pourrait résulter de cette évolution si on ne faisait que la laisser suivre son cours.
    Ma dernière question porte sur l'éthique.
    Notre gouvernement recourt de plus en plus à l'intelligence artificielle pour la prestation de ses services à la population canadienne. Tous les gouvernements du monde en font autant. Si j'ai besoin de services de la part de mon gouvernement et que je m'aperçois que les réponses que je reçois ont été générées par de l'intelligence artificielle — une réalité qui se rapproche à grands pas —, comment puis-je m'assurer qu'un humain m'a écouté? Jusqu'à quel point puis-je invoquer des considérations éthiques pour exiger d'être servi par une autre personne?
    Cela dépend du genre de service. Dans certains cas, tout ce qui importe est que ce soit bien fait.
    Pour ma part, j'aimerais mieux obtenir des réponses rapides et efficaces de la part du fisc, même si elles doivent être générées par une machine. Je prends cet exemple puisque nous sommes en plein dans la période des impôts.
    Par contre, si j'ai des questions sur ma santé, que la discussion prend un tour plus personnel ou que je suis moi-même malade et à l'hôpital, je veux avoir un humain en face de moi. Cela ne me dérange pas que cet humain utilise la technologie pour mieux faire son travail. Cependant, certaines situations comportent des préoccupations humaines et relationnelles au sujet desquelles il est préférable d'interagir avec un humain.
    Je vous remercie.

[Traduction]

     Monsieur Picard, vous avez cinq minutes.

[Français]

    Merci, monsieur le président.

[Traduction]

    Essayons de parler du côté positif de l’IA, car tous ces enjeux nous ont inspiré de la peur.
     Monsieur Wagner, vous avez parlé de leadership moral. À mon avis, la morale est un peu plus large que l’éthique. L’éthique porte sur les valeurs que l'on décide de promouvoir et qui sont appliquées par les instances de gouvernance. Mais la morale comporte un aspect sociétal: l’IA est utilisée par les personnes et le système en général est d'abord créé par les humains. Le système doit nous aider à gouverner selon nos valeurs, de la façon que vous proposez, c'est-à-dire moralement. Qui fera cela? Qui est assez crédible pour que je me dise, voilà, j'ai ici une personne sage? C'est sur ce genre de personne que je devrais me fier pour établir ce qui sera dorénavant le guide moral de mes systèmes d’intelligence artificielle.
    Le problème, je pense, c'est qu’à l’heure actuelle, la plupart de ces décisions sont prises par des entreprises privées, presque jamais par des gouvernements démocratiquement élus, et c’est là le problème au regard des citoyens, des droits, de la gouvernance. Cela pose un défi considérable, mais cela ne veut pas dire que c’est impossible. Qu’il s’agisse du commerce des technologies que l'on choisit d’exporter; du développement des technologies et du choix de celles-ci; de la recherche et de son financement pour les différentes technologies, de celles que l'on privilégie et que l'on veut faire aboutir, autant d'occasions de faire preuve de leadership moral — et c’est, je crois, le mot qui convient ici.
    Mais à franchement parler, il n’y a guère de pays au monde qui mettent réellement la sauvegarde des intérêts de leurs citoyens et des droits de la personne au centre de leur politique en matière d’intelligence artificielle. Beaucoup en parlent et font des efforts, mais souvent ils disent: « Ah, mais on n'est pas vraiment sûr. Cela pourrait gêner le développement économique, déplaire à certaines de nos entreprises sur tel ou tel point. »
    Il faut, je pense, avoir la volonté et la force de prendre position, mais l'objection me semble importante parce que si les autres pays ne suivent pas, alors notre position devient intenable. Le règlement général sur la protection des données de l'UE cerne bien la problématique concernant les données. Mais l’intelligence artificielle, les algorithmes, soulèvent toute une série de problèmes nouveaux, de défis nouveaux qu’il faudra résolument affronter pour assurer le respect des droits de la personne et des retombées positives pour tous.
(1650)

[Français]

     Monsieur Bengio, j'aimerais entendre vos commentaires sur cette question.
    À l'heure actuelle, les lois qu'un pays adopte pour protéger un tant soit peu la vie privée vont peut-être devenir contre-productives puisqu'elles risquent d'empêcher ce pays de développer pleinement son recours à l'intelligence artificielle. Ce pays aura alors un problème de leadership. Or, vous avez tous les deux indiqué que le Canada voulait être un chef de file dans différents domaines.
    Je me demande en premier lieu où doit commencer ce leadership, le concept étant tellement vaste. Par ailleurs, le leadership canadien, qui est probablement établi en fonction des valeurs canadiennes, ne sera peut-être pas à la hauteur du leadership d'un autre pays, basé sur un autre système de valeurs.
    Vous posez une bonne question, mais, selon moi, il n'y a pas de réponse générale.
     Cela exige de faire appel à des experts qui vont, d'une part, examiner les questions éthiques et morales et, d'autre part, se pencher sur les préoccupations technologiques et économiques touchant à chacun des domaines où c'est pertinent, dans le but d'établir des balises qui permettront à la fois de favoriser l'innovation et de protéger le public. Je crois que c'est généralement possible. Il y a bien sûr des protestations de la part de plusieurs compagnies qui souhaitent que l'on n'impose pas trop de barrières. Or, dans la plupart des cas, je ne crois pas que ce qui est attendu pose un problème.
    Comme nous l'avons dit tout à l'heure, il y a des problèmes dans certaines situations, mais il n'y a pas de solution facile. Il a notamment été question des [difficultés techniques] vidéos illégales qui se retrouvent sur Facebook. Le problème, c'est qu'il n'existe pas encore de moyens technologiques pour détecter ces vidéos assez rapidement, même si Facebook fait de la recherche pour essayer d'améliorer cette détection automatique. Cependant, il n'y a pas assez d'êtres humains qui surveillent tout ce qui est mis sur Internet pour l'en retirer rapidement et empêcher sa publication.
     La tâche est pratiquement impossible et il n'y a que trois solutions possibles: on ferme le tuyau, on attend d'avoir développé une meilleure technologie, ou on accepte que ce ne soit pas parfait et que des humains effectuent la surveillance. Après tout, c'est déjà le cas à l'heure actuelle, alors que les gens ont la possibilité de cliquer sur un bouton pour signaler du contenu inacceptable.

[Traduction]

     Merci.
    Je veux simplement signaler au Comité qu'il nous reste seulement cinq minutes environ pour les questions et encore trois intervenants inscrits: MM. Kent, Baylis et Angus. Étant donné les nombreux retards, je propose que l'on passe aux travaux du Comité un peu plus tard, mais à vous de voir.
    Qu’en dites-vous? Je suis d'avis qu’il nous faut entendre ces questions, mais j’aimerais avoir votre assentiment pour ce faire.
    Des députés: D'accord.
    On n'empiètera sur les travaux du Comité que d’environ huit minutes.
    D’accord, nous allons continuer.
    Le prochain intervenant est M. Kent, pour cinq minutes.
    Merci, monsieur le président.
    Pour gagner du temps, j’aimerais poser à nos deux témoins une dernière question, concernant la réglementation dans un monde numérique sans frontières.
    Croyez-vous qu’il soit nécessaire de conclure des traités internationaux qui régiraient le développement et l’utilisation de l’intelligence artificielle à l'instar de ce qu'a fait l’UE avec son nouveau RGPD, d'une portée inconnue dans la réglementation canadienne? Le droit d’user et d’abuser de l’intelligence artificielle doit-il, selon vous, faire l’objet d’un traité international substantiel et exécutoire — le mot clé est « exécutoire » — en régissant les modalités d’exercice?
(1655)
    Je pense qu’il faut aller dans cette direction. Ce ne sera pas parfait parce qu’il y aura des pays qui n'y adhéreront pas ou certains pays pourront peut-être en affaiblir la portée.
    Une réglementation en la matière, même imparfaite — on parle ici plus particulièrement de règlements internationaux — vaut mieux que rien du tout, et de loin.
    Monsieur Wagner.
    L'expérience m'a enseigné que lorsqu'on essaie d’élaborer des règlements généraux pour toute l’IA, tous les algorithmes ou toute la technologie, cela finit toujours par clocher quelque part.
    Mais je rejoins M. Bengio en ce sens qu'il existe des règlements internationaux ciblés (touchant, par exemple, les systèmes de destruction automatisés) et qu'il y a déjà tout un processus de travail en cours à Genève et ailleurs qui, à mon avis, est extrêmement important.
    On peut aussi se demander si le Canada veut lui aussi devenir un État doté de protections équivalentes au RGPD et c'est aussi, à mon avis, une considération pertinente car cela améliorerait considérablement la circulation des données et la protection de la vie privée.
    Tous les autres domaines doivent, je pense, être examinés de façon sectorielle. Prenons les élections, par exemple, il arrive souvent que l’intelligence artificielle et d’autres systèmes automatisés exploitent des faiblesses existantes de l’environnement réglementaire. Donc, comment peut-on s'assurer, par exemple, que les lois sur le financement des campagnes électorales sont améliorées dans des contextes précis, mais aussi que ces contextes sont améliorés de manière à tenir compte de l’automatisation? Prenons le secteur des médias et les questions s'y rapportant, comment s'assurer que nos lois actuelles s’adaptent et reflètent l’intelligence artificielle?
    On obtiendra de meilleurs résultats, je pense, en s'appuyant sur ce que l'on a déjà, plutôt qu'en cherchant à élaborer une nouvelle réglementation applicable à toute l’IA et tous les algorithmes.
     Cela vaut également au niveau international, où il s’agit vraiment de s’appuyer sur ce qui existe déjà et de le développer, que cela concerne les contrôles des biens à double usage, les médias ou les défis liés aux élections. Il existe déjà des instruments à cet égard, je pense. C’est plus efficace que ne le serait un traité universel sur l’IA.
    Merci.
    Merci, monsieur Bengio, de votre explication et de votre discussion sur les similitudes. J’ai eu l’occasion de regarder une ancienne version de 2001, Une Odyssée de l’espace et la bataille entre l’homme et HAL sur le contrôle de la navette spatiale. Votre démenti de la réalité de la similarité était rassurant. Merci.
    Merci, monsieur Kent.
    Le prochain intervenant est M. Baylis, pour cinq minutes.
    Y a-t-il un pays qui réglemente directement l’IA?
    Nous commencerons par vous, monsieur Wagner.
    S'il y a des pays qui réglementent directement l’IA, de façon générale, à ma connaissance actuellement? Non. On a des règlements propres à l’IA dans différents domaines; par exemple, le Règlement général pour la protection des données.
    Monsieur Bengio, en connaissez-vous certains spécifiquement, ou s’agit-il de sous-ensembles d’un règlement général?
     Non, je ne crois pas que ce soit le cas. Je suis d’accord avec M. Wagner pour dire que nous voulons une réglementation propre au secteur. C’est aussi une protection pour l’innovation — pour s'assurer que l'on trouve le bon compromis qui a du sens sur les plans éthique et technique.
    Personne ne dit que l'on va réglementer l’IA de façon générale. Ce que vous nous suggérez de faire se fait de plus en plus, monsieur Wagner, c’est-à-dire que l'on réglemente déjà, par exemple, les propos haineux. Prenez ce cas. Comment l’IA sera-t-elle réglementée dans le contexte des discours haineux? Est-ce l’approche que vous proposez tous les deux?
    Oui.
    Y a-t-il des secteurs particuliers où le besoin est immédiat? Vous qui êtes à l’avant-garde du développement de l’IA, voyez-vous des domaines particuliers? Faut-il vraiment prendre tous nos règlements un par un et faire en sorte qu’ils soient tous « à l’épreuve de l’intelligence artificielle ». Selon vous, sur quoi devrions-nous concentrer nos efforts? Sur quoi les autres administrations ont-elles concentré les leurs?
(1700)
    Je pense avoir déjà mentionné les applications militaires et de sécurité qui méritent plus d’attention. Il nous faut agir rapidement à cet égard, pour éviter le genre de course aux armements entre les pays qui mènerait à la prolifération de ces drones tueurs. Cela signifierait qu’il serait très facile, même pour des terroristes, de mettre la main sur ces choses. C’est un exemple où il n’y a aucune raison d’attendre. La ligne rouge a été définie...
    Est-ce comme les mines antipersonnel?
    Oui, tout à fait.
    D’accord. C’est le cas de l’armée.
    Monsieur Wagner.
    Les drones automatisés, ou ce que l’on appelle les LAWS — les systèmes d’armes autonomes létales — sont certainement des domaines qui méritent davantage d'attention, selon moi. De même que la question déjà abordée ici de la propagation ou la prolifération des technologies de surveillance et d’intelligence artificielle, qui peuvent être utilisées à mauvais escient par les gouvernements autoritaires, est un autre domaine qu'il est urgent d’examiner de plus près.
    Ensuite, bien sûr, il y a des secteurs entiers qui ont déjà été mentionnés par le Comité — les médias, les questions liées aux discours haineux et les questions liées aux élections. Il existe un nombre considérable de systèmes techniques automatisés qui changent la façon dont le champ de bataille fonctionne et dont les débats se déroulent.
    Il faut vraiment prendre du recul, comme cela a été dit plus tôt, concernant la possibilité de résoudre ou corriger le problème des discours haineux grâce à l’intelligence artificielle. On ne doit pas s'attendre, je pense, à ce qu’un système automatisé puisse identifier correctement le contenu de manière à prévenir les propos haineux ou à permettre de régler ces problèmes afin de créer un contexte favorable. Je crois plutôt que l'on a besoin de toute une panoplie d’outils. Il s’agit précisément de ne pas compter uniquement sur des solutions humaines ou techniques entièrement automatisées, mais plutôt de mettre au point une vaste gamme d’outils en fonction des problèmes afin de concevoir et créer des espaces de débat dont nous puissions être fiers, plutôt que de s'enferrer dans une situation en disant: « Ah, on va régler ce problème pour vous avec notre système sophistiqué d’intelligence artificielle. »
    D’accord.
    On parle beaucoup, et vous l’avez mentionné à quelques reprises, de la transparence. Je ne parle pas de la transparence du fonctionnement d’un algorithme, mais de la transparence de ce à quoi vous faites face. C’est un robot ou un appareil, par opposition à un être humain. Ce sont des robots pilotés par l’intelligence artificielle. Qu’en pensez-vous?
    Nous commencerons de nouveau avec vous, monsieur Bengio.
    C’est généralement assez évident si vous avez affaire à une machine ou à un humain, parce que les machines ne sont pas très bonnes pour imiter les humains. À l’avenir, on devrait certainement avoir des règlements pour clarifier cela, pour que l’utilisateur sache s’il parle à un humain ou à une machine.
    Monsieur Wagner.
    Je suis tout à fait d’accord. Il y a aussi des cas, à ce que je sache, en Californie, où cela fait déjà l’objet d’un débat — pour trouver des mécanismes qui obligeraient les systèmes automatisés comme les robots à se déclarer comme des robots. Surtout dans le contexte des élections, et aussi dans d’autres cas, cela peut être très utile. Bien sûr, cela ne veut pas dire que tous les problèmes sont réglés, mais c’est certainement mieux que ce que l'on a à l’heure actuelle.
    Merci, monsieur Baylis.
    Le dernier intervenant pour trois minutes est M. Angus.
     Merci.
    Monsieur Bengio, ma circonscription est plus grande que la Grande-Bretagne, et je vis dans ma voiture. Ma voiture est très utile. Elle me dit quand je suis fatigué et quand je dois prendre une pause, mais en fonction de routes qui ne ressemblent pas aux routes du nord de l’Ontario. Je circule toujours sur la voie centrale pour éviter les nids-de-poule, les animaux et m’éloigner des 18 roues. Je surveille l'écran et parfois, cinq minutes après avoir quitté la maison, un message me dit que j’ai déjà dépassé ma capacité de sécurité.
    Tout cela me dérangeait et m'agaçait, et j'ai eu le goût de mettre la hache dedans. Puis j’ai lu le livre de Shoshana Zuboff sur le capitalisme de surveillance disant que tout cela sera ajouté à mon dossier à un moment donné. C’est sur cela que je serai jugé.
    À mon avis, cela soulève la question du droit du citoyen. Le droit du citoyen à une autonomie personnelle et le droit de prendre des décisions. Si, en tant que citoyen, je me fais arrêter par la police parce que j’ai fait une erreur, on me juge là-dessus et je peux tout de même porter l’affaire devant un tribunal si je m’en donne la peine. C’est juste. C’est le droit du citoyen. En vertu des systèmes qui sont mis en place, je n’ai aucun droit en ce qui concerne un algorithme, conçu par quelqu’un en Californie, qui décide de ce qui est la bonne route.
    La question qui se pose est de savoir comment réorienter cette discussion pour parler des droits des citoyens à une responsabilité réelle afin que leur autonomie personnelle puisse être protégée et que les décisions prises ne soient pas arbitraires. En ce qui concerne les algorithmes, les voies de recours pour faire reconnaître ces droits restent à trouver.
    Est-ce ce rôle que les législateurs sont appelés à jouer selon vous? Sera-t-il confié à un organisme de réglementation? Comment faire, à l’ère des villes intelligentes et du capitalisme de surveillance, pour que le citoyen continue d’être protégé et d'avoir un droit de recours?
(1705)
    C’est intéressant. Cette question est liée à la question du déséquilibre des pouvoirs entre l’utilisateur et les grandes entreprises dans le cas de l’utilisation des données. Vous devez signer ces consentements. Sinon, vous ne pouvez pas faire partie de, disons, Facebook.
    C’est la même chose dans la façon dont les produits sont définis à distance. L’utilisateur n’a pas accès aux détails des modalités. On peut ne pas être d’accord avec les décisions qui sont prises, mais on n’a aucun recours.
    Vous avez tout à fait raison. L’équilibre du pouvoir entre les utilisateurs et les entreprises qui offrent ces produits doit sans doute être repensé.
    Tant que le marché fait son travail, c’est-à-dire qu’il assure une concurrence suffisante entre des produits comparables, il y a au moins une chance que les choses se passent bien. Malheureusement, on s'achemine vers un monde où ces marchés sont de plus en plus dominés par un seul ou quelques acteurs, ce qui signifie que les utilisateurs n’ont pas le choix.
    Il nous faut repenser des choses comme les notions de monopoles et peut-être les rétablir. Il nous faut nous assurer, d’une façon ou d’une autre, de rééquilibrer la différence de puissance entre les gens ordinaires et les entreprises qui fabriquent ces produits.
    Merci.
    Je tiens à remercier nos témoins.
    Je pense qu’il est alarmant de vous entendre dire que l’IA est essentiellement non réglementée. On le constate également avec les monopoles de données et on s'efforce de comprendre ce que nous faisons, en tant qu’organismes de réglementation, pour protéger nos citoyens.
    Le défi est devant nous et ce n’est certainement pas facile, mais je pense que nous allons suivre vos conseils. Monsieur Wagner, vous avez dit de commencer tôt, mais on a l’impression qu’il est déjà trop tard. Nous ferons de notre mieux.
    Je tiens à vous remercier d’être venus de Vienne et de Montréal aujourd’hui.
    Nous allons suspendre la séance pendant quelques minutes pour permettre à nos invités de sortir afin que nous puissions nous occuper des travaux du Comité.
    Merci.
    [La séance se poursuit à huis clos.]
Explorateur de la publication
Explorateur de la publication
ParlVU