:
Merci beaucoup de m’avoir invité.
Cela fait déjà près de cinq ans que je fais des recherches sur les défis éthiques que soulèvent les algorithmes et l’IA. Il m'apparaît désormais clair que la promesse de l’IA réside en grande partie dans son apparente capacité à remplacer ou à augmenter l'expertise humaine, dans tous ses champs d'application. Par sa nature ubiquiste, cette technologie touche inévitablement aux dimensions éthiques et politiques de l'emploi, des pratiques et des organisations qui l'utilisent. Comme les défis que soulève l’IA sont, à plus petite échelle, caractéristiques des défis politiques et éthiques auxquels nous sommes confrontés dans la société, il n’est certes pas facile de les reconnaître et de les résoudre.
Je sais, d’après les témoignages que vous avez entendus lors des séances précédentes, qu'il a beaucoup été question des défis de l’intelligence artificielle, sur les plans de la responsabilisation, de la partialité, de la discrimination, de l’équité, de la transparence, de la protection de la vie privée pour n'en citer que quelques-uns. Ce sont là autant de défis extrêmement importants et complexes qui méritent votre attention et l’attention des décideurs du monde entier, mais dans les 10 minutes qui me sont accordées, je vais moins m'attarder sur la nature et l’étendue des défis éthiques de l’IA et davantage sur les stratégies et les outils que nous avons à notre disposition pour y faire face.
Vous avez aussi beaucoup entendu parler des outils disponibles pour relever ces défis de nature éthique, comme les audits portant sur les algorithmes et les sciences sociales, la recherche multidisciplinaire, les partenariats public-privé et les processus participatifs de conception et de réglementation. Toutes ces solutions sont essentielles, mais je crains que nous n'appliquions la mauvaise stratégie ou du moins une stratégie incomplète pour assurer la gouvernance éthique et juridique de l’IA. Cela étant, nous nous attendons peut-être trop à ce que nos efforts actuels nous permettent d'assurer un développement et une utilisation éthiques de l’IA.
Pour le reste de ma déclaration, je veux parler des lacunes importantes que je constate dans les tentatives actuelles visant à régir l’intelligence artificielle grâce, d'une part, aux lois sur la protection des données et de la vie privée et, d'autre part, à l’autogouvernance fondée sur certains principes. Je suis surtout préoccupé par le fait que, trop souvent, ces stratégies partent de l'idée que les défis éthiques de l’IA sont de nature individualiste, tandis qu'il s'agit plutôt de défis collectifs, exigeant des solutions collectives.
Pour commencer par les lois sur la protection des données et de la vie privée, il incombe trop souvent aux particuliers d'assumer la responsabilité de protéger leurs intérêts vitaux, leur vie privée, leur autonomie, leur réputation et ce genre de choses. Trop souvent, les lois sur la protection des renseignements personnels finissent par protéger les données elles-mêmes plutôt que les personnes que ces données représentent. Cette lacune est visible dans plusieurs domaines du droit à l’échelle mondiale. Les concepts fondamentaux de la protection des renseignements personnels et de la vie privée — soit les données personnelles, les renseignements permettant d’identifier une personne et ainsi de suite — sont généralement définis en fonction d’une personne identifiable, ce qui veut dire que les données doivent pouvoir être associées à une personne afin de tomber sous le coup de la loi et donc d’être protégées.
L’accent mis sur l’individu ne correspond vraiment pas aux capacités de l’IA. Nous sommes enthousiasmés par l’IA précisément parce qu'elle permet de concevoir des modèles restreints à partir de plusieurs individus, de les regrouper de façon exploitable, et de créer un corpus des connaissances généralisables à partir de données ou de dossiers individuels. Dans les analyses de données modernes qui sont à l’origine de tant de technologies que nous considérons comme étant de l’IA, l’individu n’a pas vraiment d’importance. L’intelligence artificielle ne s’intéresse pas à ce qui fait l'unicité d'une personne, mais plutôt à ce qui la rend semblable aux autres. L’intelligence artificielle a fait passer la protection de la vie privée du niveau de la préoccupation individuelle au niveau du défi collectif, mais les cadres juridiques existants accordent relativement peu d’attention aux aspects collectifs de la protection de la vie privée. Je pense que c’est quelque chose qu'il faut vraiment changer.
Cette lacune s’étend aux types de protections juridiques caractéristiques des lois sur la protection des renseignements et de la vie privée. Ces protections continuent de reposer essentiellement sur l’idée que les gens peuvent prendre des décisions éclairées sur la façon de produire des données, sur la manière dont ces données sont recueillies et utilisées et sur les situations dans lesquelles elles ne devraient pas être utilisées. Il incombe vraiment aux personnes d’être bien informées et de faire un choix rationnel quant à la façon dont leurs données sont recueillies et utilisées.
Comme l’indique son nom, le consentement éclairé ne fonctionne que si un choix rationnel et éclairé est réellement possible. Encore une fois, nous sommes enthousiasmés par l’IA précisément parce qu’elle peut traiter énormément de données à grande vitesse, parce qu’elle peut dégager des tendances nouvelles et non intuitives à partir d'une série de données, et parce qu’elle peut « fabriquer » des connaissances à partir de ces données. L'IA est emballante parce qu'elle repose sur un système d'analyse de données très puissant, rapide et dont le résultat n'est pas prévisible. Cependant, comme elle est d'un appétit vorace en données personnelles et qu’elle a la capacité de réutiliser à l’infini les données absorbées, il est normalement impossible, même pour une personne particulièrement motivée, de faire un choix éclairé quant à la façon dont ses données personnelles doivent être recueillies et utilisées. Dans ces conditions, le consentement n’offre plus aucune protection véritable et ne permet pas aux personnes de contrôler la façon dont leurs données sont recueillies et utilisées.
Pour ce qui est de la protection des renseignements personnels et de la vie privée dans l'avenir, nous allons devoir réfléchir davantage à la façon de transférer une part équitable de la responsabilité éthique aux entreprises, aux organismes publics et aux autres formes de collectifs. Une partie du fardeau éthique, qui est normalement imposé à la personne, devrait être transférée à ces entités qui devraient, par exemple, justifier la collecte et le traitement de données avant le fait, plutôt que de laisser aux particuliers le soin de protéger proactivement leurs propres intérêts.
La deuxième stratégie gouvernementale dont je veux parler a suscité une mobilisation sans précédent à l’échelle mondiale. À ce jour, pas moins de 63 initiatives public-privé ont été lancées dans le but de déterminer comment composer avec les défis éthiques de l’IA. Il semble que toutes les grandes entreprises spécialisées en intelligence artificielle ont participé à une ou plusieurs de ces initiatives et ont noué des partenariats avec des universités, des organisations de la société civile, des organismes sans but lucratif et d’autres types d’organisations. Plus souvent qu’autrement, ces initiatives débouchent sur l'adoption d'un ensemble de principes, de valeurs ou de normes éthiques de haut niveau destinés à encadrer le développement et l’utilisation de l’IA.
La stratégie semble être la suivante: les défis de nature éthique associés à l’IA sont mieux abordés suivant une approche du haut vers le bas, approche selon laquelle les principes de haut niveau sont traduits en exigences pratiques servant à guider les développeurs, les utilisateurs et les organismes de réglementation. Les défis éthiques de l’IA sont, plus souvent qu’autrement, présentés comme des problèmes à résoudre par des solutions techniques et des changements au processus de conception. Le raisonnement semble être qu’un manque d’éthique conduit à de mauvaises décisions de conception qui créent des systèmes nuisibles pour les particuliers et pour la société.
Ces initiatives produisent essentiellement des cadres d’autoréglementation qui ne sont pas encore contraignants, dans quelque sens que ce soit. Il semble que le procès d'une intelligence artificielle contraire à l’éthique revienne à blâmer les particuliers, les développeurs et les chercheurs qui se seraient mal comportés, plutôt que de reconnaître une forme d’échec collectif des institutions, des entreprises ou d’autres types d’organisations qui stimulent le développement de l'IA.
Cela dit, je ne comprends pas entièrement pourquoi nous présumons que les principes et les codes d’éthique imposés par le haut de la pyramide vont rendre plus éthiques ou dignes de confiance l’intelligence artificielle et les organisations qui créent et utilisent l'IA. Le recours aux principes et à l’éthique n’a rien de nouveau. Il existe beaucoup de professions bien établies, comme la médecine et le droit, qui appliquent des principes depuis très longtemps pour définir leurs valeurs et leurs responsabilités éthiques et pour régir le comportement des professionnels et des organisations qui les emploient.
Il suffirait de considérer que le développement de l’IA est une profession pour se rendre très vite compte que plusieurs caractéristiques nécessaires font défaut afin qu’une approche fondée sur des principes fonctionne réellement dans la pratique.
Premièrement, le développement de l’IA n'obéit pas à des objectifs communs ni à des devoirs fiduciaires envers les utilisateurs et les particuliers. Prenons la médecine pour une démonstration a contrario: le développement de l’IA ne sert pas l’intérêt public au premier chef, au même sens que le fait la médecine. Les promoteurs ne sont pas investis d’obligations fiduciaires envers les utilisateurs ou les personnes touchées par l’IA, parce que l’IA est le plus souvent mise au point dans un environnement commercial où la seule obligation fiduciaire est due aux actionnaires de l’entreprise. Cela étant, ces principes, dont l'objet est de protéger les intérêts des utilisateurs et du public, risquent d'entrer en conflit avec des intérêts commerciaux. On ne sait pas très bien comment ces problèmes seront réglés dans la pratique.
Deuxièmement, l'histoire du développement de l’IA est relativement jeune et nous manquons de pratiques exemplaires bien établies et éprouvées. Il existe des ordres professionnels qui encadrent le génie informatique, de même que des codes de déontologie, mais comme il ne s’agit pas d’une profession légalement reconnue ou agréée, dans la pratique, les ordres professionnels ont très peu de pouvoir sur leurs membres. Leurs codes de déontologie sont plutôt généraux et relativement brefs par rapport à ceux d’autres professions.
La troisième caractéristique qui semble faire défaut au développement de l’IA tient au manque de méthodes éprouvées pour traduire les principes de haut niveau en exigences pratiques. Les méthodes dont nous disposons existent ou ont été testées seulement dans des milieux universitaires et pas dans des environnements commerciaux. Passer de principes généraux à des exigences pratiques est un processus très difficile. Les résultats des initiatives d’éthique de l’IA que nous avons vus jusqu’à maintenant reposent presque tous sur des concepts vagues et contestés, comme l’équité, la dignité et la responsabilité. Très peu de conseils pratiques sont prodigués.
Les désaccords entourant la signification de ces concepts ne surgissent que lorsque vient le temps de les appliquer. Nous avons vu que l’énorme quantité de travail nécessaire pour régler les questions d'éthique en IA suivant une approche du haut vers le bas n'a pas donné grand-chose sur le plan pratique. La plus grande partie du travail reste à faire.
Je conclurai en disant que l’éthique n’est pas censée être facile ou stéréotypée. À l’heure actuelle, nous pensons trop souvent et uniquement que les problèmes d’éthique en AI appellent des solutions techniques, des listes de contrôle ou des évaluations d’impact, alors que nous devrions en fait célébrer les désaccords normatifs parce qu’ils représentent fondamentalement le fait que l'on prend au sérieux les défis éthiques dans la pluralité d’opinions caractéristique des sociétés démocratiques.
Le travail difficile qu’il nous reste à faire en matière d’éthique dans le cas de l’IA consiste à passer des principes de haut niveau aux exigences pratiques. C’est seulement ainsi, et en soutenant ce genre de travail que nous arriverons vraiment à comprendre les défis éthiques de l’IA dans la pratique.
Merci. Je serai heureux de répondre à vos questions plus tard.
:
Merci, monsieur le président.
[Français]
Je remercie les membres du Comité permanent de l'accès à l'information, de la protection des renseignements personnels et de l'éthique de me donner l'occasion de leur parler de l'intelligence artificielle en radiologie et plus particulièrement des questions éthiques et juridiques liées à l'implantation de cette technologie dans le milieu de l'imagerie médicale.
Je m'appelle An Tang. Je suis médecin radiologiste et clinicien-chercheur basé à l'Université de Montréal. Je suis également représentant de l'Association canadienne des radiologistes, ou CAR, et président de son groupe de travail sur l'intelligence artificielle .
[Traduction]
Le Groupe de travail sur l’IA de la CAR compte plus de 50 membres qui s’intéressent de près aux progrès technologiques en radiologie attribuables à l’IA. Ce groupe de travail est diversifié, puisqu'on y trouve des radiologistes, des physiciens, des informaticiens et des chercheurs. Il comprend également un philosophe spécialisé dans l’éthique de l’IA et un professeur de droit.
Le conseil d’administration de la CAR nous a confié pour tâche d’examiner la question de l’IA à l’échelle mondiale et son incidence sur la radiologie et les soins aux patients au Canada.
Je crois m'exprimer au nom de la plupart de mes collègues en affirmant que tout cela est une bonne nouvelle et que l’intelligence artificielle peut avoir une incidence positive considérable sur l'exercice de la radiologie. Grâce à la collecte de données et aux simulations, à l’aide d’algorithmes, nous pouvons aider à réduire les temps d’attente et donc accélérer le diagnostic et influer positivement sur les résultats pour les patients.
Les logiciels d’intelligence artificielle qui analysent les images médicales sont de plus en plus répandus. Contrairement aux premières générations de logiciels d’IA, qui s’appuyaient sur des connaissances spécialisées pour identifier les caractéristiques des images, les techniques d’apprentissage automatique permettent d'acquérir automatiquement la façon de reconnaître ces caractéristiques à l’aide d’ensembles de données d'apprentissage.
L’IA intervient dans la détection des maladies, l'établissement de diagnostics et l'optimisation des choix de traitement. Toutefois, pour assurer la précision de ces fonctions, il faudra avoir accès à de grandes quantités de données médicales appartenant aux patients. Bien entendu, cela soulève la question de la protection de la vie privée. Comment recueillir ces données tout en garantissant que nous recueillons ces renseignements d’une manière éthique qui protège la vie privée de nos patients?
Après le passage de l’imagerie cinématographique à l’imagerie numérique, qui s’est produit en radiologie il y a 20 ans, et de la disponibilité des dossiers numériques pour chaque examen d’imagerie, le domaine de la radiologie est bien placé pour diriger l’élaboration et la mise en œuvre de l’IA et pour gérer les défis éthiques et juridiques qui s'y rattachent.
[Français]
La CAR croit que les avantages de l'intelligence artificielle pourront surpasser ses risques si l'on implante de manière adéquate les protocoles institutionnels et les exigences techniques afin de s'assurer que les données ne permettent pas d'identifier les patients.
[Traduction]
Les progrès technologiques sont si rapides qu’ils devancent les procédures radiologiques en place. Nous devons établir des règlements sur la collecte et la propriété des données pour nous assurer de protéger les patients et de ne pas enfreindre les lignes directrices en matière d’éthique ou de protection de la vie privée.
La CAR préconise que le gouvernement fédéral joue un rôle de premier plan dans la mise en œuvre d’un cadre éthique et juridique pour l’IA au Canada. Bien que les soins de santé relèvent de la compétence provinciale, l’IA est un enjeu mondial. Nous estimons que le gouvernement fédéral est bien placé pour orienter les provinces en matière de réglementation relative à la mise en œuvre d’un tel cadre. On retiendra pour exemple de ce genre d'action, le leadership affiché par le gouvernement fédéral dans le cas du Fonds national pour l’équipement d’imagerie médicale, au début des années 2000.
La CAR peut aider; d'ailleurs, le Groupe de travail sur l’IA, sous la direction du conseil d’administration de la CAR, a publié deux livres blancs sur l’intelligence artificielle, le premier en 2018 sur l’IA en radiologie, et un autre qui est un survol de l’apprentissage automatique et de son application à la radiologie. Ce deuxième document, publié en mai 2019, porte sur les questions éthiques et juridiques liées à l’IA en radiologie.
Nous avons remis à chacun de vous des exemplaires des livres blancs, avec nos recommandations. Pour alimenter la discussion, j’aimerais mettre les principales recommandations en exergue pour ce qui est du rôle du gouvernement fédéral.
La première concerne le lancement d’une campagne de sensibilisation publique sur les thèmes du consentement des patients à partager leurs données de santé anonymisées, ainsi que des stratégies de réduction des méfaits. Ces renseignements sont essentiels pour que les futures applications de l’IA puissent détecter les maladies et contribuer à leur traitement.
Deuxièmement, il y a l’adoption générale d'un consentement large par défaut, avec droit de retrait.
Troisièmement, il est recommandé d'élaborer un système pour assurer la sécurité des données en général et l’anonymisation des données radiologiques destinées à une utilisation secondaire, et de mettre en œuvre des normes systémiques pour garantir le respect de ce critère.
Quatrièmement, il est recommandé de former des gardiens de données radiologiques et d'établir des lignes directrices claires quant à leur rôle dans la mise en œuvre d’accords de partage de données, dans le cas de scénarios communs liés à l’IA et à des tierces parties.
La CAR doit collaborer avec le gouvernement fédéral et les ministères provinciaux de la Santé, ainsi qu'avec l’Association canadienne de protection médicale, ou ACPM, à l'élaboration de lignes directrices sur le déploiement approprié d’outils de soutien à l’intelligence artificielle dans les hôpitaux et les cliniques, tout en cherchant à réduire au minimum les préjudices et la responsabilité en cas de faute professionnelle due à une erreur liée à l’intelligence artificielle. Nous devons enseigner les limites de l'IA aux radiologistes et aux autres professionnels de la santé et rappeler la nécessité de bien utiliser cet outil pour accomplir le travail plutôt que de remplacer les radiologistes.
L’intelligence artificielle ne disparaîtra pas. L’échange de données médicales est une question complexe qui renvoie dos à dos le droit individuel à la vie privée et les avantages collectifs pour la société. Étant donné que l’intelligence artificielle peut contribuer à améliorer les soins aux patients ainsi que les résultats obtenus sur le plan médical, je crois que nous allons assister à un changement de paradigme, avec le passage de la protection quasi absolue des droits des patients et des données les concernant au partage de données anonymisées, pour le plus grand bien de la société.
[Français]
Nous devons collaborer à la mise en oeuvre d'un cadre de travail afin de mettre en place ces technologies, tout en respectant l'anonymat et la vie privée des patients. L'intelligence artificielle sera utilisée dans le domaine de la santé tôt ou tard. Assurons-nous par conséquent que son implantation se fera de manière éthique.
[Traduction]
Merci de votre temps. Je serai heureux de répondre à vos questions en français ou en anglais.
:
Merci, monsieur le président et chers membres du Comité.
C'est un privilège d'être ici aujourd'hui pour vous présenter le point de vue de l'industrie au nom de l'Association canadienne de la technologie de l'information. L'ACTI est le porte-parole national de l'industrie des technologies des télécommunications et de l'Internet. Nous avons plus de 300 membres, incluant plus de 200 petites et moyennes entreprises.
[Traduction]
Comme les autres intervenants l'ont déjà souligné, l'intelligence artificielle est fort prometteuse pour tout ce qui a trait à la croissance économique et aux améliorations sociétales: ses possibilités semblent illimitées. De la mobilité humaine par l'automatisation des véhicules, en passant par les soins de santé de précision, bon nombre de solutions de l'avenir seront alimentées par l'intelligence artificielle.
Pour profiter pleinement des avantages de l'intelligence artificielle, nous devrons créer des systèmes dignes de la confiance des gens. J'ai distribué dans les grandes lignes le plan du diaporama que je vais présenter aujourd'hui: les obligations de notre industrie et ce à quoi elle s'est déjà engagée; un appel à notre gouvernement pour qu'il établisse un dialogue continu au moyen d'un partenariat public-privé; les types de répercussions que tout cela aura sur notre main-d'œuvre, les besoins en matière de recyclage, de perfectionnement et de formation; des recommandations visant à renforcer la confiance dans l'intelligence artificielle.
Le Canada est reconnu comme un chef de file mondial de la recherche-développement en matière d'intelligence artificielle. Il attire des personnalités de calibre mondial dans ses universités à la grandeur du pays pour qu'elles étudient dans ce domaine. Il bénéficie déjà des avantages de l'intelligence artificielle dans un certain nombre de domaines. Tant les entreprises en démarrage que les PME et les grandes entreprises technologiques actives mondialement s'en prévalent: elles ont toutes mis au point des systèmes d'intelligence artificielle pour tenter de résoudre certains des problèmes les plus pressants des entreprises ou de la société. D'autres utilisent l'IA pour optimiser l'efficacité de leur chaîne d'approvisionnement, améliorer les services publics et faire progresser la recherche de pointe. Les solutions qu'apporte l'IA — qui exploite de grands ensembles de données tout en tirant parti d'une capacité de traitement accrue et en faisant preuve d'une grande ingéniosité — peuvent s'appliquer à un certain nombre de problèmes sociaux ou commerciaux. L'analyse prévisionnelle en santé et les véhicules automatisés et connectés, qui améliorent la mobilité humaine et réduisent la circulation en sont quelques-uns qui ont un effet fulgurant sur notre environnement.
Les systèmes d'IA nécessitent le traitement d'impressionnantes quantités de données. La disponibilité de données solides et représentatives, souvent anonymisées, est nécessaire à la conception et à l'amélioration des systèmes d'intelligence artificielle et d'apprentissage automatique. Nous ne saurions trop insister sur le fait que l'accès à de grandes quantités de données est essentiel à l'amélioration du potentiel de l'intelligence artificielle au Canada.
Cela dit, l'écosystème de l'IA est mondial. Il est très concurrentiel et comporte de multiples facettes. Notre association favorise une approche multipartite à l'égard de l'intelligence artificielle: elle souhaite que le Canada soutienne la coopération mondiale quant aux politiques qui la régissent, afin que toutes les sociétés puissent se prévaloir de ses avantages potentiels pour prospérer.
J'aimerais proposer au Comité six facteurs à prendre en considération.
Premièrement, les industries traditionnelles sont déjà à l'avant-garde pour ce qui est de profiter des occasions que l'intelligence artificielle rend disponibles. Qu'il s'agisse du pétrole et du gaz, de l'exploitation minière, de la foresterie ou de l'agriculture, tous recourent désormais à cette technologie pour accroître leur efficacité et être concurrentiels à l'échelle mondiale. Ils conçoivent de nouveaux services et de nouveaux produits en fonction des résultats d'analyse de données par l'intelligence artificielle.
Deuxièmement, l'IA est un processus en constante évolution. Elle continuera de progresser au cours des prochaines décennies.
Troisièmement, toute transition économique vers le numérique s'accompagnera d'une transformation culturelle, et la désinformation sur le sujet peut détruire la confiance des consommateurs et des citoyens envers les nouvelles technologies et l'intelligence artificielle.
Quatrièmement, la main-d’œuvre subira des perturbations, mais selon ce que l'histoire nous a appris, nous croyons que les nouvelles technologies, y compris l'IA, créeront plus de possibilités d'emploi qu'elles n'en élimineront.
Cinquièmement, nous avons besoin de partenariats pour la formation de la main-d’œuvre, notamment pour le recyclage et le perfectionnement des compétences des employés actuels, car leur rôle actuel sera appelé à se transformer.
Sixièmement, il faut des politiques pour la prochaine génération, car ce sont des technologies de la prochaine génération. Il est temps de changer de paradigme.
Lorsque je suis entré à la fonction publique en 1999, l'un de mes premiers emplois consistait à participer à l'élaboration de la LPRPDE. J'ai également été l'un des principaux architectes de la Loi canadienne anti-pourriel. Mon mémoire de maîtrise a porté sur les raisons pour lesquelles les PME avaient du mal à se conformer à la LCAP et à la LPRPDE, alors il y a 17 ou 18 ans que j'y travaille. Il est intéressant de noter que nous n'avons jamais prévu l'impact que les données auraient sur nos cadres législatifs actuels. Nous ne pouvions pas prévoir, alors que nous rédigions la LPRPDE ou la LCAP, l'avènement des entreprises axées sur les données que nous voyons aujourd'hui.
Ensuite, je voudrais parler de l'obligation de l'industrie de promouvoir le développement et l'utilisation responsables de l'intelligence artificielle.
Premièrement, nous reconnaissons notre responsabilité d'intégrer des principes et des valeurs dans la conception même des technologies de l'IA, au-delà des exigences législatives existantes. Bien que les avantages potentiels de l'IA pour la société soient formidables, les chercheurs, les experts et les intervenants dans le domaine devraient continuer de consacrer beaucoup de leur temps au travail de conception et de déploiement responsables des systèmes d'IA, notamment à l'aide de mécanismes de sécurité et de contrôlabilité et avec des données fiables et représentatives. Ceci faciliterait l'interprétation, car les solutions doivent être adaptées aux risques que présente le contexte particulier dans lequel un système est appelé à fonctionner.
Deuxièmement, en ce qui concerne la sécurité, la contrôlabilité et la fiabilité, nous croyons que les technologues ont la responsabilité d'assurer la conception sécuritaire des systèmes d'IA. Les agents intelligents autonomes doivent considérer comme primordiale la sécurité des utilisateurs et des tiers, et la technologie de l'IA doit s'efforcer de réduire les risques pour les humains. En outre, les systèmes d'IA autonomes doivent être assortis de mesures de sécurité pour assurer leur contrôlabilité et leur adaptation au contexte particulier dans lequel ils sont appelés à fonctionner.
Troisièmement, il faut des données fiables et représentatives, assorties d'un moyen d'atténuer l'effet des a priori. Afin de promouvoir l'utilisation responsable des données et d'assurer l'intégrité de celles-ci à chaque étape, l'industrie a la responsabilité de comprendre les paramètres et les caractéristiques des données, de reconnaître, preuves à l'appui, les tendances potentiellement préjudiciables et d'effectuer des tests dans le but de déceler des distorsions interprétatives potentielles avant et pendant la mise en route des systèmes d'IA.
Les systèmes d'IA doivent exploiter de grands ensembles de données. La disponibilité de données fiables et représentatives dans le but de construire et d'améliorer les systèmes d'IA et d'apprentissage automatique est de la plus haute importance.
Soit dit en passant, cela pourrait constituer un avantage concurrentiel important pour le Canada. Nous avons une population représentative à l'échelle mondiale, avec des communautés autochtones notamment. On pourrait très bien la cibler lors de tests médicaux et de tests utilisant l'intelligence artificielle dans le domaine médical.
En ce qui concerne l'interprétation, nous devrions établir des partenariats public-privé pour trouver des façons de mieux atténuer les distorsions interprétatives, les inégalités et d'autres préjudices potentiels imputables à des systèmes automatisés de prise de décisions. On ne peut trouver de telles solutions qu'en adaptant un système particulier aux risques uniques présents dans un contexte.
Enfin, l'utilisation de l'IA pour prendre des décisions importantes concernant des personnes de façon autonome — décisions qui sont informées par des humains, mais souvent prises en remplacement de ceux-ci —, a suscité des préoccupations quant à la responsabilité. En accord avec les lois et règlements actuellement en vigueur, notre industrie s'est engagée à établir des partenariats avec les intervenants pertinents afin de créer un cadre de responsabilisation sensé pour tous les intervenants, dans un contexte de systèmes automatisés.
Nous croyons que nous devrions créer un partenariat public-privé apte à accélérer la R-D sur l'IA, à démocratiser l'accès aux données, à garantir la diversité et l'inclusion en priorité et à préparer notre main-d’œuvre aux emplois de l'avenir. Les membres de l'ACTI croient également qu'il faut accorder la plus grande importance à l'instauration d'un cadre réglementaire efficace et équilibré sur la responsabilité, qui reposerait sur la participation continue de groupes d'experts multipartites. Seul un échange ouvert entre tous les intervenants en IA permettra d'arriver à la bonne solution.
Si la valeur de l'IA ne profite qu'à certaines organisations, on risque d'exacerber les écarts salariaux et les écarts de richesse existants. Dans le scénario proposé, ce ne serait pas « nous contre eux » ou« privé contre public ». Ce serait juste « nous ». Il faudrait miser davantage sur les partenariats pour concevoir une économie numérique axée sur les données plus sûre et plus fiable.
On craint que l'IA n'entraîne des changements sur le plan de l'emploi, comme des pertes d'emplois et des déplacements de travailleurs. Bien que ces préoccupations soient compréhensibles, il convient de souligner que la plupart des technologies d'IA émergentes sont conçues pour accomplir une tâche précise ou pour aider un être humain à augmenter sa capacité plutôt que de le remplacer. Ce type d'intelligence augmentée signifie qu'une partie — probablement pas la totalité — du travail d'un employé pourrait être remplacée ou facilitée par l'intelligence artificielle.
Utiliser l'intelligence artificielle pour accomplir les tâches secondaires d'un employé est une façon d'accroître sa productivité et de lui donner du temps pour s'occuper du service à la clientèle ou de s'investir plus activement dans des fonctions à valeur ajoutée. Néanmoins, bien que l'on ne connaisse pas encore tous les effets de l'IA sur l'emploi, sur la création ou le déplacement de postes, il est essentiel de pouvoir s'adapter aux changements technologiques rapides. Il faut tirer parti des ressources traditionnelles axées sur les personnes et des modèles de formation professionnelle, et utiliser les nouvelles technologies de l'IA pour aider à former la main-d'œuvre actuelle et future, afin d'aider les Canadiens à effectuer les bonnes transitions de carrière.
:
Je suis heureux de répondre à cette question.
C’est une question très importante, à savoir comment nous identifions le biais à mesure qu’il est détecté par les algorithmes et comment nous l’atténuons une fois que nous savons qu’il existe. Je pense que la façon la plus simple d’expliquer le problème est que, comme nous vivons dans un monde biaisé et que nous formons des algorithmes et de l’IA au moyen de données sur le monde, il est inévitable que les algorithmes détectent ces préjugés et qu’ils finissent par les reproduire ou même en créer de nouveaux dont nous ne sommes pas conscients.
Nous avons tendance à penser au biais en ce qui concerne les attributs protégés — des aspects comme l’origine ethnique, le sexe ou la religion, qui sont historiquement protégés pour de très bonnes raisons. Ce qui est intéressant à propos de l’IA, c’est qu’elle peut créer de tout nouveaux ensembles de préjugés qui ne correspondent pas à ces caractéristiques ou même à des caractéristiques qui sont humainement interprétables ou humainement compréhensibles. Il est très difficile de détecter ce genre de biais en particulier, et il faut essentiellement examiner l’ensemble des décisions ou des extrants d’un système algorithmique pour essayer de déterminer les cas où il y a des répercussions disparates sur des groupes particuliers, même s’ils ne sont pas protégés par la loi.
En outre, il y a beaucoup de recherche, et des méthodes sont en cours d’élaboration pour déceler les lacunes dans la représentativité des données et aussi pour détecter les substituts des attributs protégés qui peuvent ou non être connus à l’étape de la formation. Par exemple, le code postal est un très bon indicateur de l’origine ethnique dans certains cas. Il s’agit de découvrir de nouvelles sortes d’approximations comme celle-là.
Encore une fois, il y a de nombreux types de tests — méthodes automatisées, méthodes d'audit — qui consistent essentiellement à analyser les données de formation de l’algorithme pendant qu’il effectue le traitement et les séries de décisions qu’il produit.
Il n’y a donc pas de solution simple, mais il y a des méthodes disponibles à toutes les étapes.
:
Comme j’ai tendance à dire qu’il n’y a pas de solution miracle pour assurer une gouvernance appropriée de ces systèmes, les évaluations des risques peuvent constituer un très bon point de départ.
Elles sont très efficaces pour permettre de déceler les problèmes avant le déploiement ou avant l’approvisionnement. Par contre, comme leur efficacité dépend entièrement des gens ou des organisations qui les exécutent, elles doivent être assorties d’un certain niveau d’expertise et, potentiellement, de formation — essentiellement, les gens qui les exécutent doivent être conscients des problèmes d’éthique potentiels et les signaler pendant qu’ils remplissent le questionnaire.
Nous l’avons constaté dans le cas d’autres types d’évaluations d’impact, comme les évaluations des facteurs relatifs à la vie privée, les évaluations d’impact sur l’environnement et, maintenant, les évaluations d’impact sur la protection des données en Europe. Il faut vraiment mettre davantage l’accent sur la formation ou l’expertise des gens qui vont remplir ces formulaires.
Ces évaluations sont utiles avant le déploiement, mais comme je le disais tout à l’heure à propos des préjugés, des problèmes peuvent surgir après la conception d’un système. Nous pouvons tester un système à l’étape de la conception et à l’étape de la formation et dire qu’il semble équitable, non discriminatoire et impartial, mais cela ne veut pas dire que des problèmes ne surgiront pas lorsque le système sera essentiellement utilisé dans la réalité.
À toute approche d’évaluation d’impact doit s'ajouter une surveillance interne et une évaluation post-traitement des décisions qui ont été prises, et des normes d'audit très claires quant aux renseignements à conserver et aux types de tests à effectuer après coup, encore une fois, pour éliminer tout risque de biais.