Je vous remercie de m'inviter invité à vous faire part des réflexions en matière d'éthique de l'intelligence artificielle que nous avons formulées à Montréal.
On m'a demandé de parler de la Déclaration de Montréal pour un développement responsable de l'intelligence artificielle, qui a été présentée en 2018. Je vais donc revenir sur ce document.
Je vais d'abord vous exposer le contexte de façon très générale. La révolution technologique en cours modifie profondément la structure de la société, en automatisant le traitement administratif et les décisions qui concernent la vie de nos concitoyens. Elle change aussi l'architecture du choix en déterminant, par exemple, nos options par défaut. Elle transforme enfin les modes de vie et les mentalités avec la personnalisation des recommandations, l'accès à des conseils de santé en ligne automatisés, la planification des activités en temps réel, la prédiction, et ainsi de suite.
Cette révolution technologique est une occasion sans précédent, me semble-t-il, d'améliorer les services publics, de corriger les injustices et de répondre aux besoins de chaque personne et de chaque groupe. Il faut donc saisir cette occasion avant que l'infrastructure numérique ne se mette complètement en place et ne nous laisse plus de marge de manoeuvre pour agir.
Pour cela, nous devons d'abord établir les principes éthiques fondamentaux qui guident un développement responsable et durable de l'intelligence artificielle et des technologies numériques. Nous devons ensuite élaborer des normes, une réglementation et une législation appropriées. Avec la Déclaration de Montréal pour un développement responsable de l'intelligence artificielle, nous avons proposé un cadre éthique pour la réglementation du secteur de l'intelligence artificielle. Bien qu'elle ne soit pas contraignante, la Déclaration vise à orienter la normalisation, la législation et la réglementation en matière d'IA, ou intelligence artificielle. Par ailleurs, ce cadre éthique constitue un fondement pour les droits de la personne à l'ère numérique.
Je vais expliquer rapidement comment nous avons élaboré cette déclaration. Cela présente probablement un intérêt pour la question de la délibération sur l'intelligence artificielle dans nos sociétés démocratiques. Ensuite, je présenterai rapidement son contenu.
La Déclaration est d'abord un document qui est issu d'une consultation auprès de divers intervenants. C’est une initiative de l'Université de Montréal, qui a reçu le soutien des Fonds de recherche du Québec et du Canadian Institute for Advanced Research, ou CIFAR, dans le reste du Canada. Derrière cette déclaration, il y a un groupe de travail interuniversitaire multidisciplinaire en philosophie, en éthique, en sciences sociales, en droit, en médecine et, bien sûr, en informatique. M. Yoshua Bengio, par exemple, était membre de ce comité.
Ce groupe universitaire a ensuite lancé, en février 2018, un processus de consultation citoyenne, afin de bénéficier de l'expertise de terrain des citoyens et des parties prenantes de l'IA. Il a organisé plus de 20 événements publics et ateliers de délibération pendant huit mois, principalement au Québec, à Montréal, à Québec, mais aussi en Europe, à Paris et à Bruxelles. Plus de 500 personnes ont participé à ces ateliers en personne. Le groupe a aussi organisé une consultation en ligne. Ce processus de consultation s'appuyant sur une méthodologie prospective appliquée à l'éthique, notre groupe a invité les participants aux ateliers à réfléchir aux enjeux éthiques à partir de scénarios prospectifs, c'est-à-dire de scénarios sur un avenir proche de la société numérique.
Nous avons mis en place une consultation large, citoyenne et avec divers intervenants plutôt que la consultation des seuls experts pour plusieurs raisons. Je vais en évoquer rapidement trois.
La première raison est que l'IA se déploie dans toute la société et concerne tout le monde. Tout le monde doit pouvoir s'exprimer sur son déploiement. C'est une exigence démocratique.
La deuxième raison est que l'IA pose des défis éthiques complexes qui mettent en jeu de nombreuses valeurs. Dans une société diverse et multiculturelle, les experts ne peuvent pas trancher eux-mêmes les dilemmes éthiques posés par le déploiement de l'intelligence artificielle. Si les experts peuvent clarifier les enjeux éthiques de l'IA et établir les conditions d'un débat rationnel, ils doivent concevoir les solutions en collaboration avec les citoyens et les parties prenantes.
La troisième raison est que seul un processus participatif est en mesure de soutenir la confiance du public, nécessaire au déploiement de l'IA. Si nous voulons gagner la confiance de la population et lui donner de bonnes raisons de faire confiance aux acteurs de l'IA, nous avons le devoir d'impliquer le public dans la conversation sur l'IA. Ce n'est pas une condition suffisante, mais c'est une condition nécessaire de la confiance.
Je dois ajouter que, si les acteurs de l'industrie sont très importants comme parties prenantes, il faut qu'ils cessent de vouloir écrire les principes éthiques à la place des citoyens et des experts, et les lois à la place des parlements. Cette attitude est très répandue, mais elle peut également nuire à l'établissement de la confiance du public.
Parlons du contenu de la Déclaration. L'objectif de la consultation était double. Il s'agissait d'abord d'élaborer les principes éthiques et, ensuite, de formuler des recommandations en matière de politiques publiques.
Le résultat de ce processus de participation est une déclaration très complète, comprenant 10 principes fondamentaux, 60 sous-principes ou propositions pour appliquer les principes, et 35 recommandations de politiques publiques.
Les principes fondamentaux regroupent le bien-être, l'autonomie, la vie privée et l'intimité, la solidarité — ce dernier n'étant pas un principe que l'on retrouve dans d'autres documents —, la démocratie, l'équité, la diversité, la responsabilité, la prudence et le développement durable.
Les principes ne sont pas classés par ordre de priorité. Le dernier principe n'est pas moins important que le premier et, selon les circonstances, un principe peut être considéré comme plus pertinent qu'un autre. Par exemple, si la vie privée est en général considérée comme une question de dignité humaine, le principe de vie privée peut être assoupli à des fins médicales si deux conditions sont remplies: cela doit contribuer à améliorer la santé des patients — le principe de bien-être —, et la collecte et l'utilisation des données personnelles doivent être soumises au consentement individuel — le principe d'autonomie.
La Déclaration n'est donc pas une simple liste de contrôle, mais elle permet d'établir des normes et des listes de contrôle en fonction des secteurs d'activités. Ainsi, le régime de la vie privée ne sera pas le même en fonction du secteur, par exemple si c'est un secteur médical ou si c'est un secteur bancaire.
Cette déclaration constitue aussi une base pour concevoir des normes juridiques, comme les lois.
D'autres déclarations similaires, comme la Déclaration d'Helsinki en bioéthique, sont des déclarations non contraignantes comme la nôtre. Notre déclaration énumère simplement des principes que les acteurs du développement de l'IA devraient s'engager à respecter. Pour nous, il s'agit maintenant de travailler à la transposition de ces principes dans des normes industrielles qui touchent aussi le déploiement de l'intelligence artificielle dans les administrations publiques.
Nous travaillons également à la transposition de ces principes en droits de la personne pour la société numérique. C'est ce que nous allons essayer d'établir au moyen d'une consultation citoyenne, que nous espérons mettre en place dans l'ensemble du Canada.
Je vous remercie.
Je suis heureux d'avoir l'occasion de m'adresser au Comité. Afin de mettre mes commentaires en contexte avant d'entrer dans les détails, j'aimerais d'abord confirmer que je me réjouis de voir le Comité tenir ces séances en cette période. Actuellement, les conséquences néfastes que pourraient avoir ces systèmes, c'est-à-dire l'intelligence artificielle et les algorithmes, suscitent de plus en plus d'inquiétude.
J'ai cru bon d'utiliser ma déclaration d'ouverture pour vous donner un aperçu de ce que pourraient faire les gouvernements dans les circonstances. Ce que je souhaite, c'est discuter de cinq volets que j'estime être les plus emballants pour les communautés de chercheurs et de praticiens de même que pour les décideurs dans ce domaine à l'heure actuelle. Je vous présente donc mon évaluation de ces cinq volets. Vous avez déjà traité, de façon préliminaire à tout le moins, de bon nombre de ces volets dans vos rapports précédents, mais je crois pouvoir apporter des précisions.
Les cinq volets en question sont la transparence, les solutions structurelles, les solutions techniques, l'audit et le concept d'une agence de réglementation indépendante.
Commençons par la transparence. Les centres d'automatisation algorithmique et l'idée de l'équité par la transparence sont de loin les aspects qui suscitent le plus d'enthousiasme chez les praticiens et les décideurs à l'heure actuelle. Je dois vous avouer que je suis plutôt dubitatif par rapport à ces travaux. Bon nombre des problèmes qui nous préoccupent dans ce volet de l'intelligence artificielle et en matière de transparence ne peuvent tout simplement pas se résoudre grâce à la transparence. Par exemple, nous sommes rarement certains que des gestes isolés permettent de résoudre les problèmes; donc, la divulgation de quelque information que ce soit à diverses personnes ne contribue pas hors de tout doute à améliorer une situation problématique.
Un problème lié à une plateforme de médias sociaux, par exemple, pourrait exiger l'expertise nécessaire à la compréhension du risque. La divulgation est en quelque sorte une forme de régression ici, car elle demande un certain temps ainsi que l'expertise adéquate pour réfléchir aux particularités parfois très pointues et complexes d'un système donné. De plus, la personne n'est peut-être pas du tout en mesure de percevoir le risque.
Un des fondements de la transparence veut que ce qui est divulgué corresponde aux conséquences néfastes que l'on espère repérer et éviter. Mais notre capacité à assurer cette concordance entre ce qui doit être divulgué et ce que l'on espère éviter n'est pas claire.
Parfois, la transparence fait office de tactique employée pour associer l'information divulguée au public ciblé. C'est souvent une lacune des débats actuels sur la transparence et l'intelligence artificielle. On ne sait pas avec certitude quel public cibler pour favoriser la compréhension des détails divulgués sur ces systèmes. Il semble nécessaire de cibler des experts, mais nous ne savons pas exactement lesquels, sans compter la nature très chronophage de la déconstruction de ces systèmes.
Les algorithmes n'ont souvent aucune valeur sans les données, et les données n'ont souvent aucune valeur sans les algorithmes, ce qui est un problème fondamental propre à ce domaine et qui est parfois éludé dans d'autres discussions. Donc, il est possible que, en divulguant des données, une situation inscrite dans l'algorithme qui pose problème sur le plan éthique ou sociétal nous échappe complètement et vice versa.
C'est la taille qui pose problème si vous avez besoin à la fois des données et de l'algorithme. Il est souvent difficile d'un point de vue pratique de gérer une divulgation d'une telle ampleur ou d'établir ce que vous ferez avec ces renseignements. Bien sûr, les données sont aussi continuellement mises à jour dans bien des systèmes.
Au bout du compte, je crois que vous aurez relevé mon pessimisme par rapport à bien des propositions en matière de transparence. En fait, il est important de noter que, lorsque des gouvernements adoptent des exigences en matière de transparence, celles-ci peuvent souvent être contre-productives dans ce domaine parce qu'elles donnent l'impression qu'il s'est produit un incident, mais en l'absence d'un mécanisme efficace de reddition de comptes et de suivi qui assure ladite transparence, il est possible que rien n'ait vraiment eu lieu. Donc, la transparence peut en réalité être néfaste.
Les labels d'ensembles de données sont un exemple de proposition en matière de transparence qui a généré beaucoup d'enthousiasme récemment. Ils sont en quelque sorte comparables à l'étiquetage alimentaire, un peu comme si on fournissait la valeur nutritive d'un ensemble de données ou quelque chose du genre. Il y a des idées intéressantes. Il y aurait une description des biais ou des ingrédients qui ont une provenance inhabituelle — d'où viennent ces données? —, mais la métaphore implique que des ingrédients contaminés donnent de la nourriture contaminée. Malheureusement, vu les systèmes en IA, ce n'est pas une bonne métaphore, parce que l'application des données et leur incidence sur le monde sont rarement évidentes sans précisions sur leur utilisation ni mise en contexte.
Le droit à l'explication, qui est souvent abordé, est une autre idée attrayante et enthousiasmante dans la sphère de la transparence. Je suis d'accord qu'il s'agit d'une idée attrayante, mais il est rarement évident que l'explication s'applique aux processus. Même un processus assez simple — il n'est pas nécessaire qu'il soit informatique; ce pourrait être le processus à partir duquel vous avez décidé de joindre la Chambre des communes — peut se traduire par une décision qui tient compte de beaucoup de facteurs, et simplement en citer quelques-uns ne permet pas d'illustrer toute la complexité du processus décisionnel. C'est la même problématique avec les systèmes informatiques.
Le deuxième volet majeur que je veux aborder est celui des solutions structurelles. Je crois que le sujet a été bien traité dans le rapport précédent du Comité, alors je m'en tiendrai à quelques commentaires.
L'idée d'opter pour une solution structurelle peut découler du fait que, compte tenu du très petit nombre d'entreprises dans certains de ces secteurs, surtout celui des médias sociaux, nous pourrions nous servir de la politique antitrust ou sur la concurrence pour mettre un terme au monopole. Ainsi, en changeant la structure et les incitatifs au sein du secteur, on pourrait remédier à certaines des conséquences néfastes envisagées pour ces systèmes.
Je crois que de changer les incitatifs au sein d'un secteur pour remédier aux problèmes envisagés est une idée assez prometteuse, mais comme le précise votre rapport, l'application de telles économies d'échelle dans ces plateformes est rarement évidente. Sans un mécanisme assez strict d'interopérabilité des systèmes, on ne sait pas vraiment de quelle façon un nouvel acteur dans le milieu des médias sociaux ou de l'intelligence artificielle — ou essentiellement dans tout secteur où de grands dépôts de données sont nécessaires — serait efficace.
Je pense que l'une des choses les plus emballantes par rapport à ce volet est l'idée d'une alternative publique dans quelques secteurs. Certains ont parlé d'une alternative publique aux médias sociaux, quoique la taille nécessaire demeure un problème, tout comme l'effet de réseau, alors je présume que l'on peut résumer sur ce point en disant que nous sommes enthousiastes par rapport à son potentiel, mais que nous ne savons pas exactement de quelle façon procéder à un changement structurel.
Un exemple de changement structurel qui réjouit beaucoup de gens et qui est moins ambitieux, c'est la proposition d'obligations fiduciaires en matière de renseignements, où le gouvernement peut réglementer un incitatif différent simplement en l'exigeant. C'est un peu difficile à imaginer, parce que l'efficacité de ces propositions semble optimale quand elles s'appliquent à un domaine très encadré, comme la médecine ou le droit.
Le troisième volet que je souhaite aborder est celui d'une solution technique aux problèmes posés par l'IA et les algorithmes. Beaucoup de travaux portent actuellement sur la création d'un système tout à fait objectif ou équitable en partant du principe qu'il s'agit essentiellement d'un problème technique. Bien qu'il soit tout à fait plausible de concevoir de tels systèmes plus efficaces à certains égards que les systèmes actuels, ce n'est pas, en réalité, un problème technique.
Certains exemples mis de l'avant dans ce volet comprennent l'idée d'un sceau d'approbation pour les systèmes qui répondent à un type de norme, ce qui serait possible grâce à des mises à l'essai et à un processus d'homologation. C'est certes un aspect emballant, mais seulement une série restreinte de problèmes pourraient être systématiquement mis à l'essai et, techniquement, résolus. Dans les faits, il s'agit de problèmes sociétaux, comme l'a dit le témoin précédent.
Le quatrième volet est celui de l'audit, qui a été brièvement abordé dans le dernier rapport du Comité, d'après ce que j'ai vu. C'est mon idée préférée. Elle découle en fait des travaux menés pour cerner la discrimination raciale dans les domaines du logement et de l'emploi. L'idée d'un audit repose sur deux vérificateurs qui sont envoyés chez un propriétaire à peu près en même temps et qui demandent à louer un appartement. Ils vérifient ensuite s'ils ont obtenu la même réponse et, si ce n'est pas la même, c'est que quelque chose cloche.
Ce qui est enthousiasmant par rapport à la vérification, c'est qu'il n'est pas nécessaire de connaître l'état d'esprit du propriétaire ni de l'expliquer. On établit seulement que quelque chose ne va pas. Les législatures peuvent accomplir beaucoup de choses dans le domaine de la mise à l'essai. Elles peuvent protéger les tierces parties qui souhaitent enquêter sur ces systèmes ou créer des processus semblables aux programmes de repérage de bogues ou bug bounty, où les récompenses seraient liées à l'équité ou à la justice. Selon moi, c'est l'aspect le plus prometteur à partir duquel les gouvernements peuvent intervenir.
Enfin, je conclurai en vous mentionnant simplement les discussions qui ont cours sur la création d'une nouvelle agence, d'une agence administrative judiciaire voire d'une commission, pour traiter des questions liées à l'IA. Cette idée me paraît intéressante, mais ne fait que reporter à plus tard bon nombre des points que j'ai soulevés dans ma déclaration. Nous pouvons souvent imaginer une telle agence se charger de certains des points que j'ai abordés, ce qui mène à la question suivante: quelles sont les particularités de ce secteur qui exigent des processus qui ne sont pas ceux dont nous disposons déjà avec la législature et la branche judiciaire, c'est-à-dire les tribunaux? On a avancé que c'est l'expertise qui la distingue du reste, mais cela ne tient pas la route, car on peut souvent voir des législatures on ne peut plus traditionnelles adopter des règles applicables à des domaines fort complexes.
Je vais m'arrêter là. Je serais heureux de répondre à vos questions.
:
Merci beaucoup pour cette question, parce que je pense qu'elle a souligné une faiblesse de mon explication.
Dans la documentation liée aux sciences sociales, on utilise le terme « audit », mais pas au sens financier. Ce terme désigne simplement le processus que j'ai décrit dans lequel deux vérificateurs, par exemple un Noir et un Blanc, ou une femme et un homme, demandent à un propriétaire de leur louer une chambre ou à un employeur de leur donner un emploi. Ils appellent cela un audit, mais cela porte à confusion, car les autorités fiscales réalisent également un audit, qui est quelque chose de tout à fait différent.
Je pense que je trouve les audits intéressants parce qu'on peut les réaliser sans transparence. Souvenez-vous que j'ai dit qu'on ne pouvait pas voir à l'intérieur du cerveau du propriétaire. C'est pourquoi les audits sont intéressants. Nous pouvons réaliser des audits sur les plateformes comme Facebook et Google sans transparence, en protégeant simplement les tiers comme les chercheurs, les journalistes d'investigation et les organismes de la société civile, comme les ONG, qui souhaitent savoir si ces systèmes causent des torts. Pour ce faire, dans mon exemple, ils joueraient le rôle de vérificateurs. Ils agiraient en tant qu'utilisateurs des systèmes et compileraient ensuite ces données pour repérer toute tendance inquiétante.
Ceci présente toutefois quelques inconvénients. Par exemple, vous pourriez devoir mentir. Les auditeurs mentent. Les gens qui demandent une chambre à un propriétaire ne veulent pas en louer une; ce sont des vérificateurs qui travaillent pour une ONG ou un organisme gouvernemental. Vous pourriez donc avoir à mentir; vous pourriez devoir faire perdre du temps au propriétaire, mais pas beaucoup.
Habituellement, sur les systèmes comme les grandes plateformes Internet, il est difficilement imaginable qu'un audit puisse être détecté. Cependant, il est possible que vous fournissiez de faux renseignements qui entreront dans le système d'une façon ou d'une autre, parce que vous ne cherchez pas réellement un emploi; vous réalisez simplement un audit. Il y a assurément des inconvénients.
Comme je l'ai mentionné, vous avez aussi besoin d'un système pour continuer... une fois que votre audit vous a permis de repérer un problème. Par exemple, si vous constatez quelque chose d'inquiétant, vous aurez alors besoin d'un autre mécanisme, comme une procédure judiciaire, exigeant la divulgation de certains renseignements. Vous pourriez dire que la transparence intervient plus tard, dans le cadre d'un autre processus, si vous souhaitiez réellement comprendre comment le système fonctionne. Vous n'aurez peut-être toutefois jamais besoin de comprendre. Il se peut que vous n'ayez qu'à détecter un danger et à dire à l'entreprise qu'elle doit remédier au problème. Ce sera ensuite à elle de s'en charger.
C'est pourquoi je suis emballé par l'audit. Il permet de contourner les problèmes de transparence.
:
Dans la Déclaration de Montréal pour un développement responsable de l'intelligence artificielle, par exemple, un des principes est la prudence. L'idée derrière cela, c'est d'affirmer qu'il y a des critères de sécurité et de fiabilité des algorithmes, mais pas seulement des algorithmes. Je voudrais un peu étendre le thème des algorithmes, parce que la façon dont l'algorithme est mis en place dans un système est importante.
Il y a tout un système qui entoure un algorithme, comme d'autres algorithmes, des bases de données et l'utilisation dans un contexte précis. Dans le cas d'une plateforme, c'est facile, puisque c'est un utilisateur individuel derrière son écran. Cependant, quand il s'agit d'un avion ou d'une entreprise complexe, il faut prendre en compte l'ensemble du système.
Ici, la fiabilité en cause est celle du système et pas seulement de l'algorithme. L'algorithme fait son travail. La question est de savoir comment on utilise les données, quels types de décisions sont rendues et quel est le contrôle humain sur ces décisions ou sur les prédictions. De ce point de vue, il me paraît extrêmement important que les systèmes algorithmiques — pas simplement un algorithme — puissent faire l'objet d'audits. Je parle d'audits au sens où on regarde vraiment dans l'architecture du système pour trouver ses possibles défaillances.
Dans le cas des avions, puisque vous avez mentionné ces deux catastrophes aériennes tragiques, on doit, par exemple, s'assurer à l'avance que les êtres humains gardent le contrôle, quand bien même ils pourraient faire des erreurs. Là n'est pas la question: les êtres humains font des erreurs. C'est précisément pour cela qu'on met aussi en place des aides algorithmiques. Toutefois, dire que l'erreur appartient encore à l'être humain et qu'il y a encore un contrôle humain dans la machine, cela fait partie des choses dont on doit discuter. Cependant, c'est assurément un sujet essentiel pour repérer les problèmes dans un système algorithmique.
:
Je pense que je suis d'accord avec les remarques faites par mon collègue.
Je pourrais ajouter qu'il est difficile de prévoir un texte de loi précis, en partie parce que nous n'avons pas défini de façon précise ce que nous entendons par intelligence artificielle. Ce terme est très vague et couvre toutes sortes de choses. C'est même le cas des idées qui nous préoccupent particulièrement au sujet de l'IA, comme l'apprentissage machine... Il s'agit d'un terme vague qui couvre une variété d'approches très différentes.
L'une des difficultés pour nous est la réussite de l'informatique, parce que les logiciels qui ressemblent à de l'intelligence artificielle sont très variés et sont présents dans toutes sortes de domaines. Je pense qu'il est plus probable que l'on crée une loi qui traitera d'un contexte et d'une utilisation de la technologie spécifiques, et non d'un principe général.
L'un de mes collègues m'a dit que nous nous trouvions au « point culminant du livre blanc ». Il est possible que nous nous approchions également du point culminant des principes. Il existe de nombreux énoncés de principes, et ceux-ci sont utiles. Je pense cependant que nous devons nous pencher sur des situations précises au lieu de légiférer sur l'ensemble de l'IA, parce que je ne sais tout simplement pas comment cela serait possible. Il existe cependant quelques exceptions. Dans certains domaines, nous pourrions créer une loi globale utile.
Par exemple, ce comité a réalisé un travail important relativement au scandale de Cambridge Analytica dans son rapport précédent. Pour de nombreux pays dans le monde, l'une des difficultés liées à ce scandale était qu'ils avaient adopté une approche de la communication en vertu de laquelle les plateformes des médias sociaux ne faisaient pratiquement rien. Comme vous le savez, de nombreux gouvernements accordent l'immunité en matière de responsabilité aux plateformes en ligne ou aux entreprises de médias sociaux en tant qu'intermédiaires... Ils l'ont fait de façon très généralisée. On pourrait dire qu'il s'agit d'une grave erreur commise par les États-Unis.
Il s'agit d'un domaine dans lequel une loi touche une grande partie de l'activité, parce qu'elle concerne toute utilisation d'ordinateurs visant à agir en tant qu'intermédiaire entre les humains. Le fait d'accorder l'exonération de toute responsabilité semble être une mauvaise idée.
Il existe des domaines dans lesquels on pourrait prendre des mesures législatives générales, mais je pense qu'ils sont rares. Il est plus probable que l'on adopte des approches propres à un domaine.
:
Permettez-moi d'intervenir.
Vous devez reconnaître qu'il se trouve là un élément de transparence. Je vous donne un exemple. Actuellement, dans le secteur public — et c'est très récent dans l'administration fédérale —, tout ministère qui a recours à la prise de décisions automatisée doit répondre à un questionnaire d'environ 80 questions. D'après les réponses, on leur attribue, relativement au risque, une cote de 1 à 4.
Ensuite, il y a des mesures à prendre, des avis supplémentaires à donner. Le ministère doit faire revoir le travail par des spécialistes de la discipline, mais, dans l'évaluation initiale d'impact, des questions portent sur l'objectif de la prise automatisée de décisions qu'il se propose d'employer et sur ses éventuelles répercussions dans un domaine particulier, comme les droits individuels, l'environnement ou l'économie.
Nous pourrions discuter du caractère général du processus et de sa perfectibilité, mais il semble, d'une part, assurer un mécanisme de transparence en exigeant la divulgation de l'objectif de l'algorithme et, éventuellement, des intrants, des coûts et des avantages de l'algorithme ainsi que des éventuels externalités et risques. Ensuite, selon les résultats de cette évaluation, des mécanismes supplémentaires de responsabilisation pourraient s'appliquer.
Si vous n'êtes pas encore allé voir, ma question serait la suivante: Dans l'examen plus détaillé du modèle canadien destiné au secteur public, est-ce une condition qu'on pourrait transcrire et traiter davantage comme un dépôt de document relatif à des valeurs mobilières — c'est-à-dire que ce sera requis pour les entreprises du secteur privé d'un certain niveau, et, en cas de non-conformité, par exemple exclusion, délibérée ou par négligence, de modalités essentielles, des peines sont prévues? Est-ce que ça suffirait pour satisfaire au moins aux conditions de base de la responsabilité de transparence, en général, avant d'entrer dans les règlements propres à chaque secteur?