Bienvenue à tous.
Chers collègues, cette réunion a été convoquée conformément au Règlement. Nous nous penchons aujourd'hui sur le chapitre 1, « L'évaluation de l'efficacité des programmes » du rapport de l'automne 2009 de la vérificatrice générale du Canada.
De nombreux témoins comparaissent devant nous ce matin.
Du Bureau du vérificateur général du Canada nous avons bien entendu la vérificatrice générale en personne, Mme Sheila Fraser. Elle est accompagnée ce matin de Neil Maxwell, vérificateur général adjoint, et de Tom Wileman, directeur principal.
Pour représenter le Secrétariat du Conseil du Trésor nous avons Mme Michelle D'auray, la secrétaire. Elle est accompagnée de M. Alister Smith, le secrétaire adjoint.
Du ministère de la Citoyenneté et de l'Immigration nous recevons M. Neil Yeates, sous-ministre et agent comptable, et qui est accompagné de Mme Elizabeth Ruddick, directrice générale de Recherche et Évaluation.
Et finalement, représentant le ministère de l'Environnement nous avons M. Ian Shugart, sous-ministre et agent comptable, qui est accompagné de M. William Blois, directeur associé de la Direction de la vérification et de l'évaluation.
Au nom de tous les membres du comité, je vous souhaite la plus cordiale bienvenue.
Nous entendrons maintenant les déclarations préliminaires.
Madame Fraser vous êtes la première. Vous avez cinq minutes au maximum.
:
Merci, monsieur le président.
Nous vous remercions de nous donner l'occasion de vous présenter les résultats d'une vérification portant sur l'évaluation de l'efficacité des programmes du gouvernement fédéral, qui faisait partie de notre rapport d'automne 2009.
Comme vous l'avez mentionné, je suis accompagnée aujourd'hui de M. Neil Maxwell, vérificateur général adjoint, et de M. Tom Wileman, directeur principal, qui étaient chargés de cette vérification.
J'aimerais souligner aux membres du comité que le travail réalisé pour cette vérification était essentiellement terminé le 31 mai 2009.
L'évaluation de l'efficacité des programmes est un outil qui a fait ses preuves. Elle fait appel à des méthodes de recherches systématique pour évaluer dans quelle mesure un programme atteint ses objectifs. Au cours des 40 dernières années, le gouvernement fédéral a déployé des efforts répétés pour intégrer l'évaluation de l'efficacité à ses pratiques de gestion des programmes.
L'un des principaux avantages de l'évaluation de l'efficacité, c'est qu'elle aide les ministères et les organismes à améliorer leurs programmes. Les ministères doivent également pouvoir montrer au Parlement et aux contribuables qu'ils utilisent les fonds publics qui leur sont confiés pour servir efficacement les Canadiens. La rigueur des informations recueillies quant à l'efficacité des programmes revêt une importance particulière à la lumière des récentes mesures budgétaires visant à limiter les dépenses administratives et à revoir les opérations du gouvernement.
[Français]
Dans le cadre de cette vérification, nous avons examiné comment les unités d'évaluation de six ministères définissaient les besoins croissants liés à l'évaluation de l'efficacité et y donnaient suite. Nous avons aussi vérifié s'ils étaient dotés de la capacité nécessaire pour répondre à ces besoins. Par ailleurs, nous avons examiné le rôle de surveillance et de soutien que joue le Secrétariat du Conseil du Trésor pour suivre et améliorer la fonction d'évaluation au sein du gouvernement, particulièrement en ce qui a trait aux évaluations d'efficacité des programmes. Notre vérification a porté sur la période de 2004 à 2009.
Nous avons relevé que, dans l'ensemble, les six ministères ne répondaient pas de manière suffisante aux besoins en matière d'évaluation de l'efficacité. Les évaluations effectuées par chaque ministère ne représentaient qu'une proportion relativement faible du total des dépenses des programmes, soit de 5 à 13 p. 100 par année pour les six ministères.
En réalité, le taux de couverture était encore plus faible, car dans beaucoup d'évaluations de l'efficacité que nous avons examinées, l'efficacité des programmes n'avait pas été adéquatement analysée. Nous avons examiné 23 rapports d'évaluation. Dans 17 rapports, on mentionnait que l'analyse avait été limitée par des données incomplètes. L'évaluation de l'efficacité des programmes était donc limitée dans ces cas. Ce manque de données sur le rendement est un problème persistant que mon bureau a déjà relevé lors de vérifications antérieures de la fonction d'évaluation.
Pour expliquer l'incapacité des six ministères à répondre aux exigences en matière d'évaluation de l'efficacité, des représentants des ministères ont invoqué la difficulté de trouver des évaluateurs d'expérience. Ils ont donc fait largement appel à des sous-traitants pour respecter les exigences établies.
[Traduction]
Parmi les ministères que nous avons vérifiés, Environnement Canada était le seul à disposer d'un processus interne lui permettant de déterminer systématiquement les secteurs qui nécessitent une amélioration relativement à l'évaluation de l'efficacité. Par exemple, Environnement Canada sollicite les commentaires de ses clients dans le cadre d'enquêtes menées après les évaluations. Un tel procédé permet au ministère de suivre le cycle de gestion en vue d'une amélioration continue.
La situation de l'évaluation des programmes au gouvernement fédéral n'est pas sans rappeler celle de la fonction d'évaluation interne avant l'entrée en vigueur de la politique sur la vérification interne. Les leçons apprises grâce au récent renforcement de la vérification interne au gouvernement pourraient être utilisées à bon escient pour l'évaluation des programmes.
Nous croyons que la nouvelle obligation d'évaluer toutes les dépenses de programmes directes posera des difficultés importantes. Par le passé, les exigences relatives à la couverture complète des programmes n'ont jamais été respectées. Les exigences légales actuelles concernant l'évaluation de l'efficacité de tous les programmes de subventions et de contributions ont été difficiles à satisfaire. Les représentants des ministères nous ont indiqué qu'ils craignaient ne pas avoir les moyens nécessaires pour répondre aux exigences accrues du nouveau programme sur l'évaluation relatives à la couverture élargie.
À notre avis, il sera important que le secrétariat et les ministères évaluent l'efficacité des programmes qui pourraient subir des modifications importantes en raison de l'évolution des priorités et des circonstances. Ces programmes sont ceux pour lesquels des évaluations de la pertinence, des effets et de l'atteinte des objectifs peuvent être les plus utiles. Pendant la période de transition, ces programmes seront peut-être les plus susceptibles de bénéficier des évaluations de l'efficacité. L'augmentation continue des besoins en évaluation de l'efficacité, combinée à la capacité limitée des ministères de répondre à ces exigences, posent un défi de taille. Des efforts concertés du secrétariat et des ministères seront nécessaires pour relever ce défi.
[Français]
Le secrétariat et les ministères vérifiés ont accepté toutes nos recommandations. Dans plusieurs cas, ils se sont également engagés dans leur réponse à prendre des mesures correctives. Pour donner suite à ces demandes de plan d'action et d'échéancier, le comité pourrait sonder les progrès réalisés à ce jour qui permettront de régler les problèmes soulevés dans le chapitre.
Cela conclut ma déclaration d'ouverture. Cela nous fera plaisir de répondre aux questions des membres du comité.
:
Merci, monsieur le président.
Bonjour.
[Français]
Bonjour. Je tiens à vous remercier de nous donner aujourd'hui l'occasion de vous entretenir de la fonction d'évaluation au sein du gouvernement du Canada. Je suis accompagnée, comme vous l'avez mentionné, de mon collègue M. Alister Smith, qui est secrétaire adjoint du secteur de la gestion des dépenses. M. Smith est responsable du Centre d'excellence en évaluation au Secrétariat du Conseil du Trésor. Ce centre est responsable des politiques en matière d'évaluation et travaille étroitement avec la collectivité des évaluateurs du gouvernement.
Comme l'a mentionné Mme Fraser, l'évaluation est un outil de gestion qui joue de plus en plus un rôle de premier plan dans la saine gestion des dépenses publiques. Pour qu'elle soit bien remplie, la fonction d'évaluation exige la collecte et l'analyse systématiques de données sur les résultats de programmes. Ces renseignements sont utilisés pour porter des jugements sur la pertinence, le rendement et l'optimisation des ressources des programmes. L'évaluation sert également à étudier d'autres manières d'exécuter des programmes ou d'obtenir les résultats.
Enfin, elle facilite l'amélioration des politiques et des programmes, la gestion des dépenses, le processus décisionnel du Cabinet et la production de rapports destinés au Parlement et aux citoyens.
[Traduction]
Étant donné l'importance croissante du rôle que joue l'évaluation pour soutenir l'efficacité des programmes et la gestion des dépenses, nous acceptons pleinement les recommandations contenues dans le rapport de la vérificatrice générale. En fait, elle témoigne de ce que le Secrétariat du Conseil du Trésor a appris à la suite de longues consultations et activités de surveillance. Et elles se reflètent dans les améliorations que nous avons mises en oeuvre dans le cadre de la nouvelle politique sur l'évaluation instaurée en 2009. Malheureusement, le moment choisi pour publier le rapport de la vérificatrice générale et la portée de celui-ci n'ont pas permis de prendre en considération ces améliorations. Le rapport est plutôt centré sur la période précédant l'introduction de cette nouvelle politique.
Nous avons créé un plan d'action, dont le comité a obtenu copie, en réaction au rapport de la vérificatrice générale. Il décrit ce que le secrétariat a entrepris et réalisé depuis la publication du rapport de la vérificatrice générale. Il énonce également ce que nous allons continuer à faire. Permettez-moi de vous présenter quelques-uns des gestes que nous avons posés dans le cadre de ce plan d'action.
[Français]
Le fait que les évaluations ne traitaient pas adéquatement de l'efficacité et qu'elles ne contenaient pas suffisamment de renseignements sur le rendement constituait l'une des préoccupations de Mme Fraser. Dans un premier temps, nous traitons directement de cette question dans la nouvelle politique qui définit une norme claire pour ce qui est de la qualité des évaluations ainsi que les responsabilités en matière de mesure du rendement. Elle stipule également que toutes les évaluations doivent se pencher sur l'efficacité des programmes.
Deuxièmement, la nouvelle politique exige de chaque responsable ministériel de l'évaluation qu'il ou elle prépare un rapport annuel à l'intention de son administrateur général au sujet de l'état de la mesure du rendement au sein de son organisation. Ce rapport permettra donc aux responsables de s'assurer qu'on satisfait aux principaux besoins des évaluations de programmes en matière de données.
Finalement, la politique a étendu les exigences en matière de couverture des évaluations afin qu'elles abordent toutes les dépenses directes liées au programme sur une période de cinq ans, à la suite d'une période de transition.
[Traduction]
La vérificatrice générale recommande également que le Secrétariat du Conseil du Trésor déploie davantage d'efforts pour surveiller et soutenir les ministères, les aidant ainsi à établir les points à améliorer en priorité. Cette recommandation est aussi prise en considération par la nouvelle politique, qui demande au Secrétariat du Conseil du Trésor de fournir un leadership fonctionnel en matière d'évaluation à l'ensemble du gouvernement. Cela comprend la surveillance régulière et la production de rapports annuels au Conseil du Trésor, au sujet de l'état de la fonction d'évaluation. Notre premier rapport sera publié avant la fin de l'exercice 2010-2011.
Notre travail de surveillance et de soutien est accompli en grande partie en fonction du processus annuel d'évaluation du cadre de responsabilisation de gestion, qui examine la qualité, la neutralité, la couverture et l'utilisation des évaluations. Ce travail se déroule également en fonction des conseils et de l'encadrement que nous fournissons aux ministères relativement aux cadres de mesure du rendement, qui sont exigés en vertu de la politique sur la structure de gestion, des ressources et des résultats.
Le secrétariat a aussi attribué de nouvelles ressources à notre centre d'excellence en évaluation, afin que nous puissions offrir une meilleure expertise en matière d'évaluation aux ministères.
[Français]
Nous sommes conscients que la nouvelle politique représente un changement important pour les ministères, comme l'a souligné la vérificatrice générale en invitant le secrétariat à aider les ministères à préparer la mise en oeuvre des nouvelles exigences relatives à la couverture des évaluations. C'est la raison pour laquelle un délai de mise en oeuvre graduelle de quatre ans est prévu — pour que les ministères puissent prendre les mesures nécessaires en matière de mesure du rendement, de capacité et de planification — avant qu'ils soient tenus de respecter, à compter de la période de planification 2013-2014 à 2017-2018, l'ensemble des exigences en matière de couverture prévues dans leurs plans d'évaluation quinquennaux.
[Traduction]
Je vais maintenant vous parler du soutien que nous avons offert aux ministères pendant la période de transition, essentiellement au moyen du Centre d'excellence en évaluation du secrétariat. Par exemple, en novembre 2009, nous avons publié une ébauche de guide pour l'élaboration des plans d'évaluation du ministère qui seront finalisés et publiés cet été. Cela fournit aux ministères une orientation relativement à la date de mise en oeuvre de l'évaluation, à ce qui sera évalué, aux priorités et aux outils de cette évaluation.
En novembre 2009, nous avons également publié une ébauche de guide pour l'élaboration de stratégies de mesure du rendement à l'intention de responsables de l'évaluation pour leur permettre d'évaluer les mesures de rendement du ministère. Cela sera également terminé cet automne, une fois que nous aurons intégré la rétroaction et les recommandations des ministères.
En juin 2009, nous avons également établi une communauté de praticiens en matière d'évaluation et nous avons mis sur pied un site Web pour l'échange de conseils pratiques. Nous avons également tenu des réunions à intervalles réguliers pour guider le développement de la collectivité de l'évaluation.
De plus, nous avons donné des conseils de base aux ministères au sujet du bien-fondé de la participation d'experts externes à leurs comités d'évaluation. Le document final sera intégré cet automne à un guide sur la fonction d'évaluation, qui établira les attentes du secrétariat concernant la politique et la directive en matière d'évaluation.
Nous avons récemment organisé une campagne de recrutement postsecondaire pour les diplômés dont les qualifications pourraient les destiner à une carrière dans le domaine de l'évaluation. Cette initiative s'est traduite par l'établissement de deux bassins d'évaluateurs préqualifiés au niveau de recrutement et au niveau intermédiaire. Nous continuons également de travailler avec les universités et l'École de la fonction publique du Canada pour promouvoir et perfectionner le type de compétences et de connaissances en évaluation dont nous avons besoin.
[Français]
Toutes ces améliorations répondent aux préoccupations de la vérificatrice générale sur le plan de la couverture des programmes, de la qualité et de la capacité de la fonction d'évaluation au sein du gouvernement.
En résumé, même s'il nous reste encore beaucoup de chemin à faire et que nous avons tenté à plusieurs reprises de rehausser la fonction d'évaluation au sein du gouvernement fédéral, je suis d'avis qu'avec la nouvelle politique sur l'évaluation, la directive et les guides, et surtout avec nos interactions avec les sous-ministres et les évaluateurs, nous sommes en train de renouveler les fondements d'une fonction d'évaluation solide, compétente et productive au sein du gouvernement du Canada pour assurer une saine gestion des dépenses.
Merci.
:
Bonjour monsieur le président, mesdames et messieurs.
Je m'appelle Neil Yeates et je suis le sous-ministre de Citoyenneté et Immigration Canada, comme l'a noté le président. À mes côtés se trouve Elizabeth Ruddick, directrice générale de la recherche et de l'évaluation à CIC.
[Français]
Je tiens à remercier les membres du comité de m'avoir invité de nouveau à prendre la parole aujourd'hui. Mes commentaires porteront essentiellement sur le chapitre 1 du rapport de la vérificatrice générale, et c'est avec plaisir que nous répondrons ensuite à vos questions.
Le gouvernement, qui a mis l'accent sur les résultats et la responsabilisation, a souligné l'importance de la fonction d'évaluation dans l'appréciation de l'efficacité des politiques et programmes, et des services fédéraux.
La Division de l'évaluation de CIC est responsable de la fonction d'évaluation et a élaboré un plan d'action, présenté aujourd'hui, pour donner suite aux recommandations de la vérificatrice générale.
[Traduction]
Je tiens à souligner les progrès que nous avons réalisés au cours de la période quinquennale de 2004 à 2009. CIC a amorcé d'importants changements touchant la fonction d'évaluation, notamment la création de la Direction générale de la recherche et de l'évaluation et d'un comité d'évaluation ainsi que la mise en oeuvre d'une politique officielle en matière d'évaluation. Le financement accordé à la fonction est passé d'environ 650 000 $ en 2004-2005 à 2 millions de dollars en 2008-2009. Le nombre d'employés professionnels a également augmenté, passant de 3 à 13 ETP au cours de cette même période.
Auparavant, l'accent était mis sur l'évaluation des subventions et des contributions afin de satisfaire aux exigences du Conseil du Trésor et de la Loi fédérale sur la responsabilité. Les ressources supplémentaires nous ont permis de couvrir un plus grand nombre de programmes ministériels ainsi que d'effectuer des évaluations plus rigoureuses et d'une plus grande qualité. Grâce à des études plus nombreuses et de meilleure qualité, les cadres supérieurs de CIC se fondent de plus en plus sur les résultats et les conclusions des évaluations pour éclairer le processus décisionnel entourant les programmes et les politiques. Par conséquent, selon le Cadre de responsabilisation de gestion, la fonction d'évaluation, jugée inacceptable en 2006, a obtenu la cote « acceptable » en 2008 — ce qui fait preuve d'une amélioration continue au cours d'une courte période de temps.
Monsieur le président, le ministère adhère aux conclusions du Bureau du vérificateur général. Il a élaboré un plan d'action qui comprend le renouvellement complet du cadre ministériel de mesure du rendement et de l'architecture des activités de programmes. De plus, il permettra une meilleure intégration du cadre au processus de planification des activités, ce qui améliorera la disponibilité des renseignements en matière de rendement pour les évaluations.
CIC ajoutera également un expert externe en matière d'évaluation au sein du comité d'évaluation ministériel. Nous nous affairons à dresser une liste de candidats potentiels et à élaborer le mandat de cet expert.
Un processus est en cours pour solliciter les commentaires des clients à la fin des évaluations. Nous sommes sur le point de finaliser un sondage à l'intention des clients internes, lequel sera mené cette année, auprès des cadres supérieurs responsables des programmes récemment évalués ainsi qu'auprès des membres du comité d'évaluation.
Monsieur le président, selon le rapport de la vérificatrice générale, la couverture qu'offre le ministère concernant les dépenses est faible, particulièrement en ce qui concerne les subventions et les contributions. Cette situation est principalement attribuable au cycle de renouvellement des subventions et des contributions de CIC ainsi qu'au fait que 88 p. 100 de ces dernières ne visent que deux programmes d'envergure. J'ai le plaisir d'annoncer qu'entre 2009 et 2010, et la présente année financière, nous aurons évalué nos deux plus importants programmes, lesquels représentent ce fort pourcentage de nos subventions et contributions. Les autres programmes sont comparativement beaucoup plus petits. Toutefois, ils seront tous évalués sur une période de cinq ans.
CIC est consciente de la nécessité de procéder à des évaluations complètes ainsi que d'accroître la couverture. C'est pourquoi nous avons augmenté le budget non salarial des évaluations de 500 000 $ pour 2010-2011, et de 500 000 $ supplémentaires pour 2011-2012, ce qui donnera un budget non salarial total de 1,5 million de dollars en 2010-2011 et un budget permanent de 2 millions de dollars à compter de 2011-2012. De plus, d'ici la fin de l'exercice financier, le nombre d'ETP consacrés à la fonction s'élèvera à 20.
Monsieur le président, au cours des dernières années, il a fallu reporter certaines évaluations pour diverses raisons, notamment à cause d'un manque de données de rendement, ce qui a rendu difficile l'achèvement de ces évaluations et d'autres en temps opportun.
[Français]
En vue d'éviter des problèmes semblables à l'avenir, la Division de l'évaluation a collaboré de près avec les employés de CIC, afin de développer des stratégies et des outils de collecte de données étoffées pour veiller à ce que les données reçues par l'entremise de nos systèmes administratifs soient disponibles dans le format nécessaire lors de l'évaluation d'un programme donné.
Voilà un aperçu de quelques initiatives qui nous permettront de répondre rapidement aux préoccupations exprimées par la vérificatrice générale. Nous sommes maintenant prêts à répondre à vos questions.
Merci beaucoup.
:
Merci, monsieur le président.
Permettez-moi de commencer en disant que je suis d'accord avec la vérificatrice générale concernant la valeur de la contribution des évaluations d'efficacité au processus décisionnel et que nous appuyons les recommandations qu'elle a faites.
À Environnement Canada, la fonction d'évaluation est un important facteur de notre processus décisionnel. Elle fournit une source de renseignements essentiels sur la pertinence et le rendement des programmes du ministère et a un important rôle à jouer dans la gestion par résultat.
[Français]
Nous utilisons les évaluations pour prendre des décisions visant notamment à améliorer un programme, par exemple, la façon dont les activités ou les processus d'un programme devraient être modifiés pour lui permettre de mieux atteindre ses objectifs, ou à s'assurer qu'il y a besoin continu d'intervention ou un rôle approprié pour le gouvernement fédéral avant de renouveler les programmes. Elles me fournissent les renseignements dont j'ai besoin pour faire preuve de responsabilité à l'égard de l'utilisation des fonds publics.
La fonction d'évaluation d'Environnement Canada joue également un rôle actif dans l'examen de mémoires au Cabinet, des présentations au Conseil du Trésor, du cadre de mesure du rendement du ministère ainsi que des stratégies et des plans de mesure du rendement de programmes individuels. Cela permet de s'assurer que les gestionnaires de programme prennent en considération, planifient et recueillent les renseignements sur le rendement qui peuvent être utilisés dans les évaluations futures.
[Traduction]
Notre fonction d'évaluation a mis en place, depuis plusieurs années, des processus relatifs à l'amélioration continue, et continue de rechercher des moyens d'améliorer la valeur de ses évaluations pour soutenir le ministère. Certains de ces éléments ont été notés, et nous sommes heureux de voir qu'ils figurent dans le rapport de la vérificatrice générale. Nous avons accepté les deux recommandations du rapport à l'égard d'Environnement Canada. En particulier, le ministère est d'accord avec la recommandations d'élaborer et de mettre en oeuvre un plan d'action pour s'assurer que les renseignements sur le rendement des programmes sont recueillis pour soutenir l'évaluation de l'efficacité.
Les évaluations précédentes ont inclus des recommandations d'amélioration concernant la mesure du rendement. Nous croyons commencer maintenant à voir des améliorations dans le ministère en ce qui concerne le nombre croissant de programmes qui élaborent et mettent en place des stratégies de mesure du rendement, et nous continuerons de travailler fort à cet égard parce que c'est essentiel.
Environnement Canada accepte également la recommandation de la vérificatrice générale de prendre en considération le bien-fondé d'inclure des membres externes aux comités d'évaluation ministériels. Nous avons récemment reçu des directives préliminaires du Centre d'excellence du Secrétariat du Conseil du Trésor sur la question et nous poursuivons l'examen.
Finalement, j'aimerais parler brièvement des préoccupations dont le rapport fait état au sujet de la capacité des ministères à évaluer toutes les dépenses de programme directes tous les cinq ans. Cette politique a été mise en place pour améliorer le champ d'évaluation, et il s'agit d'un objectif important sur lequel nous sommes d'accord. Il reconnaît les avantages de conserver une base de renseignements plus vaste sur l'efficacité pour l'activité ministérielle. Il est important de reconnaître que les efforts pour faire preuve de plus de responsabilité comportent des défis. Il faut équilibrer l'élargissement du champ d'évaluation afin d'avoir plus de renseignements sur le rendement des programmes avec le besoin de se concentrer sur l'exécution des programmes et l'atteinte des résultats.
La période de mise en oeuvre de quatre ans pour la politique nous donne le temps d'adapter notre approche pour élargir de façon réaliste la portée de l'activité d'évaluation dans le contexte des priorités des ressources et des exigences du programme du ministère. Pour augmenter le champ d'évaluation en respectant les niveaux de financement en cours, Environnement Canada adoptera une approche souple basée sur le risque afin de planifier la portée, l'approche et le niveau d'effort pour chaque évaluation. Ce faisant, nous ferons en sorte que nos ressources d'évaluation soient concentrées sur des secteurs du ministère où les renseignements d'évaluation sont les plus requis.
Finalement, le cas échéant, nous effectuerons des évaluations qui portent un regard plus vaste sur certains aspects de l'architecture des activités de programme, plutôt que d'effectuer des évaluations individuelles de chaque programme dans l'élément d'architecture des activités de programme.
Certains des changements mis en oeuvre à Environnement Canada ont été motivés tant par le rapport de la vérificatrice générale que par la nouvelle politique d'évaluation. Nous attendons avec intérêt de voir et nous croyons que nous verrons les effets positifs de ces changements sur nos programmes d'évaluation.
Merci, monsieur le président.
:
Il y a eu entrave dans le cas de plus des deux tiers des évaluations que vous avez examinées. Il en reste 6 qui, peut-être, ont donné des résultats. Ce qui est encore plus inquiétant, c'est que tout ça ne représente que de 5 à 13 p. 100 des programmes par année. Les autres ne sont même pas évalués. Donc, il y en a très peu qui sont évalués. Quant à ceux qui le sont, dans plus des deux tiers des cas, les évaluations ne sont pas satisfaisantes. On espère au moins que les autres ont donné des résultats. C'est ce que l'on lit dans votre rapport.
Pourtant, les six ministères — on l'a entendu encore ce matin — ont accru leurs ressources en ce domaine. J'ai fait le calcul. Si on regarde le tableau 1.6 de la page 27 de la version française — page 22 in English —, entre 2004-2005 et 2008-2009, il y a eu une augmentation de 38 p. 100 des budgets pour les évaluations de programmes. En ce qui a trait à l'augmentation du personnel — à la page 28 de la version française, page 23, le tableau 1.7 démontre une augmentation de 54 p. 100 d'évaluations du personnel. On arrive avec un résultat comme celui-là. Évidemment, on se demande comment il se fait que l'on ait un résultat si peu satisfaisant, alors que l'on a augmenté les ressources.
De combien faudra-t-il les augmenter encore, compte tenu du fait que l'on évalue seulement entre 5 à 13 p. 100 des programmes, et qu'on le fait mal, alors que votre objectif est de tous les évaluer en cinq ans? Donc, 20 p. 100 des programmes devraient être évalués en cinq ans, de façon satisfaisante, alors que vous avez de la difficulté à recruter du personnel compétent, ce qui est un facteur aggravant. Vous utilisez la sous-traitance, mais on ne sait pas si les sous-traitants restent assez longtemps pour fournir une mémoire, une expérience, aux différents ministères et que le Conseil du Trésor lui-même semble complètement débordé. D'après ce qu'on lit dans le rapport, vous n'avez pas assez de personnel, vous n'avez pas exercé le leadership suffisant. Comment y arrivera-t-on? Le gouvernement accroît les exigences et vous n'êtes pas arrivés à remplir celles qui étaient déjà les vôtres. L'écart est quand même assez béant: 5 à 13 p. 100 des programmes évalués, alors que l'on voudrait en évaluer au moins 20 p. 100 de façon convenable.
:
Merci, monsieur le président.
Il y a plusieurs questions dans la question. Je vais essayer d'y répondre le plus possible.
Les éléments qui ont été soulignés par la vérification ont, de fait, été relevés par le Secrétariat du Conseil du Trésor. C'est pourquoi, durant la période de l'évaluation, nous avons revu et refait la politique en matière d'évaluation. La politique touche maintenant à l'évaluation surtout en fonction du rendement des programmes. Il est à noter l'importance de la collecte des données. C'est pourquoi nous avons consacré beaucoup d'efforts à l'établissement des données pour pouvoir mesurer le rendement, parce que c'était une des failles relevées dans le rapport de Mme Fraser.
Nous avons aussi inclus dans la politique une plus grande souplesse vis-à-vis du type d'évaluation, l'étendue de la couverture ainsi qu'une gestion axée sur le risque, c'est-à-dire quelle est sa nature et son importance. Comme Mme Fraser l'a souligné, si ce sont des programmes qui sont appelés à changer, il faut encourager les ministères à se pencher davantage sur ces questions.
Nous avons aussi commencé à recruter du personnel, comme je l'ai mentionné dans mes commentaires. Nous avons établi deux bassins de recrues au niveau intermédiaire d'entrée. Il y a environ 1 500 personnes qui se retrouvent dans ces bassins. Nous sommes, en ce qui a trait à la fonction d'évaluation, plus de 500 personnes sur l'ensemble du gouvernement. La couverture d'évaluation, l'année dernière, était en moyenne de 15 p. 100 pour les programmes. Et pour l'obligation en matière de programmes de subventions et de contributions, nous avons atteint au-delà de 65 p. 100 de la couverture.
Donc, je ne vous dirais pas que tout est parfait et que tout est rose, mais nous avons fait des progrès. Nous travaillons maintenant de façon très concrète et pratique avec la collectivité des évaluateurs et avec les ministères.
:
Merci, monsieur le président.
Je vais poursuivre dans la même veine que le collègue qui m'a précédée.
Lorsqu'on met en relation les tableaux 1.3 et 1.4 de la vérificatrice générale, on s'aperçoit que des évaluations sont prévues et semblent être menées dans les délais. On voit que 88 p. 100 des évaluations de Patrimoine canadien l'ont été; 80 p. 100 à Pêches et Océans, etc.
Par contre, lorsqu'on regarde le tableau 1.4, on constate qu'il y a une critique à savoir qu'une faible proportion du total des dépenses de programmes a été évaluée. Le pourcentage estimatif moyen des dépenses de programmes évalués annuellement est relativement faible.
Pourriez-vous nous apporter des clarifications à savoir sur quoi vous vous concentrez et pourquoi, et qui dicte les priorités?
:
C'est ce que je me demandais, car je me rappelle avoir eu des rencontres avec Mme Ruddick sur les données concernant le système d'immigration.
Voici où je voulais en venir. Il me semble que chaque fois que vous êtes ici, on parle de données insuffisantes, etc. Or je ne comprends pas qu'après 40 ans, on en soit encore à évaluer des programmes. Les données comme les critères sur la base desquels on évalue les programmes ne sont pas déterminés et évalués, et cela ne fait pas partie de la priorité. Pourtant, aujourd'hui, en 2010, tout d'un coup, cela devient une priorité parce que la vérificatrice générale en a fait valoir l'historique. On voit qu'année après année, ce n'est pas résolu.
D'autre part, dans les paragraphes 1.96 à 1.100, la vérificatrice générale indique qu'au cours de ses entretiens avec les différents ministères, ces derniers ont dit craindre de ne pas avoir la capacité d'évaluer les programmes. On indique ensuite qu'ils n'ont pas pu procéder régulièrement aux améliorations recensées.
J'aimerais savoir quelque chose. Dans les ministères, lorsque vous décelez une faiblesse ou une amélioration à apporter, pourquoi n'agissez-vous pas sur ces améliorations? Où se situe, dans votre processus décisionnel, l'importance de régler les problèmes dès qu'ils surviennent ou dès qu'ils sont identifiés?
:
Monsieur le président, je pourrais peut-être commencer, puis demander à mes collègues de renchérir sur leurs propres programmes et activités.
D'abord, pour ce qui est des données, nous avons recommandé aux ministères de travailler avec leurs gestionnaires. C'est vraiment en ce qui concerne la mise sur pied ou le renouvellement des programmes, pour identifier les mesures de rendement qui sont propres à ces programmes. Nous avons aussi demandé, par l'entremise de la politique, que les responsables de l'évaluation dans chacun des ministères fassent un rapport annuel sur la qualité et le captage des données.
Ce sont des mesures que nous avons identifiées. La vérificatrice générale les avait certes aussi identifiées, mais nous les avions identifiées à peu près en même temps qu'avait lieu la vérification. Cela nous a amenés à apporter des changements dans la politique d'évaluation, justement pour pallier ces lacunes. Nous les avions également identifiées. C'est pourquoi nous sommes d'accord sur les recommandations. Le travail de réflexion et de consultation que nous avions entrepris auprès des ministères, qui a mené à la nouvelle politique, reflétait les mêmes lacunes et les mêmes constats qu'a soulignés par Mme Fraser dans la vérification.
Cela étant dit, nous utilisons de plus en plus les mesures d'évaluation pour l'examen des programmes, notamment dans le cadre des examens stratégiques. La même chose s'applique aussi en ce qui a trait au renouvellement des programmes, dans le cadre de la Politique sur les paiements de transfert. Nous exigeons de façon formelle des évaluations de rendement, car il faut bien aussi se pencher sur la question d'effectiveness evaluation, l'évaluation de rendement. Nous sommes beaucoup plus exigeants quant à la nature de l'évaluation que nous ne l'étions auparavant.
Je ne dis pas que, demain matin, tout sera réglé, mais je pense que nous sommes maintenant sur la bonne voie. Les liens sont faits entre les mesures de rendement, les architectures de programmes et l'examen des dépenses pour que le cycle complet soit maintenant intégré.
:
Essentiellement, c'est parce que la vérificatrice générale évoque dans son rapport les défis qu'ont constatés le personnel de la vérification et les fonctionnaires des ministères pour ce qui est de respecter la politique du Conseil du Trésor. Si j'ai cru bon de le mentionner, c'est que je trouvais cet aspect pertinent pour ce débat.
Vous avez tout à fait raison de dire que c'est tout à fait caractéristique de notre travail quotidien. C'est aussi un excellent exemple des améliorations que nous essayons d'apporter de façon constante et c'est en rapport avec la question des données. En tant que sous-ministre, et ce avant la vérification, avant l'instauration de la politique et de l'exigence d'englober 100 p. 100 des dépenses liées à des subventions et contributions, je recevais un rapport d'évaluation. En général, ce rapport indiquait que nous étions en mesure de répondre à certaines questions pour lesquelles nous avions les données nécessaires, mais pas à d'autres questions parce que nous n'avions pas de données sur le rendement. Ainsi, même dans le cadre d'une évaluation particulière, nous avions certaines données; il arrive qu'il y ait des données mais que les gestionnaires de programme ne les précisent pas à l'appui d'une évaluation.
Par exemple, il arrive que nous connaissions la couverture d'un programme donné, mais que nous n'ayons pas les données sur les normes de service. Une évaluation pourrait faire assortir des questions pertinentes, après que le ministère ait décidé d'évaluer ce programme et déterminer la nature et la portée de l'évaluation. Nous avons parfois des données pour certaines questions mais pas pour d'autres. Dans ses échanges avec la vérificatrice générale et son équipe, le personnel chargé de l'évaluation a déterminé que nous devons améliorer la gestion du rendement.
Environnement Canada a récemment remanié l'architecture des mesures de rendement. Nous avons déjà un cadre de gestion du rendement, mais il est loin d'être complet. Nous continuons donc à l'améliorer en mettant au point toutes les données qui viendront étayer cette architecture des activités de programmes, ce qui nous permettra d'avoir plus de données pour les évaluations dans l'avenir.
En terminant, j'aimerais dire qu'en tant que sous-ministre je suis quelque peu ambivalent face à la politique d'une couverture intégrale. D'une part, c'est une autre exigence que je dois remplir, une autre pression et donc une autre obligation. Mais d'autre part, je trouve que c'est nécessaire et que cela donnera plus de rigueur à toutes nos activités en ce qui concerne tant la mise en oeuvre des programmes que leur évaluation. Cela nous obligera à élaborer des données sur le rendement, et ainsi de suite. Aurons-nous atteint la perfection d'ici trois ou cinq ans? Non, parce qu'il restera encore des questions pertinentes à poser et que nous n'aurons pas nécessairement toutes les données, mais nous aurons amélioré nos façons de procéder. Je suis du reste persuadé que nous sommes déjà sur la voie de l'amélioration.
:
Je peux intervenir, monsieur le président.
Les évaluations sont très utiles pour les responsables des politiques, si elles démontrent qu'un programme n'atteint pas ses objectifs. C'est vrai pour nous-mêmes et pour les organismes centraux qui doivent décider de reconduire ou non un programme. Les évaluations peuvent également indiquer quels éléments d'un programme par ailleurs efficace ne donnent pas de bons résultats.
[Français]
Ce peut être à cause des capacités du fédéral comparativement aux provinces. Par exemple, une province est peut-être en mesure de faire mieux que le fédéral en ce qui a trait à un aspect d'un programme.
[Traduction]
C'est également avantageux pour la gestion des programmes. Nous avons rendu publique une vérification portant sur les urgences environnementales, dont une partie portait sur le rôle des agents d'urgence environnementale. Quand nous intervenons sur le terrain lors d'une situation d'urgence, il est très important que les responsabilités des agents d'urgence environnementale et des policiers soient clairement délimitées. Or, l'évaluation a révélé que ce n'était pas le cas. Ainsi, nous avons pu rédiger des directives générales ainsi qu'un énoncé de responsabilité de nos agents d'urgence environnementale, en les différenciant de celles des agents d'application de la loi, de manière à ce qu'il n'y ait plus de confusion sur le terrain ni de litiges au sujet des attributions de chacun de ces intervenants. C'est peut-être un aspect limité, mais cela nous a permis d'améliorer concrètement la mise en oeuvre du programme.
Je pourrais vous donner des exemples de cas où l'évaluation a réellement permis des améliorations, parfois dans la continuité d'un programme et parfois dans sa mise en oeuvre.
:
Merci, monsieur le président.
Nous avons effectivement constaté cette lacune et nous travaillons sur plusieurs fronts pour la corriger. Ainsi, nous avons modifié nos démarches de recrutement et dicté des lignes directrices en matière de compétences de base. Les ministères ont augmenté les sommes consacrées à ces activités. Nous avons plus d'évaluateurs au gouvernement; il y en a un peu plus de 500 à l'heure actuelle.
La vérificatrice générale a fait une comparaison intéressante avec le travail qui a commencé dans les milieux de vérification. Nous suivons un processus fort semblable en identifiant les compétences nécessaires, en déterminant la structure de gouvernance idéale et en définissant la nature du travail des évaluateurs ainsi que la fonction d'évaluation.
Les ministères comprennent de plus en plus la nécessité de gérer et de contrôler eux-mêmes les évaluations, quitte à faire appel, au besoin, à des spécialistes de l'extérieur, car tous les évaluateurs n'ont pas nécessairement les connaissances nécessaires à la réalisation de toutes les vérifications.
Mon collègue pourrait décrire l'expérience des ministères, si vous voulez.
:
Merci, monsieur le président.
En prenant connaissance de l'analyse coût-avantage de tout ce processus, je me suis demandé si on n'essayait pas de faire diversion. Je me souviens qu'il m'en a coûté une fois pour mon entreprise 20 000 $ en honoraires professionnels lors d'une vérification. Dieu seul sait ce que cela coûte au gouvernement. Dans mon cas, on a découvert une différence de 11 $.
Je voudrais votre opinion sur ce qui suit. Les programmes gouvernementaux sont gérés par les gens les mieux qualifiés au pays, les directeurs de programmes et les sous-ministres adjoints. Il y a également l'excellent travail de la vérificatrice générale dont nous ne pouvons que nous féliciter. Toutefois, des vérificateurs vérifient le travail des vérificateurs ministériels, qui eux-mêmes vérifient le travail des vérificateurs internes, qui vérifient le travail des évaluateurs. Nous en venons à...
Mon souci est le coût faramineux que cela représente. Les avantages tirés de cet exercice se comparent-ils favorablement au coût? Sommes-nous au contraire en train d'alourdir la bureaucratie? À lui seul, le gouvernement fédéral emploie 350 000 fonctionnaires au pays. Est-il nécessaire de vérifier le travail des vérificateurs et de vérifier le travail des autres vérificateurs qui eux-mêmes ont vérifié le travail des premiers, lesquels vérifient le travail des évaluateurs?
Pouvez-vous répondre brièvement, madame Fraser?
:
Merci, monsieur le président.
À la première question de savoir si les ministères travaillent ensemble, la réponse est oui. Nous avons mis sur pied la communauté de pratique, en juin 2009. Nous avons des séances régulières, nous partageons de l'information au sujet des meilleures pratiques. Nous avons aussi eu plusieurs discussions sur les compétences clés. Il y a aussi quatre groupes de travail qui se penchent sur les questions très pointues que posent les évaluateurs, comme l'a mentionné Alister Smith. Le Secrétariat n'a pas la science infuse, mais nous encourageons le partage d'information et de compétences.
Vous m'avez aussi posé une question visant à savoir quel était le plan d'urgence. Essentiellement, nous sommes assez encouragés par le progrès réalisé et le pourcentage de couverture atteint en ce moment. Si nécessaire, nous évaluerons les mesures à prendre. Pour l'instant, nous sommes assez confiants, compte tenu de la flexibilité accordée par la politique sur les méthodes d'évaluation que nous avons suggérée, de voir les ministères répondre à la demande.
:
Merci beaucoup, monsieur le président.
Il y a au moins une question que je voudrais approfondir. Au paragraphe 1.52 du rapport de la vérificatrice, il est question de la pénurie d'évaluateurs expérimentés au gouvernement fédéral:
La pénurie d'évaluateurs de programmes expérimentés au sein de l'administration fédérale est un problème de longue date. Elle avait été signalée lors de vérifications antérieures faites par le Bureau du vérificateur général et dans le cadre d'études préliminaires du Secrétariat du Conseil du Trésor; elle a également fait l'objet de discussions récemment dans le milieu fédéral de l'évaluation. Un rapport publié en 2005 par le Centre d'excellence en évaluation du Secrétariat indiquait que la pénurie de personnel d'évaluation était probablement la plus grande difficulté que doivent surmonter les chefs de l'évaluation.
Deux paragraphes plus bas, on peut lire: « Selon des fonctionnaires des six ministères retenus » — M. Dion a soulevé cela un peu plus tôt — « en dépit de l'augmentation des ressources humaines et financières, il est toujours difficile de recruter des évaluateurs d'expérience, surtout de niveau supérieur. À leur avis, la pénurie d'évaluateurs d'expérience les a empêchés de recruter les employés dont ils ont besoin. »
Voici qui est intéressant: « À titre d'exemple, dans le cadre d'un processus de dotation collectif, le bassin d'évaluateurs chevronnés retenus a été vidé avant que la demande n'ait été satisfaite. Les fonctionnaires ont également indiqué que cette pénurie avait incité d'autres unités fédérales d'évaluation à convaincre les évaluateurs de quitter leur emploi pour se joindre à leur service. »
Cela peut très bien marcher pour boucher des trous mais dans une perspective d'ensemble, cela ne résout rien. C'est une inquiétude légitime. Madame Fraser, il y a eu une situation semblable à l'Agence du revenu du Canada et dans ce cas-là, il s'agissait d'experts en revenus d'investissements internationaux. La pénurie de ces experts laisse supposer que certaines sommes de recettes n'ont pas été touchées et — c'est la faute de personne — les experts étant tout simplement introuvables. Je vois ici une situation semblable.
Pouvez-vous tous ensemble donner une idée de la façon dont on doit aborder cette situation? Y a-t-il des contacts avec les établissements d'enseignement et les provinces sur la façon d'y pourvoir?
Voici ma question à plusieurs compartiments.
:
Merci de ces questions.
C'est un défi que de trouver des évaluateurs expérimentés. Nous agissons rapidement pour créer un bassin d'évaluateurs. Nous comptons en grande partie sur les diplômés universitaires.
Il y a un consortium d'universités qui travaillent avec nous pour offrir des cours en évaluation et nous aider à l'accréditation. On les trouve d'un bout à l'autre du pays, Carleton, Ottawa, l'Université Laval à Québec et l'Université de Montréal, l'Université de Saskatchewan, l'Université de Victoria, l'Université de Waterloo. Le réseau s'étend à l'échelle du pays. Nous travaillons également avec la Société canadienne d'évaluation sur le plan de nos normes.
Nous avons diffusé une norme de compétence que nous estimons être assez solide. Beaucoup de cours sont offerts. Nous avons l'appui de l'École de la fonction publique du Canada. Nous faisons tout ce que nous pouvons pour constituer un bassin d'évaluateurs.
Il est vrai que si un ministère a des évaluateurs, il risque de se les faire voler par d'autres ministères. Nous allons continuer d'essayer de constituer un groupe d'évaluateurs. Au bout du compte, dans la mesure où ces évaluateurs restent à l'emploi de l'administration fédérale, nous ne nous en trouvons que mieux.
:
Monsieur le président, je voudrais ajouter qu'une de mes responsabilités en tant que sous-ministre est d'accorder mon plein appui au groupe d'évaluation. Il n'y a rien de plus motivant pour une équipe de fonctionnaires que de savoir que son travail a de l'importance et qu'elle a la possibilité de contribuer à l'entreprise.
Je pense que tous les sous-ministres pourraient dire ce que je dis à propos de ma propre équipe. Il s'agit d'un groupe de jeunes gens aux compétences impressionnantes accompagnés de gens plus mûrs qui aiment leur travail.
Les gestionnaires doivent se faire à l'idée qu'ils vont perdre des bons sujets. Je ne pense pas que mes responsabilités se limitent au ministère de l'Environnement car les fonctionnaires constituent un bassin collectif. Toutefois, pour m'acquitter de mes obligations en vertu de la politique, il m'incombe certainement de retenir ou de recruter les meilleurs éléments possibles.
Les chiffres prouvent que le nombre d'évaluateurs a augmenté. Nous utilisons nos personnels à bon escient, et nous faisons aussi appel à des contractuels. Il est arrivé que nous recrutions d'anciens contractuels qui nous avaient donné satisfaction.
Je dirais que la carrière est emballante. Il n'y a sans doute aucun autre meilleur moyen que dans une unité d'évaluation d'apprendre les rouages d'un ministère, car c'est en faisant ce travail d'évaluation, en travaillant avec les gestionnaires, qu'on les découvre.
Ces fonctionnaires deviennent très compétents en matière de politiques et de programmes et souvent, leur carrière évolue de l'évaluation à d'autres domaines. À vrai dire, à cause de cela, nous perdons des évaluateurs mais nous allons nous alimenter pour le recrutement ailleurs dans la fonction publique. La situation est très compliquée.
:
Monsieur le président, j'ai donné un exemple du genre de question qui pourrait être soulevée lors d'une évaluation du rendement.
Dès le départ, lors de l'élaboration et de l'adoption d'un programme, il serait bon de procéder aux analyses fédérales et provinciales qui s'imposent. En principe, le gouvernement du Canada ne devrait pas s'embarquer dans des programmes hors de son domaine de compétences mais bien sûr, plusieurs compétences sont partagées au Canada.
Il est sûr que dans mon domaine, notre travail avec les provinces est absolument capital. L'évaluation peut mettre en lumière des facteurs dans cette relation qui peuvent être tout simplement l'estimation du déroulement harmonieux du projet. Une petite province peut ne pas avoir la même capacité qu'une plus grande province et c'est alors qu'elle veut compter sur nous pour la partie la plus lourde. Ce n'est peut-être pas toujours le cas mais il en est ainsi pour certains programmes. Cet aspect-là sera mis en lumière lors de l'évaluation.
Par ailleurs, il peut se présenter des questions plus complexes. Tout comme les provinces peuvent avoir laissé de côté certaines choses par manque de capacité ou d'intérêt, le gouvernement fédéral peut avoir fait de même dans certains domaines. Un programme s'appliquant à une situation il y a 20 ans n'a peut-être pas lieu d'être aujourd'hui.
Voilà le genre de rajustements aux programmes qui se font parfois dans les relations fédérales-provinciales. Les cadres peuvent trouver très utile que l'évaluation leur fournisse une analyse et attire leur attention.
:
En fait, il s'agissait d'une estimation. Au ministère, il y a eu une augmentation de plus de 100 p. 100 de notre capacité.
[Traduction]
Nous sommes passés d'environ quatre évaluateurs en 2004-2005 à 12 ou 12,5 ETP aujourd'hui. Au cours de cette période, nous avons plus que doublé notre capacité d'évaluation.
Pour l'avenir, nous croyons que, de façon générale, l'objectif d'une couverture de 100 p. 100 est réalisable. Nous espérons pouvoir compter sur davantage d'évaluateurs, ce qui nous permettrait d'atteindre cet objectif. Mais il est vrai que la gestion de ce dossier doit être prudente, et nous devrons concentrer nos ressources d'évaluation dans les secteurs où elles promettent les meilleurs résultats.
Comme je l'ai mentionné, la mise en oeuvre de cette politique prévoit une certaine souplesse. Par exemple, une façon efficace de procéder serait d'évaluer tout un éventail de programmes plutôt qu'un seul programme à la fois. Si nous faisons de bons choix et si nous avons de bons plans d'évaluation, nous pourrons couvrir 100 p. 100 des programmes de façon efficace. Les professionnels de l'équipe d'évaluation pourront nous aider à établir des plans d'évaluation efficaces et susceptibles de nous aider à atteindre notre objectif.
Le défi est grand, mais il faut le relever, et nous ferons de notre mieux.
:
Le cadre de responsabilisation de gestion a été établi en 2003. Il permet d'évaluer l'ensemble des résultats de gestion du ministère, et ce, dans un large éventail de secteurs. L'évaluation est l'un des 19 secteurs de gestion que nous mesurons à l'heure actuelle.
Par exemple, nous incitons les ministères à évaluer leur capacité de vérification, de gestion financière et de gestion des ressources humaines. Nous examinons aussi les questions relatives à la gestion du rendement et nous évaluons la nature des présentations au Conseil du Trésor.
Bon nombre de ces secteurs, y compris l'évaluation, sont essentiels aux fonctions de gestion et au bon rendement de la gestion des ministères et des organismes. Outre les évaluations, nous avons des indicateurs de rendement. Certaines des mesures d'évaluation pourraient être qualifiées d'objectives, tandis que d'autres sont des autoévaluations qui sont effectuées par les ministères et organismes et qui nous sont ensuite transmises.
Nous présentons aussi des rapports aux ministères. En fait, nous affichons les résultats des évaluations de gestion dans notre site Web. Nous collaborons avec les ministères à l'établissement des priorités de gestion pour l'année à venir.
C'est à ce chapitre — dans certains cas, du moins — que le rendement de l'évaluation n'a pas atteint les normes les plus élevées. À l'occasion, nous indiquons au ministère concerné ce qu'il y a lieu d'améliorer en priorité. Cela devient donc pour ce ministère une priorité de gestion pour une année donnée, et il peut de cette façon se concentrer sur l'amélioration de sa capacité de gestion dans un certain secteur, par exemple, l'évaluation.