Passer au contenu
Début du contenu

PACP Rapport du Comité

Si vous avez des questions ou commentaires concernant l'accessibilité à cette publication, veuillez communiquer avec nous à accessible@parl.gc.ca.

PDF

ANNEXE I : MÉTHODOLOGIE

Le principal objectif de l’étude consistait à déterminer dans quelle mesure le gouvernement, dans ses réponses, accepte les recommandations du Comité des comptes publics et s’engage à y donner suite. Un second objectif était de déterminer dans quelle mesure les ministères prennent les mesures qu’ils ont indiquées; pour ce faire, on a utilisé de l’information publique afin de ne pas engager de dépenses et de contourner la complexité de vérifications de suivi détaillées comme celles qu’effectue le vérificateur général.

Pour effectuer l’étude sans tarder, on a constitué un échantillon de recommandations formulées par le Comité au cours des 37e et 38législatures, selon lesquelles les mesures ministérielles recommandées devaient être indiquées publiquement dans le Rapport ministériel sur le rendement du ministère concerné. L’étude portait sur deux sessions complètes de la 37législature et sur une session complète de la 38e législature, soit une période allant du 31 janvier 2001 au 29 novembre 2005 (tout juste moins de quatre années et dix mois).

L’étude se limitait aux recommandations invitant le gouvernement fédéral à signaler ses mesures correctrices dans les documents de reddition de comptes tels que les Rapports sur les plans et les priorités, les Rapports ministériels sur le rendement et les rapports annuels. Cela restreignait le groupe de réponses du gouvernement à un échantillon de 110 recommandations contenues dans 34 rapports du Comité. Cet échantillon comprend un nombre significatif de recommandations, présentées au cours d’une période significative et sous plusieurs gouvernements. On évite ainsi les distorsions qui pourraient se produire si la période à l’étude était plus courte et avait connu un seul gouvernement.

Le fait de restreindre l’échantillon aux recommandations dans lesquelles on invitait le gouvernement à exposer publiquement les résultats dans les Rapports ministériels sur le rendement (ou parfois dans les Rapports sur les plans et les priorités) permettait de vérifier aisément si des mesures avaient été adoptées. On tenait compte aussi d’un thème récurrent des recommandations du Comité au fil des ans, soit la nécessité d’accroître la transparence dans les travaux du gouvernement et de mieux utiliser les Rapports ministériels sur le rendement, principaux documents servant à exposer publiquement les résultats des ministères. Le Comité ayant particulièrement insisté sur la publication des résultats, il serait utile de voir si les ministères ont appliqué les recommandations portant sur ce point afin de déterminer s’ils ont suivi les recommandations du Comité qui sont distinctes de celles du vérificateur général pouvant être semblables à d’autres égards.

L’établissement d’un échantillon de recommandations présentait également des avantages, car le volume de dossiers examinés par le Comité donne habituellement lieu à l’élaboration d’un grand nombre de recommandations chaque année. Au cours de la période visée, le Comité permanent des comptes publics a déposé en tout 77 rapports, qui contenaient un total de 535 recommandations écrites. Toute tentative faite en vue d’examiner la mise en œuvre des recommandations au cours d’une période de plusieurs années pour éviter que les tendances à court terme ne biaisent les résultats aurait retardé indûment la réalisation de la présente étude.

Les réponses du gouvernement à chacune des recommandations de l’échantillon ont été classées en fonction du modèle exposé dans le tableau 1 ci-dessous.

TABLEAU 1 : MÉTHODE DE CLASSIFICATION DES RÉPONSES DU GOUVERNEMENT

POINT

CLASSIFICATION

CRITÈRES

RÉPONSES

Rejetée

Critère principal : on n’accepte pas les principaux éléments de la recommandation.

- le désaccord peut être exprimé de façon explicite,

- des raisons peuvent être indiquées (p. ex. la recommandation n’est pas applicable),

- une mesure de rechange privilégiée peut être indiquée.

Statu quo

Critère principal : aucun engagement de la part du gouvernement à prendre les nouvelles mesures recommandées.

- emploi possible de termes vagues au lieu d’engagements clairement énoncés,

- précisions possibles au sujet de ce que fait déjà le ministère au lieu de mesures d’action concrètes.

Acceptée

Critère principal : on s’engage à prendre les principales mesures d’action recommandées

- délais d’intervention ou autres éléments non fondamentaux pouvant être modifiés.

Pour déterminer si les exigences établies en matière de rapport dans chacune des recommandations ont été respectées, on a examiné les rapports indiqués dans les recommandations en fonction des critères énoncés ci-dessous (dans les cas où les réponses du gouvernement précisaient que les résultats seraient exposés dans d’autres sources, on a également examiné ces dernières).

TABLEAU 2 : MÉTHODE DE CLASSIFICATION DES RAPPORTS DU GOUVERNEMENT

RAPPORTS

Confirmation

Critère principal : le Rapport ministériel sur le rendement (ou autre rapport) fournit-il tous les renseignements demandés dans la recommandation, sinon la plupart?

- les renseignements peuvent constituer la réponse à une recommandation,

- la présentation doit être suffisamment claire pour constituer nettement une réponse identifiable,

- les renseignements sont suffisamment détaillés pour donner suite à la recommandation.

Pas de confirmation

Critère principal : le rapport contient peu de renseignements demandés, sinon aucun.

- le rapport peut reposer sur des énoncés très généraux ne fournissant pas assez de précisions permettant de confirmer la mise en œuvre d’une recommandation.

Sans objet

Critère principal : la recommandation a-t-elle été rejetée (empêchant ainsi la publication de résultats)?

Bien qu’il ait été facile de classer la plupart des réponses du gouvernement et les sections pertinentes des rapports sur le rendement en fonction des cadres exposés précédemment, il convient de signaler que la formulation vague de maintes réponses, y compris les commentaires positifs sur les recommandations dénués d’accord explicite, a continuellement posé problème. Par ailleurs, en raison de limites de classification, il fallait faire preuve de discernement même quand les réponses classées étaient raisonnablement précises et ouvraient la voie à des discussions sur la classification de chacune des réponses. En particulier, il fallait faire preuve de discernement pour juger de l’acceptation partielle d’une recommandation, classée dans la catégorie des recommandations « acceptées », ou de l’acceptation moins complète ou moins sûre d’une recommandation, qui entre dans la catégorie du « statu quo ». En outre, le niveau et le détail de rapport permettant de distinguer les cas de confirmation des cas de non-confirmation nécessitent également du discernement (même si les critères susmentionnés restreignent le caractère arbitraire).

L’étude portait sur la question des « zones grises » et prévoyait à cet effet un processus de classification indépendante menée par deux analystes, suivi d’une contre-vérification pour l’application uniforme des critères et pour le rapprochement des différences fondé sur des discussions au sujet des éléments probants. Il convient de signaler que la proportion de « zones grises » relevées était inférieure à 15 p. 100. C’est donc dire que les conclusions générales de l’étude peuvent être acceptées avec un degré de confiance élevé, même si la classification de certaines recommandations peut encore poser problème.

haut