Le dernier chiffre magique du Programme de scolarisation universelle gratuite et “obligatoire” (PSUGO)

Le PSUGO ou le degré zéro de l’écriture

Publié le 2013-12-12 | Le Nouvelliste

Idées & Opinions -

Jacques Yvon Pierre Roland Barthes, dans « le degré zéro de l’écriture », écrit : « {…] le pouvoir ou l'ombre du pouvoir finit toujours par instituer une écriture axiologique, où le trajet qui sépare ordinairement le fait de la valeur est supprimé dans l'espace même du mot, donné à la fois comme description et comme jugement. Le mot devient un alibi (c'est-à-dire un ailleurs et une justification). Ceci, qui est vrai des écritures littéraires, où l'unité des signes est sans cesse fascinée par des zones d'infra- ou d'ultra-langage, l'est encore plus des écritures politiques, où l'alibi du langage est en même temps intimidation et glorification : effectivement, c'est le pouvoir ou le combat qui produisent les types d'écriture les plus purs ». Le discours de Madame Vanessa Matignon à l’UNESCOà la 37ème assemblée de l’UNESCOfaisant dela variation du taux net de scolarisation du pays de +12% sur une période de neuf ans un résultatdu Programme de scolarisation universelle gratuite et obligatoire initié depuis deux ans seulement, paraît s’inscrire, en ce sens là, dans le sens. Et commeon n’est pas encore au temps d’évaluation sommative du programme de scolarisation universelle ; on ne peut pas demander àMadame de s’enfermer dans des parades d’externalité et d’indépendance qui viseraient à garantir la crédibilité auprès des audiences extérieures. Elle pourrait, avec raison, appeler les incrédules à l’ordre, taper sur la table en faisant remarquer qu’en attendant l’évaluation finale et l’évaluation ex-post du PSUGO, il y a des données qui proviennent du dispositif de suivi–évaluation ou du suivi-capitalisation (collecte et analyse régulière de l’information utile à l’action) du PSUGO. Elle aurait raison. Sauf que…, présenter déjà les retombées du PSUGO sur le taux de scolarisation (encore qu’il s’agisse du taux net) relève d’un certain niveau d’évaluation de ce programme. 1. Et si on précise tout au moins la terminologie relative au cadre d’évaluation des projets/programmes ? La terminologie liée à l’évaluation des projets/programmes est plurielle. Autant préciser de quoi on parle pour éviter ces querelles sémantiques qui ont le pouvoir de déboucher sur de faux débats. Le schéma classique relatif au cadre d’évaluation d’un projet ou d’un programme distingue cinq niveaux d’évaluation : le niveau zéro qui est l’évaluation ex-ante et qui consiste à réaliser un diagnostic de départ portant aussi bien sur la situation que sur les acteurs (lesquels ne se résument pas au public cible, le « client » du projet). A ce stade, on analyse les zones d'incertitude des acteurs et l’on anticipe leurs stratégies. Ce niveau zéro correspond à ce que l’on appelle dans le langage des projets/programmes la situation de référence. Les autres niveaux supposent que le projet/programme est mis en œuvre.On peut, à ce moment-là, parler d’unniveau 1 : celui de la ou des évaluations intermédiaires. Ces évaluations intermédiaires ou d’étape sont des évaluations “formatives” conduites au bénéfice de ceux/celles qui gèrent le projet/programme. Elles visent à améliorer leur travail et requièrent leur pleine participation. Mais, en bout de piste, les résultats obtenus dans la mise en œuvre du projet/programme correspondent-ils aux résultats attendus ? Cette question nous place au niveau 2 du cadre d’évaluation : l’évaluation des résultats. Il s’agit, au regard des objectifs initiaux de l’action, de comparer les objectifs définis aux résultats atteints (écart chiffréentre le prévu et le réalisé ou différence de natureentre le prévu et le réalisé). Mais, au-delà des résultats, quel est le niveau d’interaction entre l’action et l’environnement du projet ? On est là au niveau 3 de l’évaluation : l’évaluation des effets. Bien d’éléments différent ce niveau d’évaluation de l’évaluation des résultats : le public concerné par les effets est plus largeque le public cible de l’action ; les stratégies menées par les personnes et les populations sont souvent imprévisibleset difficiles à cerner ; d’autres actions conduites par d’autres opérateursont pu interférer. Mais tous les effets mis en ensemble peuvent engendrer des changements significatifs importants. C’est l’impact. En évaluant ces changements importants, significatifs, durables, positifs et négatifs, prévus et imprévus sur les personnes, les groupes et leur environnement ayant un lien de causalité avec l’action, on se rend auniveau 4 : l’évaluation de l’impact ; le niveau d’évaluation le plus complexe. Bref. L’évaluation ex-ante précède la mise en œuvre du projet/programme, l’évaluation ou les évaluations intermédiaires ou d’étape sont des évaluations concomitantes (qu’on mène tout au long de l’exécution du projet/programme). L’évaluation des résultats vient après mais elle n’est pas l’évaluation finale qui, elle, s’intéresse aux effets. L’évaluation de l’impact qui vient bien après la mise en œuvre du projet/programme cherche à saisir les changements significatifs introduits par les effets du projet/programme. Elle boucle la boucle du cadre d’évaluation. Autrement dit, l’évaluation ex-ante permet de programmer l’action, l’action programmée donne des résultats, les résultats produisent des effets, les effets combinés constituent l’impact… 2. Que ce serait-il passé s’il n’y avait pas le PSUGO ? Question fondamentale que se posera tout évaluateur sérieux avant de commencer à évaluer ce programme si évaluation, il y en aura ; si évaluation, il pourra y en avoir. On devra chercher à voir comment refaire l'histoire, comment construire une base de comparaison. Toute l’essence de l'évaluation d’un projet/programme est là : savoir trouver une solution pour construire une base de comparaison permettant d'aboutir à des conclusions crédibles. Nous faisons l’hypothèse qu’il n’y a pas de confusion dans la déclaration de Mme Matignon entre les concepts résultats (changements produits directement par l’action), effets (incidences directes et indirectes de l’action) et impact (situation finale à la suite de l’action) du PSUGO. Mais, pour analyser la déclaration de Matignon, en plus du pouvoir de mettre la charrue avant les bœufs, il nous faut aussi nous donner le droit de déplacer les composantes du temps (le futur avant le présent) et instituer ainsi l’ordre du désordre dans toute série temporelle en rapport avec le PSUGO. On pourrait, à ce moment, décider que cette déclaration proviendrait d’une évaluation d’impact du programme en question. Il y en a principalement quatre types : évaluation par simple observation après mise en œuvre, évaluation avant et après mise en œuvre, évaluation avec groupe témoin équivalent, évaluation avec groupe témoin non équivalent. De quel type d’évaluation seraient issues les données relatives au changement perçu par le PSUGO sur le taux net de scolarisation ? Apparemment d’une évaluation par simple observation après mise en œuvre, laquelle estappropriée pour des évaluations de moyens et de réalisation. Une telle évaluation permettrait effectivement de : (i) constater de quelle manière le programme a été mis en œuvre ; (ii) mesurer ses résultats immédiats (outputs), (iii) améliorer la compréhension des comportements des groupes concernés et des instruments ou mécanismes. Mais, on connaît généralement les limites de ce mode d’évaluation. Il ne serait pas capable d'isoler les effets du programme des autres facteurs possibles d'évolution et comporte donc une forte dose de subjectivité. Ce mode d’évaluation n’est nullement recommandé pour fournir un schéma explicatif des phénomènes observés. Si on peut, à partir d’un tel mode d’évaluation, suggérer des liens de causalité, on ne peut pas en tirer des conclusions. La conclusion sur l'impact serait donc impossible dans un tel cas. Tout au moins, on pourrait indiquer que l'objectif a été atteint mais sans pouvoir attribuer ce résultat au programme. Et si on se mettait à croire que les changements relatifs à la croissance du taux net de scolarisation attribués au PSUGO viendraient d’une évaluation par comparaison avant/après ? Alors, on constaterait que la période de mise en œuvre du PSUGO a coïncidé avec une modification de cet indicateur. Mais la conclusion sur l'impact manquerait de précision et de solidité pour les mêmes raisons évoquées précédemment. L'expérimentation idéale devrait être réalisée avec un groupe de contrôle équivalent. Mais, comment, de manière éthique, pourrait-on condamner un groupe à ne pas être bénéficiaire d’un programme de scolarisation universelle sans compter les difficultés de trouver un groupe équivalent hors projet? Il ne resterait alors qu'une issue : procéder par comparaison avec un groupe de contrôle reconstitué a posteriori. Faut-il rappeler que, dans un cas comme dans l’autre, les techniques auxquelles on recourt sont quasiment les mêmes (examen de dossiers, observation directe, opinion d'experts, étude de cas, enquêtes statistiques, analyses de données, calculs de ratios, comparaison avec des normes... ? Faut-il, au regard de ce que l’on tend à imputer au PSUGO, rappeler deux vérités de Palisse en ce qui a trait à l’évaluation des résultats, des effets ou des impacts d’un projet ou d’un programme : (i) la première est la nécessité de diagnostiquer au départ la situation de référence relative à toutes les activités qui seront entreprises (où est ce diagnostic ? Serait-ce le document de la Stratégie nationale d’éducation pour tous (SNA-EPT) ? Serait-ce le plan opérationnel du secteur validé après le lancement du PSUGO ?) (ii) la deuxième vérité de Palisse est la distinction claire et nette qu’il faut établir entre finalité, but, impact, objectif, moyens du projet ou du programme ? Tout ceci doit nous permettre de résoudre deux problèmes : le premier est celui de l’identification de l’effet, le deuxième est celui de l’attribution de l’effet à un projet ou un programme.

Références bibliographiques 1. Raymond GREW& Patrick J. HARRIGAN, L’école primaire en France au 19e siècle. Essai d’histoire quantitativeParis, Éditions de L’EHESS, 2002 (traduit de l’anglais par Marie-Pierre Gaviano), 398 p. 2. Baker, Judy L Evaluation de l’impact des projets de développement sur la pauvreté : Manuel à l’Attention des Praticiens / 1960- 3. Bachelet, Rémi ; l’évaluation des projets : indicateurs d’impact, 4. Conférence Mondiale sur l’Education Pour Tous de Jomitein/Thailande, Déclaration Mondiale sur l’Education Pour Tous, 9 Mars 1990 ; 5. Forum mondial sur l’éducation, Cadre d’Action de Dakar, 26 au 28 Avril 2000 ;
Jacques Yvon Pierre Auteur
Ses derniers articles

Réagir à cet article