2. La production de statistiques internationales de l`éducation

publicité
Séminaire international « La mesure en éducation »
FOREDUC, EHESS, IRD
18-19 juin 2004
Vers une comparabilité plus normative des statistiques internationales de l’éducation :
du droit à l’éducation aux compétences
Roser Cussó et Sabrina D’Amico1
Résumé : La comparabilité des statistiques internationales de l’éducation –telle que définie par
l’UNESCO– a été défiée depuis la fin des années 1980, lorsque d’autres agences internationales
commencent à produire leurs propres statistiques éducatives. Cette évolution est parallèle à la nouvelle
importance stratégique que l’éducation prend dans les programmes économiques nationaux et
internationaux. L’éducation et la formation contribueraient à faire face à la concurrence entre les nations
sur le marché international (employabilité, flexibilité). La comparabilité des statistiques de l’éducation
devrait, de ce fait, être plus poussée par rapport à celle attachée au « droit à l’éducation ». Les indicateurs
doivent servir à comparer non seulement les caractéristiques du système éducatif, mais aussi les
décisions politiques qui les sous-tendent. Ces dernières doivent, en outre, être évaluées selon des
critères de performance établis par des observateurs extérieurs (compétences des élèves, efficacité de la
dépense…). Paradoxalement, cette nouvelle comparabilité internationale est, quelque part, moins
consistante du point de vue statistique (« régionalisation », critères méthodologiques hétérogènes, rupture
des séries temporelles), mais beaucoup plus poussée dans ses objectifs (mesure de la performance du
système scolaire et des élèves) et dans ses conséquences (réforme scolaire, conditionnalités des prêts).
1. Vers quelle comparabilité internationale ? .................................................................................................... 1
2. La production de statistiques internationales de l’éducation : l’UNESCO ............................................ 3
3. La qualité des données internationales de l’éducation jusqu’aux années 1990 .................................. 6
4. Le tournant des années 1990 : critique et diversification de la production statistique ..................... 8
5. Education pour tous, révision de la CITE et restructuration des services statistiques ................... 10
6. Des comparaisons statistiques plus « normatives » et « fragmentées » ............................................ 12
7. Conclusion : nouvelle politique d’éducation, nouvelle comparaison internationale........................ 15
Références bibliographiques ............................................................................................................................... 16
Annexe ....................................................................................................................................................................... 18
1. Vers quelle comparabilité internationale ?
Les statistiques internationales de l’éducation font, depuis quelques années, l’objet d’un intérêt croissant
de la part des agences internationales, des chercheurs et du public en général. Cet intérêt est parallèle à
la nouvelle importance stratégique que l’éducation a prise dans les programmes économiques nationaux
et internationaux2. Depuis la fin des années 1970, dans le contexte du renouveau libéral, les évolutions du
Les auteurs ont travaillé plusieurs années dans les services statistiques de l’UNESCO, notamment entre 1994 et
2001. Sabrina D’Amico, statisticienne de formation, est actuellement fonctionnaire au secteur des Ressources
humaines de l’UNESCO. Roser Cussó réalise, avec le financement du FNRS, un post-doctorat sur les politiques
d’éducation de l’Union européenne au sein du GRAID, Institut de Sociologie de l’Université Libre de Bruxelles.
2 Il importe de rappeler que, bien que sur un autre plan, l’éducation était, depuis bien avant, perçue comme un facteur
de productivité et de transformation sociale et culturelle (Cussó, 2002) : « La Banque [mondiale] est convaincue que
le progrès économique des pays moins développés dépend pour beaucoup de la mesure dans laquelle ils
parviendront à créer les compétences nécessaires parmi leurs populations et à ouvrir à leur esprit un plus large
horizon, et que le succès des efforts qu’ils déploieront en ce sens ne peut être assuré que s’ils disposent de systèmes
d’éducation efficaces et adéquats. » (Banque mondiale, 1963 : p8).
1
1
contexte socioéconomique (crise du pétrole, transformation du mode de production) s’accompagnent
d’une nouvelle façon de concevoir la politique économique et de rendre compte des problèmes qui y sont
liés (régulation par le marché, restructuration, privatisation, plus grande libéralisation des échanges…).
Basé essentiellement sur la formation et l’éducation des individus, le capital humain (Becker, 1993) redevient une variable stratégique centrale pour, en principe, faire face à la concurrence croissante entre les
nations sur le marché économique international. Un pays disposant d’une population active formée et
flexible est supposé pouvoir mieux s’ajuster aux évolutions du marché et de la demande de compétences
qui s’ensuit. C’est dans ce contexte que la comparabilité des statistiques internationales de l’éducation
prend une nouvelle dimension.
Les activités statistiques internationales sont du début, marquées par la recherche de la comparabilité
entre les pays dans le contexte des politiques de « développement ». En effet, depuis leur création, les
Nations Unies (NU) –via leurs agences et leurs commissions spécialisées– encouragent l’extension et la
standardisation des statistiques nationales (enquêtes de ménages, recensements démographiques…)
avec, entre autres, la définition de méthodologies et de catégories statistiques communes (catégories
socioprofessionnelles, rural, urbain…). Les systèmes éducatifs nationaux ne font pas exception. La
responsabilité de leur étude comparative revient à l’Organisation des Nations Unies pour l’éducation, la
science et la culture (UNESCO).
Restée assez « descriptive », la comparabilité mise en œuvre par l’UNESCO sera critiquée à partir des
années 1980. Dans le but, entre autres, de tenir compte de la diversité des systèmes éducatifs nationaux,
les traits communs de cette diversité –représentés par les indicateurs statistiques–, tout étant
techniquement comparables, n’étaient pas traitées comme immédiatement équivalents –sur un
classement, par exemple. La critique de cette démarche et la demande d’une nouvelle comparabilité
statistique proviendront notamment de la Banque mondiale et de l’Organisation de coopération et de
développement économiques (OCDE) 3. L’établissement de classements hiérarchisés des pays,
notamment concernant les acquis scolaires des élèves, est vivement souhaité (Puryear, 1995). Il ne suffit
plus de savoir combien de diplômés produit un système éducatif par rapport à ceux d’autres pays, mais
aussi à quel coût, dans quel but, avec quelles connaissances et compétences précises des élèves.
Autrement dit, il ne s’agira plus seulement de comparer les caractéristiques du système éducatif, mais
aussi les décisions politiques nationales qui les sous-tendent. Ces dernières ne doivent pas être
uniquement évaluées selon leurs propres objectifs, mais également par rapport à des critères de
performance établis par des observateurs extérieurs (efficacité du système éducatif, développement de
compétences…).
Malgré ces critiques, le programme statistique de l’UNESCO restera, du moins jusque la restructuration
des services statistiques en 1999, essentiellement destiné à mettre à disposition des Etats membres des
données internationalement standardisées dans le cadre de l’extension et de la planification de
l’éducation de masse. Les publications continuent à n’inclure que rarement des classements des pays ou
des analyses statistiques complexes (des corrélations entre le salaire des enseignants et le nombre de
diplômés, par exemple, ne sont guère calculées bien que les données nécessaires soient collectées).
C’est ainsi que, surtout depuis les années 1990, l’OCDE, Eurostat ou la Banque mondiale commencent à
collecter, analyser et publier leurs propres données de l’éducation. Ces entités développent également
La demande d’une nouvelle comparabilité statistique internationale coïncide également avec le débat sur la school
effectiveness développé notamment aux Etats-Unis et au Royaume-Uni (Normand, 2003).
3
2
des études statistiques et produisent des recommandations sur la politique éducative. Cette nouvelle
production permettra de réaliser, enfin, la nouvelle comparabilité internationale revendiquée depuis une
dizaine d’années.
Dans un premier temps, nous explorerons les enjeux de la collecte, de l’analyse et de la diffusion des
données internationales de l’éducation. Nous nous centrerons sur les activités des services statistiques de
l’UNESCO, notamment la méthode et les particularités techniques qui ont marqué les critères de
comparabilité –et de qualité– des données internationales de l’éducation jusqu’aux années 1990. Le
tournant des années 1990 verra la production statistique et les critères de comparabilité des données se
diversifier. Nous analyserons ces évolutions méthodologiques et leurs conséquences techniques, mais
aussi le lien entre la multiplication d’études statistiques et de recommandations qui accompagnent cette
nouvelle comparabilité des données et les programmes de réforme et/ou de révision des systèmes
éducatifs nationaux.
Enfin, avec cet article, nous voudrions contribuer à garder trace de la façon de concevoir la comparabilité
et la qualité des statistiques internationales de l’éducation qui a prévalu au cours de quatre décennies au
sein de l’UNESCO. Cette perception de la comparabilité a, en principe, correspondu à une façon
particulière d’envisager le dialogue entre les nations dans le cadre du droit à l’éducation et du respect de
la diversité, non sans contradiction entre ces deux notions, respectivement « modernisatrice » et
« traditionnelle » (Cussó, 2003). Selon cette perspective, les pays nécessitaient des comparaisons
statistiques et des objectifs communs pour, par exemple, mieux identifier les points faibles de leurs
systèmes éducatifs (« coopération technique »). Les politiques d’éducation –leur évolution ou réforme–
étaient définies en dernière instance par les responsables politiques et sociaux de chaque pays selon
leurs propres objectifs. Comparer était examiner et échanger, mais pas toujours –ou pas forcément–
déterminer des modèles communs et univoques à partir de l’analyse des indicateurs internationaux, aussi
rigoureuse soit-elle. C’est cette distance critique qui avait permis une comparabilité internationale solide et
souple à la fois, aujourd’hui défiée par les nouvelles demandes d’information.
2. La production de statistiques internationales de l’éducation : l’UNESCO
La définition, la collecte et la diffusion des statistiques internationales de l’éducation sont des activités
cruciales qui supposent l’endossement d’une grande responsabilité et le privilège d’une influence
considérable sur les rapports et les études statistiques qui en sont dérivés. Le dessin d’un questionnaire
(ou d’une enquête) international détermine le type, la couverture et le niveau de détail des données
demandées aux responsables nationaux autant qu’il fixe l’éventail d’indicateurs qu’il sera ensuite possible
de calculer. La conception de la base de données, la méthode de vérification ou la définition de la
comparabilité pèsent énormément sur les caractéristiques des statistiques. Les décisions concernant
l’analyse et la publication des statistiques délimitent la sélection de données et d’indicateurs disponibles
pour les praticiens et les chercheurs. Pendant plusieurs décennies, c’est l’UNESCO qui a eu la
responsabilité principale de la production des statistiques internationales de l’éducation. Cette
responsabilité découlait de sa mission au sein du système des NU et de la représentativité
intergouvernementale de sa Conférence générale4.
La Conférence générale réunit tous les Etats membres de l’UNESCO tous les deux ans. Le Conseil exécutif, où sont
représentés cinquante-huit Etats membres, se réunit deux fois par an. Il veille à l’exécution des décisions de la
Conférence générale et prépare les travaux de la session suivante. Après consultation avec les Etats membres et en
interaction avec la Direction générale, les différents secteurs et unités du Secrétariat (Education, Sciences, Culture,
4
3
La Division des statistiques de l’UNESCO 5 a conçu et a mis en œuvre un programme statistique
international sur l’éducation –ainsi que sur la science et la technologie, la culture et la communication–
couvrant tous les pays du monde. Le schéma suivant synthétise les grands traits du programme de travail
qui a permis d’assurer la comparabilité internationale des statistiques de l’éducation –et leur « qualité »
telle que définie aujourd’hui par la plupart des agences internationales (Eurostat, 2002 ; Carson et al.,
2001)– aussi bien que le maintien d’un certain nombre de particularités nationales jusqu’aux années
1990.
La production de données internationales de
l’éducation (UNESCO)
DEFINITION DES INDICATEURS
DEFINITION D’OUTILS DE
CLASSIFICATION (CITE)
ELABORATION D’OUTILS DE
RECUEIL DE DONNEES
(questionnaires, enquêtes…)
FORMATIONS,
MANUELS
FOURNISSEURS de DONNEES
(PAYS)
OBJECTIFS
(GENERAUX et SPECIFIQUES)
Vérifications
approfondies
DONNEES
Statistiques
Répercussions
Publications
ANALYSE ET
VERIFICATION
Analyses
Recherche
Diffusion
BASE DE
DONNEES
Tout d’abord, tout programme de production de données s’appuie sur la définition de ses objectifs (qu’estce qu’on veut mesurer et pourquoi). Le programme statistique de l’UNESCO a été long temps encadré
dans l’objectif général du droit à l’éducation (UNESCO, 2000). Le principal objectif spécifique a été de
mettre à la disposition des Etats membres des données comparables pour les aider dans leur prise de
décision (planification) et dans leur cheminement vers l’extension de l’éducation et de l’alphabétisation.
Ces objectifs se sont appuyés sur les politiques post-keynésiennes des années 1950 et 1960, axées,
entre autres, sur le rôle de l’Etat comme fournisseur des services éducatifs. L’école dans les pays
industrialisés avait correspondu au développement du salariat et à la conséquente mise en place d’« un
système collectif de reproduction socialisée hors travail dans le cadre politique de la nation » (Vinokur,
2002 : p4). Le modèle scolaire des pays du Nord devait être exporté et répandu au reste du monde dans
le contexte des politiques de « développement »6. La « tradition » structuraliste (un certain relativisme
Bureau du budget, etc.) préparent et proposent les programmes et les résolutions à la Conférence générale pour être
discutés et adoptés.
5 L’unité chargée des statistiques était au début l’Office des statistiques, rattaché au Secteur de la communication. En
1977, l’Office est transféré au Secteur du soutien du programme. L’Office des statistiques devient la Division des
statistiques en 1991 et, en 1992, la Division est intégrée au Bureau d’études, de programmation et d’évaluation.
6 La reproduction du modèle qu’on peut appeler occidental n’a pas été forcément un but « réel » de la modernisation
sociale et économique promue par les programmes de développement. Ainsi, par exemple, du point de vue
4
culturel) qui a marqué l’origine de l’UNESCO (Lévi-Strauss, 1952) rendait l’Organisation réticente à
l’adoption complète de ce but international. Il était certainement touché d’ethnocentrisme et ne prenait pas
en compte que, par exemple, dans beaucoup de pays du Sud, le salariat n’était pas généralisé. Cette
relative appréhension et le caractère intergouvernemental de l’UNESCO ont favorisé, en outre, l’origine
toujours officielle des sources des données. Les classements des Etats membres étaient également
évités.
Les principaux outils de standardisation des données ont été, et sont toujours, les questionnaires
statistiques, les systèmes de classification des programmes éducatifs et les méthodologies de calcul
d’indicateurs. Les données sont majoritairement recueillies à travers trois questionnaires standardisés
concernant les enseignements pré-primaire, primaire et secondaire, l’enseignement supérieur et le
financement public et privé de l’éducation 7. Les questionnaires sont envoyés aux Commissions nationales
pour l’UNESCO d’environ 200 pays, qui les font parvenir aux autorités nationales compétences telles que
le ministère de l’Éducation, le ministère des Finances ou les universités (parfois, les questionnaires sont
directement adressés à ces institutions). Pour assurer la comparabilité internationale des données, les
questionnaires doivent être remplis en suivant la Classification internationale type de l’éducation (CITE).
Cette classification a été approuvée par la Conférence générale de l’UNESCO en 19788. Les
responsables des Etats membres utilisent la définition des différents niveaux d’enseignement de la CITE
pour classer leurs programmes éducatifs et pouvoir ainsi regrouper ou dissocier les données
correspondantes à chaque niveau et à chaque rubrique des questionnaires. Des formations (ateliers,
séminaires) et des manuels sont réalisés dans l’objectif de familiariser les responsables nationaux aux
questionnaires et aux classements internationaux des programmes éducatifs.
Les données recueillies dans les questionnaires sont rentrées dans la base des services statistiques de
l’UNESCO. Celle-ci permet l’archivage, le calcul, la vérification, la correction, l’estimation et la diffusion
des indicateurs et des statistiques. Les données sont vérifiées et analysées en les confrontant à d’autres
sources de données officielles telles que les annuaires statistiques nationaux, mais surtout en testant leur
cohérence avec les séries temporelles et les données démographiques et économiques. Si des
incohérences sont relevées dans les données soumises, les responsables des pays concernés sont
contactés pour obtenir des précisions complémentaires.
Enfin, le principal moyen de diffusion des statistiques ont été les publications de la Division des
statistiques et des fichiers électroniques ainsi que, plus récemment, le site Internet et des CD-Roms. Les
principales publications statistiques de l’UNESCO ont été l’Annuaire statistique (1963-1999), des séries
telles que les Notes statistiques STE, et d’autres études spécifiques ponctuelles. La section suivante
analyse avec plus de détail la question de la « qualité » des données internationales dans le contexte des
services statistiques de l’UNESCO.
économique, il a souvent été question d’une spécialisation dans la production des matières premières et non pas du
développement d’économies diversifiées et complexes comme celles des pays du Nord.
7 Les indicateurs sur l’alphabétisme étaient basés sur des estimations à partir des recensements nationaux et d’autres
données scolaires et démographiques complémentaires.
8 La CITE a été conçue par l’UNESCO au début des années 1970 et elle a été approuvée par la Conférence
internationale de l'éducation lors de sa trente-cinquième session (Genève, 1975), puis par la Conférence générale de
l'UNESCO lors de sa vingtième session en 1978.
5
3. La qualité des données internationales de l’éducation jusqu’aux années 1990
Dans les années 1980, la définition de la « qualité » des données statistiques, jusque là basée
essentiellement sur leur « justesse », évolue vers une définition prenant compte de tout le « processus »
de production statistique. « Le souci d’objectivation de ‘normes de qualité’ est lié en partie à [la] tendance
plus générale à la contractualisation et à la facturation des prestations entre administrations », à
l’émergence, dans les années 1980, du « management participatif moderne » ainsi qu’au développement
du lien entre les statistiques nationales et l’affectation de ressources internationales (Desrosières, 2003a :
p52)9. Cette évolution correspond également à la transition de l’harmonisation des données ou des
« outputs » à l’harmonisation des « inputs », c’est-à-dire, à la standardisation de la conception et de la
gestion des programmes statistiques nationaux (Desrosières, 2003b).
Actuellement, dans le contexte international, il est communément admis que la qualité des statistiques ne
se définie plus uniquement par leur justesse, mais par un ensemble de critères : la comparabilité, la
cohérence, la précision (fiabilité et exhaustivité), et le caractère récent et accessible (matériellement et
intellectuellement) des données (Eurostat, 2002 ; Carson et al., 2001). La pertinence par rapport aux
objectifs du programme statistique et des utilisateurs en général, bien qu’elle soit plus difficile à mesurer,
serait un facteur fondamental de la qualité des données. Nous suivrons ces critères pour définir les
démarches des services statistiques de l’UNESCO.
Avant tout, il importe de noter que la responsabilité première de la qualité des statistiques internationales
revient aux Etats membres. Les données recueillies par l’UNESCO sont d’abord élaborées par les entités
statistiques nationales. Malgré la mise à disposition de manuels, de méthodologies, de l’assistance
technique et parfois même de financements spécifiques 10, un nombre non négligeable de pays continue à
avoir des difficultés à fournir toutes les statistiques nécessaires pour remplir les questionnaires de
l’UNESCO. La production nationale de données a parfois été affectée par les réductions budgétaires
intervenues depuis les années 1980 et/ou par l’absence de priorité des activités statistiques, les
recensements scolaires étant coûteux ou politiquement moins intéressants. La couverture, la fiabilité et le
caractère récent des données dépendent donc de facteurs qui, quelque part, dépassent les moyens et les
attributions du programme statistique d’une organisation internationale. Les Etats restent, en principe,
souverains de leurs priorités et tributaires de leurs capacités.
Comme signalé dans la section précédente, une fois les données nationales collectées, leur fiabilité, leur
correcte standardisation (CITE), leur exhaustivité et leur cohérence sont vérifiés par les services
statistiques de l’UNESCO. Les données sont contrôlées par rapport à elles-mêmes (cohérence interne),
par rapport à d’autres sources officielles, par le calcul des indicateurs et par leur confrontation avec les
séries temporelles. Dans ce processus, l’intégration des chiffres dans la base des données et l’utilisation
des outils de vérification sont essentielles. Par exemple, le nombre d’élèves de l’enseignement primaire
pour 1996 pour le Sénégal est introduit dans la base de données selon la codification qui lui correspond.
« L’autre facteur qui a poussé à la diffusion du ‘mouvement de la qualité’ a été l’accélération de la construction
européenne, et le nouvel accent mis sur la nécessaire harmonisation des statistiques européennes. » (Desrosières,
2003a : p52). En Europe, les données nationales ont une incidence directe sur la réalité économique des pays. Ces
statistiques déterminent les subventions aux régions, les versements des cotisations nationales, l’application de
clauses dans le contexte du Pacte de stabilité.
10 La coupure du budget et du nombre de personnel des services statistiques a affecté ces activités appelées
généralement « activités destinées au développement des capacités statistiques nationales ».
9
6
Grâce à la combinaison des systèmes de rentrée, de calcul et d’extraction de données 11, ce chiffre (en
nombres absolus ou en tant qu’indicateur) peut être comparé aux séries historiques pertinentes (i.e. des
effectifs d’élèves ou des taux de scolarisation). Il est également comparé aux autres chiffres reliés (par
sexe, par année d’études, public et privé…) et aux indicateurs correspondants : pourcentage de filles,
pourcentage du privé, pourcentage de redoublants… Les séries standardisées démographiques et
économiques (respectivement des NU et de la Banque mondiale) font parfois partie de ces indicateurs
permettant d’identifier les possibles incohérences et garantissant la comparabilité internationale et
temporelle. Si le Sénégal passe d’un taux brut de scolarisation de 95% pour 1995 à un taux de 85% pour
1996 (pour une même durée du primaire) on peut s’interroger sur, par exemple, l’inclusion de tous les
programmes ou de toutes les écoles dans les chiffres pour 1996.
Les publications nationales telles que les annuaires statistiques ou des études spécifiques, permettent à
la fois de vérifier l’inclusion de tous les programmes éducatifs dans les questionnaires et leur correcte
classification selon la CITE. Les spécialistes qui analysent les données utilisent également leurs
connaissances sur le cadre politique et économique des pays pour approfondir les vérifications. Même
lorsque des données semblent cohérentes dans le temps et internement (par exemple, pourcentage des
élèves dans l’enseignement privé stable), on peut s’interroger sur leur fiabilité. Par exemple, la crise
économique argentine à la fin des années 1990 pouvait vraisemblablement se répercuter sur les données
éducatives avec, entre autres, une baisse des taux de scolarisation. Une trop grande cohérence
temporelle peut, dans ce cas-là, alerter et amener à la demande d’éclaircissements complémentaires
auprès des responsables nationaux.
Les éclaircissements des responsables nationaux permettent de confirmer, de compléter et/ou de corriger
les chiffres en question. Parfois les données nécessaires à corriger les données originales ne sont pas
disponibles. Les services statistiques de l’UNESCO se servent alors des séries estimées. Ainsi, par
exemple, dans le cas du Sénégal cité plus haut, des problèmes de recensement scolaire peuvent être
confirmés par les responsables, les données n’étant pas en effet complètes. Une estimation permet de
combler la partie manquante à partir des séries temporelles y compris celles du secondaire. Cette partie
manquante peut s’estimer à environ 10%, si, par exemple, le secondaire est également stable (taux brut
similaire pour 1995 et 1996). Les indicateurs du primaire peuvent ainsi être éventuellement publiés.
Cependant, si les données du secondaire sont également incomplètes et faute d’autres informations,
l’estimation peut être qualifiée de non fiable et les indicateurs dérivés ne sont pas publiés. Seulement les
données des années suivantes (1997 en avant) peuvent parfois aider clarifier les tendances. Enfin, du
moins jusqu’en 1999, les séries estimées ont également servi au calcul des indicateurs régionaux
(Afrique, Europe, Asie, etc.) (UNESCO, 1999). Cette procédure a permis le calcul de moyennes
pondérées (population, élèves, enseignants…) comprenant tous les pays de chaque région.
L’accessibilité du public aux données dépend principalement de deux facteurs. D’une part, la mise à
disposition de définitions claires des indicateurs et de leur utilisation est essentielle (glossaires et modes
d’emploi). D’autre part, les utilisateurs ont besoin des outils d’accès et d’exploitation des données
(publications, site Internet, CD-Roms). Des études présentant les chiffes dans des graphiques ou dans
des tableaux synthétiques peuvent éventuellement permettre une interprétation plus directe et aisée d’un
sujet. Comme noté plus haut, le principal moyen de diffusion des statistiques de l’UNESCO ont été les
Les activités multiples et complexes que nécessite la définition et le maintien d’une base de données internationale
interactive (création et maintenance de tables statistiques, procédures de calcul des indicateurs, etc.) ne seront pas
détaillées ici.
11
7
publications (Annuaire statistique, Notes statistiques STE et plus récemment le Rapport mondial de
l’éducation, etc.) et des fichiers électroniques. Seulement plus récemment la Division de statistiques a mis
une partie de sa base de données à la disposition du public à travers le site Internet et des CD-Roms.
Enfin, le caractère récent des statistiques est aujourd’hui un vecteur important de leur qualité. Les
données sont récentes si leur traitement et publication se font immédiatement après leur collecte, en
sachant que le processus d’envoi des questionnaires, de leur réception, de traitement et de vérification
des données, de communication avec les Etats membres –si nécessaire–, de calcul et de formatage final
des statistiques prend un temps parfois considérable. L’engagement de ces activités dépend à son tour
de la promptitude des services nationaux à remplir et à faire parvenir les questionnaires à l’UNESCO.
Certains pays ont des difficultés à traiter leurs statistiques à la fin de l’année scolaire ; d’autres
nécessitent deux-trois ans pour préparer les statistiques de l’année scolaire en cours. De l’envoi des
questionnaires à la publication de l’Annuaire statistique s’écoulait une moyenne de sept mois.
En résumé, dans le contexte du droit à l’éducation et dans l’objectif général d’informer sur les progrès de
l’éducation de masse, l’UNESCO a, depuis les années 1950, assuré la couverture statistique de tous les
pays du monde, le caractère officiel des données, leur analyse critique et une solide comparabilité
internationale. Cette dernière a été fondée, d’une part, sur l’utilisation de séries démographiques et
économiques standardisées et, d’autre part, sur l’utilisation de méthodes identiques tout au long du
processus de collecte, d’analyse et de diffusion des données de tous les pays et pour toutes les années
disponibles. Ce procédé a également assuré la cohérence temporelle des indicateurs car ceux-ci ont été,
du moins jusqu’à 1999, entièrement recalculés avec les révisions démographiques et économiques les
plus récentes. Lié aux objectifs de l’UNESCO (respect des particularités nationales), celle-ci a, jusqu’au
présent, répercuté les structures éducatives nationales dans les indicateurs et chiffres qu’elle produit.
Dans le même esprit, l’Organisation n’avait pas, jusqu’à 2003, publié de classements de pays (UNESCO,
2003). Enfin, mis à part les problèmes de couverture des statistiques (manque de données pour certains
pays, données incomplètes, parfois des données non fiables) et le caractère, parfois, peu récent des
chiffres (envois tardifs, manque de personnel) ; des problèmes de diversité et de détail des indicateurs
(absence de données sur l’origine socioéconomique des élèves, par exemple) ou d’approfondissement
des analyses des données (manque de supports graphiques, entre autres) peuvent également être
signalés.
4. Le tournant des années 1990 : critique et diversification de la production statistique
La « qualité » des données de l’éducation de l’UNESCO fera l’objet d’une forte critique dans les années
1990. Plusieurs personnalités et institutions internationales en sont à l’origine, notamment le Fonds des
Nations Unies pour l’enfance (UNICEF) et la Banque mondiale (Puryear, 1995 ; Heyneman, 1999). Ces
articles et rapports critiques, examinant, en principe, la qualité des données, se sont surtout centrés sur
les objectifs du programme statistique de l’UNESCO et sur la recommandation de leur adaptation aux
nouvelles demandes d’information (mesure du « capital humain » des nations). La qualité des données,
d’un point de vue plus technique, étant plutôt un « angle d’attaque » des critiques (Cussó, 2004a), deux
questions constituent le véritable centre d’attention de ces dernières : (i) les problèmes liés à
l’amélioration des sources nationales (le « capacity building ») ; (ii) la modification du programme
statistique (mission, pertinence) pour inclure, entre autres, la comparaison des acquis des élèves : « Les
deux seules enceintes qui pourraient probablement […] légitimer [les évaluations internationales de
l’éducation], –l’UNESCO et ECOSOC– n’ont pas jusqu’ici choisi de jouer ce rôle. » (Puryear, 1995 : p89).
8
Le décalage entre les « nouvelles demandes d’information » et la mission du programme statistique de
l’UNESCO mène d’autres agences à produire leurs propres statistiques de l’éducation. Un processus
similaire se produit sur le terrain des recommandations. La Banque mondiale, le Programme des Nations
Unies pour le développement (PNUD), l’OCDE ou l’UNICEF produisent des projets, des statistiques et
des recommandations de l’éducation. L’UNICEF organise ses propres enquêtes statistiques sur
l’éducation dans le cadre des Multiple Indicator Cluster Surveys (MICS) depuis 1998. Depuis les années
1980, l’OCDE collecte, traite et diffuse, toujours en collaboration avec l’UNESCO, des données
statistiques sur ses Etats membres (OCDE, 2003). Depuis 1997, les statistiques sur l’éducation d’un autre
groupe de pays (OCDE-UIS, 2003a) sont également collectées par l’OCDE dans le cadre d’un projet
conjoint avec l’UNESCO et avec le financement de la Banque mondiale, le World Education Indicators
(WEI). Ce projet concerne les données sur l’éducation d’une vingtaine de pays non-membres de l’OCDE
les plus peuplés et/ou de ceux dont le système statistique est particulièrement développé. Les données
sur l’éducation de treize autres pays sont collectées et traitées par l’Office statistique des Communautés
européennes (Eurostat) dans le cadre du programme Poland and Hungary: Action for the Restructuring of
the Economy (PHARE). Ce programme, faisant partie de la stratégie de pré-accès à l’Union européenne
(UE), a été lancé en 1989 pour la Pologne et la Hongrie, et a été ensuite élargi à d’autres pays de
l’Europe Centrale et de l’Est. Les questionnaires statistiques standardisés utilisés par Eurostat et l’OCDE
sont directement dérivés de ceux de l’UNESCO. Ils ont été rebaptisés « questionnaires UEO » des
premiers sigles d’UNESCO, d’UE et d’OCDE.
Il est intéressant de noter ici que l’OCDE a vécu une période d’hésitation concernant l’opportunité
d’élaborer des indicateurs de performance de l’éducation. Celle-ci a, toutefois, été rapidement suivie d’une
forte pression pour le développement de ce type d’exercice. « L’OCDE a déjà une longue tradition en
matière d’élaboration et de compilation de statistiques se prêtant à une comparaison internationale […].
[I]l était possible […] d’explorer (au début des années 70) l’option consistant à passer de ces statistiques à
l’élaboration d’indicateurs de performance de l’éducation, option qui a été jugée à l’époque prématurée.
L’Organisation était de ce fait bien placée pour répondre aux pressions de plus en plus vives à la fin des
années 80 en faveur d’une initiative intergouvernementale pour l’élaboration d’indicateurs […]. La
pression était particulièrement forte de la part des Etats-Unis, où le ministère de l’Education était disposé
à apporter une contribution, même modeste, au lancement de l’opération (Papadopoulos, 1994 : p209).
En effet, au moment de l’évaluation de l’enseignement aux Etats-Unis, la National Commission on
Excellence in Education (NCEE) exprimait déjà le besoin de développer la comparaison internationale des
compétences des élèves ainsi que de l’efficacité des systèmes éducatifs : « Comparing American schools
and colleges with those of other advanced nations » (NCEE, 1983 : p1). Le but était de vérifier la place
des Etats-Unis sur le marché international. Suite à l’analyse des statistiques nationales 12, la réforme du
système éducatif semblait s’imposer. Cette dernière devait inclure, entre autres, l’établissement d’un
nouveau curriculum scolaire ; l’évaluation nationale des performances des élèves, et l’amélioration de la
préparation des enseignants (échelle salariale sur des bases compétitives).
12
Les statistiques nationales semblaient montrer une situation préoccupante: « Many 17-years-olds do not possess
the ‘higher order’ intelectual skills we should expect of them. Nearly 40 percent cannot draw inferences from written
material ; only one-fifth can write a persuasive essay ; and only one-third can solve a mathematics problem requiring
several steps. » (NCEE, 1983 : p9). Les étudiants avaient, en outre, déserté les « vocational and college preparatory
programs » (NCEE, 1983 : p18).
9
Enfin, suivant de près les pas de l’Association internationale pour l’évaluation des acquis scolaires (IEA) 13,
l’OCDE apparaît à la fin des années 1990 comme l’agence internationale leader dans le domaine de la
mesure des acquis des élèves. L’OCDE a conçu et organisé le Programme international pour le suivi des
acquis des élèves (PISA). Le PISA 2000 a été principalement axé sur l’évaluation des « compétences
utiles pour la vie » acquises par des échantillons d’élèves de 15 ans 14. L’analyse des résultats de ces
enquêtes a compris la définition de classements de pays sur des échelles numériques. Apres la mise en
œuvre du PISA 2000 dans vingt-huit des trente Etats membres de l’OCDE, rejoints par le Brésil, la
Fédération de Russie, la Lituanie et Liechtenstein (OCDE, 2001), treize autres pays ont intégré le
programme en 2002. Les premiers résultats de l’enquête dans onze de ces pays ont été examinés dans
un rapport préparé conjointement par l’OCDE et l’UNESCO (OCDE-UIS, 2003b).
Il importe également de noter, que sans être une de ses activités principales, l’UNESCO avait également
commencé, dans les années 1990, à organiser et/ou à parrainer des enquêtes sur les acquis scolaires
des élèves pour des groupes de pays. Le projet Minimum learning achievement ou le Suivi permanent des
acquis scolaires (MLA) est parrainé par l’UNESCO et l’UNICEF depuis 1992. Ce projet a été mené dans
une quarantaine de pays. Le Groupement d’évaluation de la qualité de l’enseignement en Afrique australe
(SACMEQ) est mené en partenariat avec l’Institut international de planification de l’éducation (IIPEUNESCO) depuis 1995. Concernant environ une vingtaine de pays, le SACMEQ propose une série de
rapports nationaux sur le niveau de connaissances des élèves en sixième année 15. Ces enquêtes
constituent rarement des séries temporelles homogènes et elles incluent un nombre relativement réduit de
pays. Cependant, le développement de ce type d’exercices et la participation au PISA sont des signes
« d’adaptation » de l’UNESCO à deux facteurs principaux : (i) les critiques et les demandes de données
d’autres agences ; (ii) la perte du monopole de production de données internationales officielles.
5. Education pour tous, révision de la CITE et restructuration des services statistiques
Mis à part la participation de l’UNESCO, encore restreinte, dans des enquêtes pour mesurer les acquis
des élèves, la diversification de la production statistique et les critiques à la qualité des données de
l’Organisation s’accompagneront de trois autres évolutions importantes : (i) l’émergence du concept
d’Education pour tous (EPT) –remplaçant celui du droit à l’éducation– ; (ii) la révision du système de
classification des programmes statistiques (CITE), et (iii) la restructuration des services statistiques –
création de l’Institut de statistique de l’UNESCO (UIS).
La conférence mondiale sur l’éducation tenue à Jomtien (Thaïlande) en 1990 portera un intitulé
significatif : Conférence mondiale sur l’Education pour tous (CMEPT). La déclaration internationale
proposée aux délégués des pays participants est rédigée par une commission formée par le PNUD,
l’UNESCO, l’UNICEF et la Banque mondiale (Haddad et al. 1990). Les principes de cette déclaration ont
été discutés et adoptés à Jontiem pour être ensuite ratifiés au Forum mondial de l’Education pour tous
Depuis sa création en 1958, l’IEA a lancé plus d’une vingtaine d’études sur les acquis des élèves. Elle a entrepris,
depuis 1995, le Troisième étude internationale sur mathématique et science (TIMSS) qui compare les résultats des
tests en mathématique et science d’élèves du primaire et du secondaire d’une quarantaine de pays dont une
douzaine de pays du Sud.
14 Les acquis des élèves sont ici les compétences « pour faire face aux défis de la vie réelle », celles « dont les
jeunes de 15 ans auront besoin dans leur vie future » par rapport aux « situations du monde réel » (OCDE, 2001 :
p14). Le PISA 2000 a évalué la culture mathématique, les sciences et surtout la compréhension de l’écrit.
15 Il existe d’autres initiatives telles que le Programme d’analyse des systèmes éducatifs des pays de la Conférence
des Ministres de l’éducation des pays ayant le Français en partage CONFEMEN (PASEC). Il a été mis au point en
1991 par les ministres de l’éducation des pays francophones d’Afrique subsaharienne.
13
10
tenu à Dakar (Sénégal) en 2000. Le PNUD, le FNUAP, l’UNESCO, l’UNICEF et la Banque mondiale ont
convoqué les deux exercices. L’analyse de la déclaration de 1990 laisse transparaître les nouveaux
objectifs internationaux de l’éducation et de sa mesure. Tout en affirmant toujours le « droit de tous à
l’éducation », il faudrait améliorer la « qualité de l’éducation » ; assurer « l’acquisition des
connaissances » ; et développer des « systèmes améliorés d’évaluation des résultats ». Il s’agirait
également de trouver des méthodes pour « un meilleur rapport coût/efficacité [des dépenses] » ;
« d’élargir les collaborations existantes, et d’instaurer une concertation entre de nouveaux partenaires :
organismes familiaux et communautaires, Organisations non gouvernementales et autres associations
volontaires, syndicats d’enseignants […], employeurs, médias, partis politiques […], etc. » (CMEPT,
1990).
En ce qui concerne le système de classification des statistiques, dès la fin des années 1980, l’OCDE
considère déjà qu’une révision de la CITE –adoptée officiellement en 1978 par l’UNESCO– est
nécessaire. Elle n’est plus « adéquate » aux nouvelles demandes de comparabilité. Dû à sa structure, elle
a également amené à des différentes interprétations nationales du classement des programmes du
supérieur : les Etats auraient tendance à classer leurs programmes selon la durée au lieu de le faire
selon, à la fois, le contenu, le type de diplôme et la durée (OCDE, 1989 : p8)16. En outre, et très important
pour l’OCDE, des nombreux programmes professionnels n’étaient pas pris en compte par la CITE de
1978, car n’étant pas tout à fait considérés de l’« enseignement » dans les statistiques de l’UNESCO.
Sous l’impulsion de l’OCDE, la CITE finit par être révisée. La nouvelle version est adoptée en 1997 par
l’UNESCO. Des nouvelles catégories sont proposées pour le supérieur : 5A, 5B et 6. Selon la nouvelle
nomenclature, la première dimension à prendre en considération est la distinction entre les programmes
qui sont fondés sur la théorie, qui préparent à la recherche (histoire, philosophie, mathématiques, etc.) ou
qui permettent d'accéder à des professions exigeant de hautes compétences (par exemple, médecine,
dentiste, architecture, etc.) et les programmes pratiques, techniques et/ou préparant à un métier précis.
Les programmes de la première catégorie sont appelés 5A et ceux de la seconde, 5B. La durée reste
aussi un facteur central de classification, notamment pour distinguer les différents diplômes à l’intérieur
d’une même catégorie, mais surtout pour faire la part entre les filières A et B : « Les programmes des
filières longues seraient plus théoriques et pourraient conduire à des programmes de formation à la
recherche de pointe ou à une profession exigeant de hautes compétences. Les filières courtes seraient
davantage orientées vers la pratique. » (UNESCO, 1997 : p18). Un nouveau niveau, le niveau 4
(enseignement post-secondaire non universitaire) sera introduit pour prendre en compte les programmes
professionnels non comptabilisés jusque là. La définition et le classement des programmes éducatifs
selon leur orientation –vers le marché du travail ou vers la poursuite d’études plus avancées (catégories
A, B et C, cette dernière n’existant pas pour le supérieur) – seront appliqués aux niveaux secondaire et
post-secondaire. Pour plus de détails, voir la comparaison entre la CITE 1978 et la CITE 1997 dans
l’annexe.
Une orientation vers la mesure de la capacité d’insertion au marché de travail peut être ainsi identifiée
avec la révision de la CITE. La création d’une catégorie pour les programmes post-secondaires non
universitaires permet de rendre visibles et de valoriser, entre autres, les formations courtes, fortement
En fait, dans un pays comme l’Espagne les études universitaires les plus fréquentées était souvent d’une durée de
plus de trois ans, ce qui poussait ce pays à les classer comme étant du niveau 6 de la CITE (parmi les niveaux 5, 6 et
7). Tandis que l’Espagne affichait, en 1985, un pourcentage de 95% d’étudiants dans le niveau 6, le Royaume-Uni
n’en avait que 54%.
16
11
orientées au marché de travail. Le nouveau classement des programmes du supérieur a, en partie,
surmontée la hiérarchie entre les niveaux 5, 6 et 7 de la CITE 1978 et ne « défavorise » plus les pays
ayant des programmes universitaires courts, souvent plus techniques. La proportion de ces programmes
peut maintenant être interprétée positivement car elle montre une plus grande diversité et flexibilité de
l’offre du supérieur dans ces pays. Les catégories A, B et C, s’appliquant aux deux cycles du secondaire,
permettent, en principe, de se faire une idée plus ciblée du potentiel de « capital humain » des jeunes.
Certes, des problèmes de correspondance et de comparabilité continuent à se poser, notamment en ce
qui concerne le classement des programmes selon l’orientation ultérieure (notion ambiguë).
Enfin, la diversification de la production statistique et la critique de la qualité des données –dans un
contexte de changement de paradigme de la gestion publique– ont conduit à la restructuration des
services statistiques de l’UNESCO. La réforme a été initiée en 1995 et culminée en 1999, avec la création
de l’ISU. Comme signalé plus haut, l’amélioration de la qualité des statistiques a été l’origine et, en
principe, le principal objectif de la réforme, cette dernière étant également accompagnée du transfert de
l’Institut au Canada et de l’entier renouvellement du personnel. Les quatre premières années d’existence
de l’ISU ne se sont cependant pas accompagnées du renforcement de la production des données. La
couverture et la diversité des indicateurs ainsi que le développement de la base de données étaient
sensiblement les mêmes en 2003 que dans le passé (UIS, 2003) (Cussó, 2004a). Les objectifs du
programme statistique semblent, en contraste, évoluer sensiblement avec la collaboration de l’ISU avec
l’OCDE dans l’enquête PISA pour des pays non-membres de l’OCDE. Il importe de noter également
l’inclusion d’un classement de pays selon un index synthétique de l’EPT dans le rapport de l’EPT de
l’UNESCO pour 2003 (UNESCO, 2003).
6. Des comparaisons statistiques plus « normatives » et « fragmentées »
Au moment de leurs premières parutions, les productions statistiques de la Banque mondiale, d’Eurostat
ou de l’OCDE n’étaient pas toujours novatrices en termes de couverture et de diversité des indicateurs.
Les questionnaires statistiques utilisés par l’OCDE et par Eurostat (UEO), étant dérivés des
questionnaires de l’UNESCO, produisent un éventail similaire de données et d’indicateurs. Toutefois des
statistiques complémentaires seront également collectées et analysées dans les publications de ces
institutions ou dans le cadre du WEI, suite à des enquêtes spécifiques. De ce fait, l’on peut affirmer
aujourd’hui que les indicateurs diffusés par ces agences sont sensiblement plus variés que ceux publiés
par l’UNESCO (OCDE, 2003). Suite à cette diversification de la production statistique, trois conséquences
« techniques » peuvent être soulignées : (i) une comparabilité, en principe, plus poussée avec
l’interprétation plus stricte de la CITE ; (ii) une certaine régionalisation des indicateurs ; (iii) la rupture des
séries temporelles.
Mis à part la possibilité, pour ces agences, de produire leurs propres indicateurs, les nouvelles
productions statistiques vont surtout faciliter le développement de nouvelles expertises. Dans ce sens,
deux autres conséquences –plus générales– de la diversification de la production statistique peuvent être
également notées : (i) une plus grande intervention au sein des entités statistiques des Etats membres
avec l’introduction des processus d’harmonisation des méthodes de production des statistiques
nationales ; (ii) des nouveaux traitements et des nouvelles présentations des statistiques permettant des
analyses plus normatives des politiques d’éducation.
Le schéma suivant détaille la diversification de la production de statistiques d’éducation selon les
différentes agences internationales. L’émergence de nouvelles recommandations et de nouvelles
12
expertises dans le domaine de l’éducation est, en fait, intimement liée à la différenciation « technique »
dans le processus d’élaboration des indicateurs.
DIFFUSION
Publications, rapports, études, recommandations
Publications, rapports, études, recommandations
(ex. Annuaire Statistiques, Rapport Mondiale,
(ex. Les chiffres de éducation, Regards sur
CD Room …)
éducation, PISA…)
Autres INDICATEURS
INDICATEURS UNESCO
BASE DE DONNEES
UNESCO
ANALYSE & VERIFICATION
No reply
CITE
SERIE
CHRONOLOGIQUE
INDICATEURS
COHERENCE
Enquête
Quest.
UNESCO
UNESCO
Quest.
UOE
Enquête
OCDE
Quest.
UOE
Enquête
EUROSTAT
Enquête et autre
Banque Mondiale
FOURNISSEURS DE DONNEES
LE RESTE DU MONDE
Pays OCDE, WEI, PHARE
L’OCDE va encourager une plus forte standardisation des indicateurs, notamment avec l’établissement –
autant se peut– d’un nombre fixe d’années d’études (six années) pour l’enseignement primaire ou
l’application plus stricte des catégories relatives aux enseignements secondaire et supérieur. Dans le
premier cas, on verra, par exemple, le Brésil (pays participant au projet WEI) changer la répartition des
années d’études du primaire, passant par la distribution des huit années auparavant considérées comme
du « primaire » en deux cycles de quatre années et, ensuite, en deux groupes de respectivement six et
deux années d’études. Ce que nous avons appelé la « régionalisation » des indicateurs dérivera
également des différences entre les méthodes de traitement et d’analyse des données de la part de
l’UNESCO et de celle des autres agences. L’OCDE utilise des données démographiques et économiques
nationales pour le calcul des indicateurs pertinents (à la place de celles standardisées par les NU et la
Banque mondiale, utilisées par l’UNESCO). Certains indicateurs sont calculés selon des méthodes
légèrement différentes de celles utilisées par l’UNESCO. Il est possible de retrouver des chiffres différents
pour un même indicateur, pour un même pays. Par exemple, le taux d’encadrement du primaire pour les
Pays Bas en 1991 est d’environ 20 élèves par maître dans la publication de l’OCDE (OCDE, 1993), tandis
qu’il est de 16 élèves par maître dans l’annuaire statistique de l’UNESCO (UNESCO, 1999). De son côté,
la Banque mondiale a publié, entre autres, des taux d’achèvement du primaire à partir d’indicateurs
calculés par l’UNESCO ou avec les données de l’UNESCO, mais aussi à partir de données nationales
traitées directement par la Banque, ces dernières n’étant probablement pas, de ce fait, traitées et
harmonisées de la même manière (Banque mondiale, 2002 ; UIS, 2003). Enfin, la standardisation des
statistiques selon la nouvelle CITE et la « régionalisation » des indicateurs ont également supposé –en
partie– une rupture des séries statistiques temporelles de l’UNESCO. Même si l’ISU « récupère » une
bonne partie des données des autres agences pour calculer les indicateurs pour toutes les régions avec
13
les mêmes méthodes, les séries historiques de ces mêmes indicateurs (les années précédant 1990) n’ont
cependant pas été recalculés et vérifiés avec les révisions démographiques les plus récentes des NU.
Enfin, des enquêtes comme PISA viennent incarner la nouvelle façon de concevoir et d’entreprendre la
mesure en éducation : il ne s’agit plus –ou plus seulement– de développer et de maintenir un ensemble
homogène de données (produisant presque une centaine d’indicateurs dans le cas de l’UNESCO), mais
de faire évoluer en permanence les données collectées, et surtout celles qui sont publiées. Ceci est
justifié par les besoins changeants des utilisateurs et par l’évolution rapide du contexte économique.
Nous avons également souligné deux autres conséquences, plus générales, de la diversification de la
production statistique. D’une part, la nouvelle perception de l’activité statistique internationale s’est
accompagnée, surtout dans le contexte de l’Europe, d’une plus grande intervention au sein de la gestion
et des objectifs des entités statistiques nationales. Un processus d’harmonisation des méthodes de
production statistique des Etats membres a été, en effet, mis en place par Eurostat. Ce processus
comprend plusieurs réunions internationales, la production de recommandations et le partage des
« meilleures pratiques » dont le but est l'amélioration de la qualité des données (Cussó, 2004b). D’autre
part, pour l’UE, l’OCDE et la Banque mondiale, les nouvelles productions statistiques sont l’occasion de la
mise en oeuvre d’analyses plus normatives des politiques d’éducation. Elles permettent, tout d’abord, de
renforcer la vision du rôle socio-économique de l’éducation et de sa mesure. Selon l’OCDE : « Une
description quantitative du fonctionnement des systèmes éducatifs peut permettre aux pays de comparer
leurs propres performances à celles des autres » (OCDE, 2000 : p5). Pour Eurostat : « Les statistiques
[des Etats membres] sont indispensables pour toute décision et évaluation au niveau européen. »17.
Ensuite, la publication de classements des systèmes éducatifs nationaux, résultat, par exemple, de la
mise en œuvre du PISA, met en relief la relation étroite entre l’évaluation statistique internationale et la
réforme des systèmes éducatifs, indirectement –et parfois directement– soutenue par l’OCDE, la
Commission européenne ou la Banque mondiale. Le lien entre la nouvelle comparaison internationale et
la modification, à terme, des politiques nationales est souligné par un des membres de l’OCDE, en
évoquant la question de la qualité de l’éducation et des programmes scolaires : « Dès l’instant où l’on se
préoccupait de la qualité de la scolarité, il était inévitable que les projecteurs se braquent sur la
‘substance’ même de l’enseignement […] Il était tout aussi inévitable que les aspects politiques du débat
sur la qualité atteignent le programme lui-même, sa structure, son organisation et finalement son contenu.
[…] Le débat sur les programmes, qui, comme le débat sur la qualité, intéresse avant tout le cycle
obligatoire, débouche sur la question plus vaste des finalités de l’école. […] On a jugé que le programme
très important d’activités sur la réforme des programmes, lancé par le CERI [Centre pour la recherche et
l’innovation dans l’enseignement] à la fin des années 80 supposait au préalable une analyse précise de
ces divergences [politiques à l’égard du programme national]. […] La première phase de cette activité a
donc été centrée sur l’examen des tendances récentes en matière de réforme des programmes dans les
pays Membres. » (Papadopoulos, 1994 : p208).
De son côté, la Banque mondiale n’hésite pas, dans ses publications, à citer et même à présenter des
analyses de corrélation ou des graphiques montrant, par exemple, l’absence de lien significatif entre la
dépense publique d’éducation et la durée moyenne de la scolarisation (Banque mondiale, 2001). Ces
études permettent de mettre en avant l’idée que l’efficacité dans l’usage et dans l’allocation des dépenses
a plus d’effet sur l’éducation qu’une « simple » augmentation du budget public –thèse discutée par Cussó
et D’Amico (2002). Parallèlement, le calcul des taux d’achèvement du primaire (Banque mondiale, 2002)
est l’occasion de la proposition d’un programme de réforme de la structure de l’éducation et de son
financement dans un nombre de pays. Les niveaux de ces taux permettent d’estimer le financement
national et international que certains pays nécessiteraient pour attendre l’achèvement universel du
17
http://europa.eu.int/comm/eurostat/Public/datashop/printcatalogue/FR?catalogue=Eurostat&service=about_catalogue
14
primaire (AUP) en 201518. Ces mêmes estimations sont, à leur tour, à la base des conditionnalités des
prêts et des programmes de réduction de la dette et de la pauvreté des pays concernés. L’analyse
statistique (y compris le choix et le calcul de l’indicateur cible) permet ainsi de fonder explicitement un
modèle optimum de politique éducative et de dépense à partir des pratiques considérées les plus
efficaces, et d’appuyer, par la suite, une réforme macro-économique des pays emprunteurs selon ce
même modèle (Banque mondiale, 2002 : p41). S’inspirant des pays ayant réussi l’AUP (ou étant en
conditions de le faire dans des brefs délais), la Banque préconise d’accorder la priorité de l’effort national
au primaire, consacrant à ce niveau d’enseignement 50% des dépenses publiques d’éducation et en
diminuant conséquemment l’investissement dans le secondaire et le supérieur. Le modèle décrit
également le niveau optimal de salaire des enseignants, le pourcentage d’enseignement privé
recommandé ou le taux d’encadrement moyen le plus efficace.
Enfin, dans le contexte de l’UE, la mise en œuvre de la méthode ouverte de coordination (MOC) dans le
domaine de l’éducation souligne également le passage de la coopération technique (évaluation de
l’efficience des systèmes éducatifs au niveau national) à la coopération politique (définition d’objectifs
communs) (Dale, 2004)19. La MOC se caractérise par l’établissement de calendriers spécifiques, la
définition d’indicateurs et de benchmarks, la comparaison des « meilleures pratiques », l’adoption de
mesures, l’évaluation des processus. La comparaison statistique et la mesure de l’éducation proposées
sont donc davantage liées à la réforme politique.
7. Conclusion : nouvelle politique d’éducation, nouvelle comparaison internationale
La nouvelle production de données de l’éducation comparables internationalement permet la modification
de certaines décisions techniques et méthodologiques relativement importantes et favorise des nouvelles
analyses et conclusions. Le processus commun de collecte, d’analyse et de diffusion des données pour
tous les pays du monde et toutes les années disponibles a été défié par des productions statistiques par
groupes de pays et par des divergences méthodologiques. Les évaluations et les collectes de données
ponctuelles sont privilégiées par rapport à la continuité des séries temporelles. L’analyse d’un seul
indicateur ou d’un petit nombre d’indicateurs est également privilégiée au moment de piloter les politiques
d’éducation. Ceci suppose forcément une certaine simplification de la complexité et des multiples facettes
des décisions politiques. L’évaluation de la « qualité » de l’éducation ou du système scolaire en général
reste plus complète lors qu'elle se fonde sur l’analyse de plusieurs indicateurs complémentaires (taux de
scolarisation, de répétition, de déperdition, de survie scolaire dans le primaire ou de transition entre
primaire et secondaire, pourcentage de filles…) plutôt que sur un seul indicateur, même si celui-ci peut
parfois refléter plusieurs aspects du contexte éducatif d’un pays (indices synthétiques) (Cavicchioni,
2001). Plusieurs indicateurs, et leur évolution dans le temps, permettent éventuellement de mieux cibler
les besoins spécifiques de chaque système éducatif. Bien entendu, il est plus difficile de définir de
« recettes » politiques à partir de ce type d’analyse.
Fin 2000 à l’occasion du Sommet du millénaire, les NU ont fixé un ensemble d’objectifs mesurables et assortis de
délais pour lutter, entre autres, contre la pauvreté, la faim et l’analphabétisme. La Banque mondiale a estimé l’aide
financière nécessaire à la réussite de l’objectif du Millénaire « Assurer l’éducation primaire pour tous » d’ici à 2015.
19 « indicators [are] to 'allow countries to learn from one another through comparison of common interests and shared
differences', while benchmarks are to 'provide policy makers with reference points' ». (Dale, 2004: p11). Pour plus de
détails sur la MOC voir Gobin et al. (2003).
18
15
La « fragmentation » du traitement, de l’analyse et de la publication des données et la rupture des séries
temporelles n’est pas sans conséquence pour le monde de la recherche 20, surtout pour les chercheurs
souhaitant étudier plusieurs régions et/ou tester les relations entre groupes de variables dans le temps.
Mis à part les analyses de la Banque mondiale, des nombreuses études traitent également la relation
entre le financement de l’éducation et la scolarisation (Coulclough et al., 2000 ; Wömann, 2001).
L’examen des séries statistiques peut éventuellement permettre d’apporter des nouveaux éléments
d’analyse dans ce domaine, surtout pour les périodes charnière, notamment avant et après les politiques
d’ajustement structurel (Cussó, 2004c). Les séries temporelles permettent également d’avoir une vision
d’ensemble de l’impact des politiques et des actions recommandées par les agences internationales.
Enfin, la forte concurrence entre les agences dans le domaine de la production et de l’analyse des
statistiques internationales de l’éducation –qui a aussi supposé la revalorisation de ces statistiques et
l’augmentation du nombre d’études– pourrait laisser penser qu’elle accompagne une diversité de
positions politiques dans la sphère internationale. En fait, l’éclatement de la production statistique a plutôt
provoqué l’alignement de l’UNESCO, du moins en partie, aux objectifs des programmes statistiques des
autres agences, entraînant par-là un croissant consensus international. Techniquement moins robuste, la
nouvelle comparabilité internationale des données est toutefois plus poussée et plus normative. Quel qu’il
soit son impact réel, la mesure de l’éducation est enfin ouvertement liée à la réforme scolaire et/u aux
conditionnalités des prêts internationaux. En vue de ces évolutions, la discussion sur la « qualité » des
statistiques de l’UNESCO ou des pays concernés prend, quelque peu, une dimension nouvelle.
Références bibliographiques
Banque mondiale (2002) Achieving Education for All by 2015: Simulation Results for 47 Low-income
countries. Human development network, avril, 76p.
Banque mondiale (2001) Le système éducatif mauritanien, Série département humain de la région
Afrique, 88p.
Banque mondiale (1963) Rapport annuel de 1963, Washington.
Becker, G. (1993) Human capital: a theoretical and empirical analysis, with special reference to education,
University Chicago press, Chicago, London (première édition 1964), 390p.
Carson, C. S. et C. Liuksila (2001) Further steps toward a framework for assessing data quality, Working
paper IMF, 20p.
Cavicchioni, V. (2001) Development of EFA indicators, Discussion Paper, UNESCO, Paris, 19p.
CMEPT, Conférence mondiale sur l’éducation pour tous : Répondre aux besoins éducatifs fondamentaux
(1990) Rapport final, 5-9 mars 1990, Jontiem, Thaïlande, UNICEF, New York, 42p.
Coulclough, Ch. et S. Al-Samarrai (2000) « Achieving schooling for all: budgetary expenditures on
education in Sub-saharan Africa and South Asia », IDS Working paper 77, 30p.
Cussó, R. (2004a) « Les statistiques de l’éducation de l’UNESCO : restructuration et changement
politique », Education et sociétés, n°11, INRP, Editions De Boeck Université (à paraître).
Cussó, R. (2004b) « Nouveau paradigme éducatif, nouvelle comparaison statistique internationale :
Commission européenne et Eurostat », Séminaire « Jeunes chercheurs » Les comparaisons nationales et
internationales des politiques éducatives, 24-25 mai, RAPPE, Ministère de la Recherche, Paris, 20p.
20
Malgré la tension qui résulte de ce que les statistiques peuvent être vues comme « construites » à partir de
conventions (Desrosières, 2003b), la comparaison statistique reste pour beaucoup une méthode essentielle de
production de connaissances (Sirota, 2001).
16
Cussó, R. (2004c) « L’éducation contribue-t-elle à la croissance économique ? La Banque mondiale et les
pays les plus ‘pauvres’ », Colloque Education, formation et dynamique du capitalisme contemporain, IRD
– Laser - CEP, Université de Montpellier I, Montpellier, 24-25 juin, 22p.
Cussó, R. (2003) « Diversité culturelle ou diversité tout court ? », Nouveaux regards, n°20, Institut de
Recherches de la FSU, Paris, pp7-10.
Cussó, R. (2002) « La Banque mondiale et l’éducation : une politique basée sur l’expertise », Nouveaux
regards, n°16, Institut de Recherches de la FSU, Paris, pp35-39.
Cussó, R. et S. D’Amico (2002) « L’Education pour tous en Afrique sub-saharienne : analyse de la relation
entre scolarisation et financement depuis les années 1970 » Communication au Colloque international
L’Education de base pour tous dans la Francophonie à l’heure de la mondialisation - Une perspective
comparative, 20-22 mai, Paris.
Dale, R. (2004) « The construction of an European education space and education policy », Séminaire
international « La mesure en éducation », FOREDUC, 18-19 juin, Paris, 17p.
Desrosières, A. (2003a) « Les qualités des quantités », Courrier des statistiques, n°105-106, pp51-63.
http://www.insee.fr/fr/ffc/docs_ffc/cs105l.pdf
Desrosières, A. (2003b) « Comment fabriquer un espace de commune mesure : harmonisation des
statistiques et réalisme de leurs usages » in Lallement, M. et J. Spurk (éds.), Stratégies de la comparaison
internationale, CNRS Editions, Paris, pp151-166.
Eursotat (2002) Definition of quality in statistics, Document N° Eurostat/A4/Quality/02/General/Definition,
4p.
Gobin, C., Coron, G. et Dufresne, A. (2003) « The European Union. Reorganising resources :
Employment, Pensions ans the Wage » in Clasquin, B. et N. Moncel (eds) Social Rights over Financial
Resources: Issues for the Future of Employment and Social Protection in Europe, TSER European
Network « Social Construction of employement », PIE/Peter Lang, Bruxelles.
Haddad, W. D. et al. (1990) Meeting Basic Learning Needs: A Vision for the 1990s, Inter-Agency
Commission for the World Conference on Education for All, UNDP, UNESCO, UNICEF, World Bank, New
York, 164p.
Heyneman, S. P. (1999) « The sad story of UNESCO’s education statistics » in International Journal of
Educational Development, Vol. 19, janvier, pp66-74.
Lévi-Strauss, C. (1952) Race et histoire, UNESCO, Paris, 50p.
NCEE, National Commission on Excellence in Education (1983) A nation at risk: the imperative for
educational reform, US Department of education, Washington, 65p.
Normand, R. (2003) « Le mouvement de la ‘School effectiveness’ et sa critique dans le monde anglosaxon » in Van Haecht, A. (dir.) Sociologie, politique et critique en éducation, Revue de l’Institut de
Sociologie, Bruxelles, ULB, pp135-166.
OCDE-UIS (2003a) Financing Education - Investments and Returns. Analysis of the World Education
Indicators 2002 Edition, Paris, 232p.
OCDE-UIS (2003b) Literacy Skills for the World of Tomorrow - Further Results from PISA 2000, Paris,
392p.
OCDE (2003) Regards sur l’éducation. Les indicateurs de l’OCDE – Edition 2003, Paris, 496p.
OCDE (2001) Connaissances et compétences : des atouts pour la vie. Premiers résultats du Programme
international de l’OCDE pour le suivi des acquis des élèves (PISA) 2000, Paris, 350p.
OCDE (2000) Investing in education. Analysis of the 1999 world education indicators, Paris, 192p.
OCDE (1993) Regards sur l’éducation. Les indicateurs de l’OCDE, Paris.
OCDE (1989) A compendium of statistical information 1986-1987. Education in OECD countries, Paris,
131p.
17
Papadopoulos, G. S. (1994) L’OCDE face à l’éducation, 1960-1990, OCDE, Paris, 223p.
Puryear, J. M. (1995) « International education statistics and research: status and problems » in
International Journal of Educational Development, Vol. 15, janvier, pp79-91.
Sirota, R. (dir.) (2001) Autour du comparatisme en éducation, Presses universitaires de France, Paris, 256
p.
UIS (2003) Recueil de Données Mondiales sur l'Éducation 2003 - Statistiques comparées sur l'éducation
dans le monde, Montréal, 127p.
UNESCO (2003) Rapport mondial de suivi sur l’éducation pour tous 2003. Genre et éducation pour tous :
le pari de l’égalité, Paris, 432p.
UNESCO (2000) Rapport mondial de l’éducation 2000. Le droit à l’éducation, Paris, 182p.
UNESCO (1999) Annuaire statistique de l’UNESCO 1999, Paris.
UNESCO (1997) Classification internationale type de l’éducation, Paris, 28p.
Vinokur, A. (2002) « Mondialisation du capital et reconfiguration des systèmes éducatifs des espaces
dominés », Informations et commentaires, janvier-mars, n°118, pp4-10.
Wömann, L. (2001) « New evidence on the missing resource-performance link in education », Kiel
working paper, Kiel Institute of world economics, juin, 40p.
Annexe
Comparaison des systèmes de classification des programmes éducatifs CITE 1978 et CITE 1997
CITE 1978
Niveau
0
Préprimaire
CITE 1997
Niveau
0
Préprimaire
1
Enseignement primaire
1
2
Enseignement secondaire 1er cycle 2 A/B/C
- Général / pré-technique
Enseignement secondaire 1er cycle
- Général / pré-technique
3
Enseignement secondaire 2e cycle 3 A/B/C
Général / technique ou/et
professionnel
Enseignement secondaire 2e cycle
Général / technique ou/et
professionnel
Total 2+3
Secondaire
Total 2+3
4A
4B
5
Enseignement supérieur
2-3 ans
Total 4
5B
6
Enseignement supérieur
3-5 ans
5A
7
Enseignement supérieur, 3e cycle
6
Enseignement supérieur, 3e cycle
Total 5+6
Supérieur
Total 5+6+7 Supérieur
Enseignement primaire
Secondaire
Enseignement post-secondaire
non-universitaire
Général / technique
Post-secondaire non-universitaire
Enseignement supérieur
2-3 ans
Enseignement supérieur
5A<4 ou 5A >=4
18
Téléchargement