Séminaire international « La mesure en éducation » FOREDUC, EHESS, IRD 18-19 juin 2004 Vers une comparabilité plus normative des statistiques internationales de l’éducation : du droit à l’éducation aux compétences Roser Cussó et Sabrina D’Amico1 Résumé : La comparabilité des statistiques internationales de l’éducation –telle que définie par l’UNESCO– a été défiée depuis la fin des années 1980, lorsque d’autres agences internationales commencent à produire leurs propres statistiques éducatives. Cette évolution est parallèle à la nouvelle importance stratégique que l’éducation prend dans les programmes économiques nationaux et internationaux. L’éducation et la formation contribueraient à faire face à la concurrence entre les nations sur le marché international (employabilité, flexibilité). La comparabilité des statistiques de l’éducation devrait, de ce fait, être plus poussée par rapport à celle attachée au « droit à l’éducation ». Les indicateurs doivent servir à comparer non seulement les caractéristiques du système éducatif, mais aussi les décisions politiques qui les sous-tendent. Ces dernières doivent, en outre, être évaluées selon des critères de performance établis par des observateurs extérieurs (compétences des élèves, efficacité de la dépense…). Paradoxalement, cette nouvelle comparabilité internationale est, quelque part, moins consistante du point de vue statistique (« régionalisation », critères méthodologiques hétérogènes, rupture des séries temporelles), mais beaucoup plus poussée dans ses objectifs (mesure de la performance du système scolaire et des élèves) et dans ses conséquences (réforme scolaire, conditionnalités des prêts). 1. Vers quelle comparabilité internationale ? .................................................................................................... 1 2. La production de statistiques internationales de l’éducation : l’UNESCO ............................................ 3 3. La qualité des données internationales de l’éducation jusqu’aux années 1990 .................................. 6 4. Le tournant des années 1990 : critique et diversification de la production statistique ..................... 8 5. Education pour tous, révision de la CITE et restructuration des services statistiques ................... 10 6. Des comparaisons statistiques plus « normatives » et « fragmentées » ............................................ 12 7. Conclusion : nouvelle politique d’éducation, nouvelle comparaison internationale........................ 15 Références bibliographiques ............................................................................................................................... 16 Annexe ....................................................................................................................................................................... 18 1. Vers quelle comparabilité internationale ? Les statistiques internationales de l’éducation font, depuis quelques années, l’objet d’un intérêt croissant de la part des agences internationales, des chercheurs et du public en général. Cet intérêt est parallèle à la nouvelle importance stratégique que l’éducation a prise dans les programmes économiques nationaux et internationaux2. Depuis la fin des années 1970, dans le contexte du renouveau libéral, les évolutions du Les auteurs ont travaillé plusieurs années dans les services statistiques de l’UNESCO, notamment entre 1994 et 2001. Sabrina D’Amico, statisticienne de formation, est actuellement fonctionnaire au secteur des Ressources humaines de l’UNESCO. Roser Cussó réalise, avec le financement du FNRS, un post-doctorat sur les politiques d’éducation de l’Union européenne au sein du GRAID, Institut de Sociologie de l’Université Libre de Bruxelles. 2 Il importe de rappeler que, bien que sur un autre plan, l’éducation était, depuis bien avant, perçue comme un facteur de productivité et de transformation sociale et culturelle (Cussó, 2002) : « La Banque [mondiale] est convaincue que le progrès économique des pays moins développés dépend pour beaucoup de la mesure dans laquelle ils parviendront à créer les compétences nécessaires parmi leurs populations et à ouvrir à leur esprit un plus large horizon, et que le succès des efforts qu’ils déploieront en ce sens ne peut être assuré que s’ils disposent de systèmes d’éducation efficaces et adéquats. » (Banque mondiale, 1963 : p8). 1 1 contexte socioéconomique (crise du pétrole, transformation du mode de production) s’accompagnent d’une nouvelle façon de concevoir la politique économique et de rendre compte des problèmes qui y sont liés (régulation par le marché, restructuration, privatisation, plus grande libéralisation des échanges…). Basé essentiellement sur la formation et l’éducation des individus, le capital humain (Becker, 1993) redevient une variable stratégique centrale pour, en principe, faire face à la concurrence croissante entre les nations sur le marché économique international. Un pays disposant d’une population active formée et flexible est supposé pouvoir mieux s’ajuster aux évolutions du marché et de la demande de compétences qui s’ensuit. C’est dans ce contexte que la comparabilité des statistiques internationales de l’éducation prend une nouvelle dimension. Les activités statistiques internationales sont du début, marquées par la recherche de la comparabilité entre les pays dans le contexte des politiques de « développement ». En effet, depuis leur création, les Nations Unies (NU) –via leurs agences et leurs commissions spécialisées– encouragent l’extension et la standardisation des statistiques nationales (enquêtes de ménages, recensements démographiques…) avec, entre autres, la définition de méthodologies et de catégories statistiques communes (catégories socioprofessionnelles, rural, urbain…). Les systèmes éducatifs nationaux ne font pas exception. La responsabilité de leur étude comparative revient à l’Organisation des Nations Unies pour l’éducation, la science et la culture (UNESCO). Restée assez « descriptive », la comparabilité mise en œuvre par l’UNESCO sera critiquée à partir des années 1980. Dans le but, entre autres, de tenir compte de la diversité des systèmes éducatifs nationaux, les traits communs de cette diversité –représentés par les indicateurs statistiques–, tout étant techniquement comparables, n’étaient pas traitées comme immédiatement équivalents –sur un classement, par exemple. La critique de cette démarche et la demande d’une nouvelle comparabilité statistique proviendront notamment de la Banque mondiale et de l’Organisation de coopération et de développement économiques (OCDE) 3. L’établissement de classements hiérarchisés des pays, notamment concernant les acquis scolaires des élèves, est vivement souhaité (Puryear, 1995). Il ne suffit plus de savoir combien de diplômés produit un système éducatif par rapport à ceux d’autres pays, mais aussi à quel coût, dans quel but, avec quelles connaissances et compétences précises des élèves. Autrement dit, il ne s’agira plus seulement de comparer les caractéristiques du système éducatif, mais aussi les décisions politiques nationales qui les sous-tendent. Ces dernières ne doivent pas être uniquement évaluées selon leurs propres objectifs, mais également par rapport à des critères de performance établis par des observateurs extérieurs (efficacité du système éducatif, développement de compétences…). Malgré ces critiques, le programme statistique de l’UNESCO restera, du moins jusque la restructuration des services statistiques en 1999, essentiellement destiné à mettre à disposition des Etats membres des données internationalement standardisées dans le cadre de l’extension et de la planification de l’éducation de masse. Les publications continuent à n’inclure que rarement des classements des pays ou des analyses statistiques complexes (des corrélations entre le salaire des enseignants et le nombre de diplômés, par exemple, ne sont guère calculées bien que les données nécessaires soient collectées). C’est ainsi que, surtout depuis les années 1990, l’OCDE, Eurostat ou la Banque mondiale commencent à collecter, analyser et publier leurs propres données de l’éducation. Ces entités développent également La demande d’une nouvelle comparabilité statistique internationale coïncide également avec le débat sur la school effectiveness développé notamment aux Etats-Unis et au Royaume-Uni (Normand, 2003). 3 2 des études statistiques et produisent des recommandations sur la politique éducative. Cette nouvelle production permettra de réaliser, enfin, la nouvelle comparabilité internationale revendiquée depuis une dizaine d’années. Dans un premier temps, nous explorerons les enjeux de la collecte, de l’analyse et de la diffusion des données internationales de l’éducation. Nous nous centrerons sur les activités des services statistiques de l’UNESCO, notamment la méthode et les particularités techniques qui ont marqué les critères de comparabilité –et de qualité– des données internationales de l’éducation jusqu’aux années 1990. Le tournant des années 1990 verra la production statistique et les critères de comparabilité des données se diversifier. Nous analyserons ces évolutions méthodologiques et leurs conséquences techniques, mais aussi le lien entre la multiplication d’études statistiques et de recommandations qui accompagnent cette nouvelle comparabilité des données et les programmes de réforme et/ou de révision des systèmes éducatifs nationaux. Enfin, avec cet article, nous voudrions contribuer à garder trace de la façon de concevoir la comparabilité et la qualité des statistiques internationales de l’éducation qui a prévalu au cours de quatre décennies au sein de l’UNESCO. Cette perception de la comparabilité a, en principe, correspondu à une façon particulière d’envisager le dialogue entre les nations dans le cadre du droit à l’éducation et du respect de la diversité, non sans contradiction entre ces deux notions, respectivement « modernisatrice » et « traditionnelle » (Cussó, 2003). Selon cette perspective, les pays nécessitaient des comparaisons statistiques et des objectifs communs pour, par exemple, mieux identifier les points faibles de leurs systèmes éducatifs (« coopération technique »). Les politiques d’éducation –leur évolution ou réforme– étaient définies en dernière instance par les responsables politiques et sociaux de chaque pays selon leurs propres objectifs. Comparer était examiner et échanger, mais pas toujours –ou pas forcément– déterminer des modèles communs et univoques à partir de l’analyse des indicateurs internationaux, aussi rigoureuse soit-elle. C’est cette distance critique qui avait permis une comparabilité internationale solide et souple à la fois, aujourd’hui défiée par les nouvelles demandes d’information. 2. La production de statistiques internationales de l’éducation : l’UNESCO La définition, la collecte et la diffusion des statistiques internationales de l’éducation sont des activités cruciales qui supposent l’endossement d’une grande responsabilité et le privilège d’une influence considérable sur les rapports et les études statistiques qui en sont dérivés. Le dessin d’un questionnaire (ou d’une enquête) international détermine le type, la couverture et le niveau de détail des données demandées aux responsables nationaux autant qu’il fixe l’éventail d’indicateurs qu’il sera ensuite possible de calculer. La conception de la base de données, la méthode de vérification ou la définition de la comparabilité pèsent énormément sur les caractéristiques des statistiques. Les décisions concernant l’analyse et la publication des statistiques délimitent la sélection de données et d’indicateurs disponibles pour les praticiens et les chercheurs. Pendant plusieurs décennies, c’est l’UNESCO qui a eu la responsabilité principale de la production des statistiques internationales de l’éducation. Cette responsabilité découlait de sa mission au sein du système des NU et de la représentativité intergouvernementale de sa Conférence générale4. La Conférence générale réunit tous les Etats membres de l’UNESCO tous les deux ans. Le Conseil exécutif, où sont représentés cinquante-huit Etats membres, se réunit deux fois par an. Il veille à l’exécution des décisions de la Conférence générale et prépare les travaux de la session suivante. Après consultation avec les Etats membres et en interaction avec la Direction générale, les différents secteurs et unités du Secrétariat (Education, Sciences, Culture, 4 3 La Division des statistiques de l’UNESCO 5 a conçu et a mis en œuvre un programme statistique international sur l’éducation –ainsi que sur la science et la technologie, la culture et la communication– couvrant tous les pays du monde. Le schéma suivant synthétise les grands traits du programme de travail qui a permis d’assurer la comparabilité internationale des statistiques de l’éducation –et leur « qualité » telle que définie aujourd’hui par la plupart des agences internationales (Eurostat, 2002 ; Carson et al., 2001)– aussi bien que le maintien d’un certain nombre de particularités nationales jusqu’aux années 1990. La production de données internationales de l’éducation (UNESCO) DEFINITION DES INDICATEURS DEFINITION D’OUTILS DE CLASSIFICATION (CITE) ELABORATION D’OUTILS DE RECUEIL DE DONNEES (questionnaires, enquêtes…) FORMATIONS, MANUELS FOURNISSEURS de DONNEES (PAYS) OBJECTIFS (GENERAUX et SPECIFIQUES) Vérifications approfondies DONNEES Statistiques Répercussions Publications ANALYSE ET VERIFICATION Analyses Recherche Diffusion BASE DE DONNEES Tout d’abord, tout programme de production de données s’appuie sur la définition de ses objectifs (qu’estce qu’on veut mesurer et pourquoi). Le programme statistique de l’UNESCO a été long temps encadré dans l’objectif général du droit à l’éducation (UNESCO, 2000). Le principal objectif spécifique a été de mettre à la disposition des Etats membres des données comparables pour les aider dans leur prise de décision (planification) et dans leur cheminement vers l’extension de l’éducation et de l’alphabétisation. Ces objectifs se sont appuyés sur les politiques post-keynésiennes des années 1950 et 1960, axées, entre autres, sur le rôle de l’Etat comme fournisseur des services éducatifs. L’école dans les pays industrialisés avait correspondu au développement du salariat et à la conséquente mise en place d’« un système collectif de reproduction socialisée hors travail dans le cadre politique de la nation » (Vinokur, 2002 : p4). Le modèle scolaire des pays du Nord devait être exporté et répandu au reste du monde dans le contexte des politiques de « développement »6. La « tradition » structuraliste (un certain relativisme Bureau du budget, etc.) préparent et proposent les programmes et les résolutions à la Conférence générale pour être discutés et adoptés. 5 L’unité chargée des statistiques était au début l’Office des statistiques, rattaché au Secteur de la communication. En 1977, l’Office est transféré au Secteur du soutien du programme. L’Office des statistiques devient la Division des statistiques en 1991 et, en 1992, la Division est intégrée au Bureau d’études, de programmation et d’évaluation. 6 La reproduction du modèle qu’on peut appeler occidental n’a pas été forcément un but « réel » de la modernisation sociale et économique promue par les programmes de développement. Ainsi, par exemple, du point de vue 4 culturel) qui a marqué l’origine de l’UNESCO (Lévi-Strauss, 1952) rendait l’Organisation réticente à l’adoption complète de ce but international. Il était certainement touché d’ethnocentrisme et ne prenait pas en compte que, par exemple, dans beaucoup de pays du Sud, le salariat n’était pas généralisé. Cette relative appréhension et le caractère intergouvernemental de l’UNESCO ont favorisé, en outre, l’origine toujours officielle des sources des données. Les classements des Etats membres étaient également évités. Les principaux outils de standardisation des données ont été, et sont toujours, les questionnaires statistiques, les systèmes de classification des programmes éducatifs et les méthodologies de calcul d’indicateurs. Les données sont majoritairement recueillies à travers trois questionnaires standardisés concernant les enseignements pré-primaire, primaire et secondaire, l’enseignement supérieur et le financement public et privé de l’éducation 7. Les questionnaires sont envoyés aux Commissions nationales pour l’UNESCO d’environ 200 pays, qui les font parvenir aux autorités nationales compétences telles que le ministère de l’Éducation, le ministère des Finances ou les universités (parfois, les questionnaires sont directement adressés à ces institutions). Pour assurer la comparabilité internationale des données, les questionnaires doivent être remplis en suivant la Classification internationale type de l’éducation (CITE). Cette classification a été approuvée par la Conférence générale de l’UNESCO en 19788. Les responsables des Etats membres utilisent la définition des différents niveaux d’enseignement de la CITE pour classer leurs programmes éducatifs et pouvoir ainsi regrouper ou dissocier les données correspondantes à chaque niveau et à chaque rubrique des questionnaires. Des formations (ateliers, séminaires) et des manuels sont réalisés dans l’objectif de familiariser les responsables nationaux aux questionnaires et aux classements internationaux des programmes éducatifs. Les données recueillies dans les questionnaires sont rentrées dans la base des services statistiques de l’UNESCO. Celle-ci permet l’archivage, le calcul, la vérification, la correction, l’estimation et la diffusion des indicateurs et des statistiques. Les données sont vérifiées et analysées en les confrontant à d’autres sources de données officielles telles que les annuaires statistiques nationaux, mais surtout en testant leur cohérence avec les séries temporelles et les données démographiques et économiques. Si des incohérences sont relevées dans les données soumises, les responsables des pays concernés sont contactés pour obtenir des précisions complémentaires. Enfin, le principal moyen de diffusion des statistiques ont été les publications de la Division des statistiques et des fichiers électroniques ainsi que, plus récemment, le site Internet et des CD-Roms. Les principales publications statistiques de l’UNESCO ont été l’Annuaire statistique (1963-1999), des séries telles que les Notes statistiques STE, et d’autres études spécifiques ponctuelles. La section suivante analyse avec plus de détail la question de la « qualité » des données internationales dans le contexte des services statistiques de l’UNESCO. économique, il a souvent été question d’une spécialisation dans la production des matières premières et non pas du développement d’économies diversifiées et complexes comme celles des pays du Nord. 7 Les indicateurs sur l’alphabétisme étaient basés sur des estimations à partir des recensements nationaux et d’autres données scolaires et démographiques complémentaires. 8 La CITE a été conçue par l’UNESCO au début des années 1970 et elle a été approuvée par la Conférence internationale de l'éducation lors de sa trente-cinquième session (Genève, 1975), puis par la Conférence générale de l'UNESCO lors de sa vingtième session en 1978. 5 3. La qualité des données internationales de l’éducation jusqu’aux années 1990 Dans les années 1980, la définition de la « qualité » des données statistiques, jusque là basée essentiellement sur leur « justesse », évolue vers une définition prenant compte de tout le « processus » de production statistique. « Le souci d’objectivation de ‘normes de qualité’ est lié en partie à [la] tendance plus générale à la contractualisation et à la facturation des prestations entre administrations », à l’émergence, dans les années 1980, du « management participatif moderne » ainsi qu’au développement du lien entre les statistiques nationales et l’affectation de ressources internationales (Desrosières, 2003a : p52)9. Cette évolution correspond également à la transition de l’harmonisation des données ou des « outputs » à l’harmonisation des « inputs », c’est-à-dire, à la standardisation de la conception et de la gestion des programmes statistiques nationaux (Desrosières, 2003b). Actuellement, dans le contexte international, il est communément admis que la qualité des statistiques ne se définie plus uniquement par leur justesse, mais par un ensemble de critères : la comparabilité, la cohérence, la précision (fiabilité et exhaustivité), et le caractère récent et accessible (matériellement et intellectuellement) des données (Eurostat, 2002 ; Carson et al., 2001). La pertinence par rapport aux objectifs du programme statistique et des utilisateurs en général, bien qu’elle soit plus difficile à mesurer, serait un facteur fondamental de la qualité des données. Nous suivrons ces critères pour définir les démarches des services statistiques de l’UNESCO. Avant tout, il importe de noter que la responsabilité première de la qualité des statistiques internationales revient aux Etats membres. Les données recueillies par l’UNESCO sont d’abord élaborées par les entités statistiques nationales. Malgré la mise à disposition de manuels, de méthodologies, de l’assistance technique et parfois même de financements spécifiques 10, un nombre non négligeable de pays continue à avoir des difficultés à fournir toutes les statistiques nécessaires pour remplir les questionnaires de l’UNESCO. La production nationale de données a parfois été affectée par les réductions budgétaires intervenues depuis les années 1980 et/ou par l’absence de priorité des activités statistiques, les recensements scolaires étant coûteux ou politiquement moins intéressants. La couverture, la fiabilité et le caractère récent des données dépendent donc de facteurs qui, quelque part, dépassent les moyens et les attributions du programme statistique d’une organisation internationale. Les Etats restent, en principe, souverains de leurs priorités et tributaires de leurs capacités. Comme signalé dans la section précédente, une fois les données nationales collectées, leur fiabilité, leur correcte standardisation (CITE), leur exhaustivité et leur cohérence sont vérifiés par les services statistiques de l’UNESCO. Les données sont contrôlées par rapport à elles-mêmes (cohérence interne), par rapport à d’autres sources officielles, par le calcul des indicateurs et par leur confrontation avec les séries temporelles. Dans ce processus, l’intégration des chiffres dans la base des données et l’utilisation des outils de vérification sont essentielles. Par exemple, le nombre d’élèves de l’enseignement primaire pour 1996 pour le Sénégal est introduit dans la base de données selon la codification qui lui correspond. « L’autre facteur qui a poussé à la diffusion du ‘mouvement de la qualité’ a été l’accélération de la construction européenne, et le nouvel accent mis sur la nécessaire harmonisation des statistiques européennes. » (Desrosières, 2003a : p52). En Europe, les données nationales ont une incidence directe sur la réalité économique des pays. Ces statistiques déterminent les subventions aux régions, les versements des cotisations nationales, l’application de clauses dans le contexte du Pacte de stabilité. 10 La coupure du budget et du nombre de personnel des services statistiques a affecté ces activités appelées généralement « activités destinées au développement des capacités statistiques nationales ». 9 6 Grâce à la combinaison des systèmes de rentrée, de calcul et d’extraction de données 11, ce chiffre (en nombres absolus ou en tant qu’indicateur) peut être comparé aux séries historiques pertinentes (i.e. des effectifs d’élèves ou des taux de scolarisation). Il est également comparé aux autres chiffres reliés (par sexe, par année d’études, public et privé…) et aux indicateurs correspondants : pourcentage de filles, pourcentage du privé, pourcentage de redoublants… Les séries standardisées démographiques et économiques (respectivement des NU et de la Banque mondiale) font parfois partie de ces indicateurs permettant d’identifier les possibles incohérences et garantissant la comparabilité internationale et temporelle. Si le Sénégal passe d’un taux brut de scolarisation de 95% pour 1995 à un taux de 85% pour 1996 (pour une même durée du primaire) on peut s’interroger sur, par exemple, l’inclusion de tous les programmes ou de toutes les écoles dans les chiffres pour 1996. Les publications nationales telles que les annuaires statistiques ou des études spécifiques, permettent à la fois de vérifier l’inclusion de tous les programmes éducatifs dans les questionnaires et leur correcte classification selon la CITE. Les spécialistes qui analysent les données utilisent également leurs connaissances sur le cadre politique et économique des pays pour approfondir les vérifications. Même lorsque des données semblent cohérentes dans le temps et internement (par exemple, pourcentage des élèves dans l’enseignement privé stable), on peut s’interroger sur leur fiabilité. Par exemple, la crise économique argentine à la fin des années 1990 pouvait vraisemblablement se répercuter sur les données éducatives avec, entre autres, une baisse des taux de scolarisation. Une trop grande cohérence temporelle peut, dans ce cas-là, alerter et amener à la demande d’éclaircissements complémentaires auprès des responsables nationaux. Les éclaircissements des responsables nationaux permettent de confirmer, de compléter et/ou de corriger les chiffres en question. Parfois les données nécessaires à corriger les données originales ne sont pas disponibles. Les services statistiques de l’UNESCO se servent alors des séries estimées. Ainsi, par exemple, dans le cas du Sénégal cité plus haut, des problèmes de recensement scolaire peuvent être confirmés par les responsables, les données n’étant pas en effet complètes. Une estimation permet de combler la partie manquante à partir des séries temporelles y compris celles du secondaire. Cette partie manquante peut s’estimer à environ 10%, si, par exemple, le secondaire est également stable (taux brut similaire pour 1995 et 1996). Les indicateurs du primaire peuvent ainsi être éventuellement publiés. Cependant, si les données du secondaire sont également incomplètes et faute d’autres informations, l’estimation peut être qualifiée de non fiable et les indicateurs dérivés ne sont pas publiés. Seulement les données des années suivantes (1997 en avant) peuvent parfois aider clarifier les tendances. Enfin, du moins jusqu’en 1999, les séries estimées ont également servi au calcul des indicateurs régionaux (Afrique, Europe, Asie, etc.) (UNESCO, 1999). Cette procédure a permis le calcul de moyennes pondérées (population, élèves, enseignants…) comprenant tous les pays de chaque région. L’accessibilité du public aux données dépend principalement de deux facteurs. D’une part, la mise à disposition de définitions claires des indicateurs et de leur utilisation est essentielle (glossaires et modes d’emploi). D’autre part, les utilisateurs ont besoin des outils d’accès et d’exploitation des données (publications, site Internet, CD-Roms). Des études présentant les chiffes dans des graphiques ou dans des tableaux synthétiques peuvent éventuellement permettre une interprétation plus directe et aisée d’un sujet. Comme noté plus haut, le principal moyen de diffusion des statistiques de l’UNESCO ont été les Les activités multiples et complexes que nécessite la définition et le maintien d’une base de données internationale interactive (création et maintenance de tables statistiques, procédures de calcul des indicateurs, etc.) ne seront pas détaillées ici. 11 7 publications (Annuaire statistique, Notes statistiques STE et plus récemment le Rapport mondial de l’éducation, etc.) et des fichiers électroniques. Seulement plus récemment la Division de statistiques a mis une partie de sa base de données à la disposition du public à travers le site Internet et des CD-Roms. Enfin, le caractère récent des statistiques est aujourd’hui un vecteur important de leur qualité. Les données sont récentes si leur traitement et publication se font immédiatement après leur collecte, en sachant que le processus d’envoi des questionnaires, de leur réception, de traitement et de vérification des données, de communication avec les Etats membres –si nécessaire–, de calcul et de formatage final des statistiques prend un temps parfois considérable. L’engagement de ces activités dépend à son tour de la promptitude des services nationaux à remplir et à faire parvenir les questionnaires à l’UNESCO. Certains pays ont des difficultés à traiter leurs statistiques à la fin de l’année scolaire ; d’autres nécessitent deux-trois ans pour préparer les statistiques de l’année scolaire en cours. De l’envoi des questionnaires à la publication de l’Annuaire statistique s’écoulait une moyenne de sept mois. En résumé, dans le contexte du droit à l’éducation et dans l’objectif général d’informer sur les progrès de l’éducation de masse, l’UNESCO a, depuis les années 1950, assuré la couverture statistique de tous les pays du monde, le caractère officiel des données, leur analyse critique et une solide comparabilité internationale. Cette dernière a été fondée, d’une part, sur l’utilisation de séries démographiques et économiques standardisées et, d’autre part, sur l’utilisation de méthodes identiques tout au long du processus de collecte, d’analyse et de diffusion des données de tous les pays et pour toutes les années disponibles. Ce procédé a également assuré la cohérence temporelle des indicateurs car ceux-ci ont été, du moins jusqu’à 1999, entièrement recalculés avec les révisions démographiques et économiques les plus récentes. Lié aux objectifs de l’UNESCO (respect des particularités nationales), celle-ci a, jusqu’au présent, répercuté les structures éducatives nationales dans les indicateurs et chiffres qu’elle produit. Dans le même esprit, l’Organisation n’avait pas, jusqu’à 2003, publié de classements de pays (UNESCO, 2003). Enfin, mis à part les problèmes de couverture des statistiques (manque de données pour certains pays, données incomplètes, parfois des données non fiables) et le caractère, parfois, peu récent des chiffres (envois tardifs, manque de personnel) ; des problèmes de diversité et de détail des indicateurs (absence de données sur l’origine socioéconomique des élèves, par exemple) ou d’approfondissement des analyses des données (manque de supports graphiques, entre autres) peuvent également être signalés. 4. Le tournant des années 1990 : critique et diversification de la production statistique La « qualité » des données de l’éducation de l’UNESCO fera l’objet d’une forte critique dans les années 1990. Plusieurs personnalités et institutions internationales en sont à l’origine, notamment le Fonds des Nations Unies pour l’enfance (UNICEF) et la Banque mondiale (Puryear, 1995 ; Heyneman, 1999). Ces articles et rapports critiques, examinant, en principe, la qualité des données, se sont surtout centrés sur les objectifs du programme statistique de l’UNESCO et sur la recommandation de leur adaptation aux nouvelles demandes d’information (mesure du « capital humain » des nations). La qualité des données, d’un point de vue plus technique, étant plutôt un « angle d’attaque » des critiques (Cussó, 2004a), deux questions constituent le véritable centre d’attention de ces dernières : (i) les problèmes liés à l’amélioration des sources nationales (le « capacity building ») ; (ii) la modification du programme statistique (mission, pertinence) pour inclure, entre autres, la comparaison des acquis des élèves : « Les deux seules enceintes qui pourraient probablement […] légitimer [les évaluations internationales de l’éducation], –l’UNESCO et ECOSOC– n’ont pas jusqu’ici choisi de jouer ce rôle. » (Puryear, 1995 : p89). 8 Le décalage entre les « nouvelles demandes d’information » et la mission du programme statistique de l’UNESCO mène d’autres agences à produire leurs propres statistiques de l’éducation. Un processus similaire se produit sur le terrain des recommandations. La Banque mondiale, le Programme des Nations Unies pour le développement (PNUD), l’OCDE ou l’UNICEF produisent des projets, des statistiques et des recommandations de l’éducation. L’UNICEF organise ses propres enquêtes statistiques sur l’éducation dans le cadre des Multiple Indicator Cluster Surveys (MICS) depuis 1998. Depuis les années 1980, l’OCDE collecte, traite et diffuse, toujours en collaboration avec l’UNESCO, des données statistiques sur ses Etats membres (OCDE, 2003). Depuis 1997, les statistiques sur l’éducation d’un autre groupe de pays (OCDE-UIS, 2003a) sont également collectées par l’OCDE dans le cadre d’un projet conjoint avec l’UNESCO et avec le financement de la Banque mondiale, le World Education Indicators (WEI). Ce projet concerne les données sur l’éducation d’une vingtaine de pays non-membres de l’OCDE les plus peuplés et/ou de ceux dont le système statistique est particulièrement développé. Les données sur l’éducation de treize autres pays sont collectées et traitées par l’Office statistique des Communautés européennes (Eurostat) dans le cadre du programme Poland and Hungary: Action for the Restructuring of the Economy (PHARE). Ce programme, faisant partie de la stratégie de pré-accès à l’Union européenne (UE), a été lancé en 1989 pour la Pologne et la Hongrie, et a été ensuite élargi à d’autres pays de l’Europe Centrale et de l’Est. Les questionnaires statistiques standardisés utilisés par Eurostat et l’OCDE sont directement dérivés de ceux de l’UNESCO. Ils ont été rebaptisés « questionnaires UEO » des premiers sigles d’UNESCO, d’UE et d’OCDE. Il est intéressant de noter ici que l’OCDE a vécu une période d’hésitation concernant l’opportunité d’élaborer des indicateurs de performance de l’éducation. Celle-ci a, toutefois, été rapidement suivie d’une forte pression pour le développement de ce type d’exercice. « L’OCDE a déjà une longue tradition en matière d’élaboration et de compilation de statistiques se prêtant à une comparaison internationale […]. [I]l était possible […] d’explorer (au début des années 70) l’option consistant à passer de ces statistiques à l’élaboration d’indicateurs de performance de l’éducation, option qui a été jugée à l’époque prématurée. L’Organisation était de ce fait bien placée pour répondre aux pressions de plus en plus vives à la fin des années 80 en faveur d’une initiative intergouvernementale pour l’élaboration d’indicateurs […]. La pression était particulièrement forte de la part des Etats-Unis, où le ministère de l’Education était disposé à apporter une contribution, même modeste, au lancement de l’opération (Papadopoulos, 1994 : p209). En effet, au moment de l’évaluation de l’enseignement aux Etats-Unis, la National Commission on Excellence in Education (NCEE) exprimait déjà le besoin de développer la comparaison internationale des compétences des élèves ainsi que de l’efficacité des systèmes éducatifs : « Comparing American schools and colleges with those of other advanced nations » (NCEE, 1983 : p1). Le but était de vérifier la place des Etats-Unis sur le marché international. Suite à l’analyse des statistiques nationales 12, la réforme du système éducatif semblait s’imposer. Cette dernière devait inclure, entre autres, l’établissement d’un nouveau curriculum scolaire ; l’évaluation nationale des performances des élèves, et l’amélioration de la préparation des enseignants (échelle salariale sur des bases compétitives). 12 Les statistiques nationales semblaient montrer une situation préoccupante: « Many 17-years-olds do not possess the ‘higher order’ intelectual skills we should expect of them. Nearly 40 percent cannot draw inferences from written material ; only one-fifth can write a persuasive essay ; and only one-third can solve a mathematics problem requiring several steps. » (NCEE, 1983 : p9). Les étudiants avaient, en outre, déserté les « vocational and college preparatory programs » (NCEE, 1983 : p18). 9 Enfin, suivant de près les pas de l’Association internationale pour l’évaluation des acquis scolaires (IEA) 13, l’OCDE apparaît à la fin des années 1990 comme l’agence internationale leader dans le domaine de la mesure des acquis des élèves. L’OCDE a conçu et organisé le Programme international pour le suivi des acquis des élèves (PISA). Le PISA 2000 a été principalement axé sur l’évaluation des « compétences utiles pour la vie » acquises par des échantillons d’élèves de 15 ans 14. L’analyse des résultats de ces enquêtes a compris la définition de classements de pays sur des échelles numériques. Apres la mise en œuvre du PISA 2000 dans vingt-huit des trente Etats membres de l’OCDE, rejoints par le Brésil, la Fédération de Russie, la Lituanie et Liechtenstein (OCDE, 2001), treize autres pays ont intégré le programme en 2002. Les premiers résultats de l’enquête dans onze de ces pays ont été examinés dans un rapport préparé conjointement par l’OCDE et l’UNESCO (OCDE-UIS, 2003b). Il importe également de noter, que sans être une de ses activités principales, l’UNESCO avait également commencé, dans les années 1990, à organiser et/ou à parrainer des enquêtes sur les acquis scolaires des élèves pour des groupes de pays. Le projet Minimum learning achievement ou le Suivi permanent des acquis scolaires (MLA) est parrainé par l’UNESCO et l’UNICEF depuis 1992. Ce projet a été mené dans une quarantaine de pays. Le Groupement d’évaluation de la qualité de l’enseignement en Afrique australe (SACMEQ) est mené en partenariat avec l’Institut international de planification de l’éducation (IIPEUNESCO) depuis 1995. Concernant environ une vingtaine de pays, le SACMEQ propose une série de rapports nationaux sur le niveau de connaissances des élèves en sixième année 15. Ces enquêtes constituent rarement des séries temporelles homogènes et elles incluent un nombre relativement réduit de pays. Cependant, le développement de ce type d’exercices et la participation au PISA sont des signes « d’adaptation » de l’UNESCO à deux facteurs principaux : (i) les critiques et les demandes de données d’autres agences ; (ii) la perte du monopole de production de données internationales officielles. 5. Education pour tous, révision de la CITE et restructuration des services statistiques Mis à part la participation de l’UNESCO, encore restreinte, dans des enquêtes pour mesurer les acquis des élèves, la diversification de la production statistique et les critiques à la qualité des données de l’Organisation s’accompagneront de trois autres évolutions importantes : (i) l’émergence du concept d’Education pour tous (EPT) –remplaçant celui du droit à l’éducation– ; (ii) la révision du système de classification des programmes statistiques (CITE), et (iii) la restructuration des services statistiques – création de l’Institut de statistique de l’UNESCO (UIS). La conférence mondiale sur l’éducation tenue à Jomtien (Thaïlande) en 1990 portera un intitulé significatif : Conférence mondiale sur l’Education pour tous (CMEPT). La déclaration internationale proposée aux délégués des pays participants est rédigée par une commission formée par le PNUD, l’UNESCO, l’UNICEF et la Banque mondiale (Haddad et al. 1990). Les principes de cette déclaration ont été discutés et adoptés à Jontiem pour être ensuite ratifiés au Forum mondial de l’Education pour tous Depuis sa création en 1958, l’IEA a lancé plus d’une vingtaine d’études sur les acquis des élèves. Elle a entrepris, depuis 1995, le Troisième étude internationale sur mathématique et science (TIMSS) qui compare les résultats des tests en mathématique et science d’élèves du primaire et du secondaire d’une quarantaine de pays dont une douzaine de pays du Sud. 14 Les acquis des élèves sont ici les compétences « pour faire face aux défis de la vie réelle », celles « dont les jeunes de 15 ans auront besoin dans leur vie future » par rapport aux « situations du monde réel » (OCDE, 2001 : p14). Le PISA 2000 a évalué la culture mathématique, les sciences et surtout la compréhension de l’écrit. 15 Il existe d’autres initiatives telles que le Programme d’analyse des systèmes éducatifs des pays de la Conférence des Ministres de l’éducation des pays ayant le Français en partage CONFEMEN (PASEC). Il a été mis au point en 1991 par les ministres de l’éducation des pays francophones d’Afrique subsaharienne. 13 10 tenu à Dakar (Sénégal) en 2000. Le PNUD, le FNUAP, l’UNESCO, l’UNICEF et la Banque mondiale ont convoqué les deux exercices. L’analyse de la déclaration de 1990 laisse transparaître les nouveaux objectifs internationaux de l’éducation et de sa mesure. Tout en affirmant toujours le « droit de tous à l’éducation », il faudrait améliorer la « qualité de l’éducation » ; assurer « l’acquisition des connaissances » ; et développer des « systèmes améliorés d’évaluation des résultats ». Il s’agirait également de trouver des méthodes pour « un meilleur rapport coût/efficacité [des dépenses] » ; « d’élargir les collaborations existantes, et d’instaurer une concertation entre de nouveaux partenaires : organismes familiaux et communautaires, Organisations non gouvernementales et autres associations volontaires, syndicats d’enseignants […], employeurs, médias, partis politiques […], etc. » (CMEPT, 1990). En ce qui concerne le système de classification des statistiques, dès la fin des années 1980, l’OCDE considère déjà qu’une révision de la CITE –adoptée officiellement en 1978 par l’UNESCO– est nécessaire. Elle n’est plus « adéquate » aux nouvelles demandes de comparabilité. Dû à sa structure, elle a également amené à des différentes interprétations nationales du classement des programmes du supérieur : les Etats auraient tendance à classer leurs programmes selon la durée au lieu de le faire selon, à la fois, le contenu, le type de diplôme et la durée (OCDE, 1989 : p8)16. En outre, et très important pour l’OCDE, des nombreux programmes professionnels n’étaient pas pris en compte par la CITE de 1978, car n’étant pas tout à fait considérés de l’« enseignement » dans les statistiques de l’UNESCO. Sous l’impulsion de l’OCDE, la CITE finit par être révisée. La nouvelle version est adoptée en 1997 par l’UNESCO. Des nouvelles catégories sont proposées pour le supérieur : 5A, 5B et 6. Selon la nouvelle nomenclature, la première dimension à prendre en considération est la distinction entre les programmes qui sont fondés sur la théorie, qui préparent à la recherche (histoire, philosophie, mathématiques, etc.) ou qui permettent d'accéder à des professions exigeant de hautes compétences (par exemple, médecine, dentiste, architecture, etc.) et les programmes pratiques, techniques et/ou préparant à un métier précis. Les programmes de la première catégorie sont appelés 5A et ceux de la seconde, 5B. La durée reste aussi un facteur central de classification, notamment pour distinguer les différents diplômes à l’intérieur d’une même catégorie, mais surtout pour faire la part entre les filières A et B : « Les programmes des filières longues seraient plus théoriques et pourraient conduire à des programmes de formation à la recherche de pointe ou à une profession exigeant de hautes compétences. Les filières courtes seraient davantage orientées vers la pratique. » (UNESCO, 1997 : p18). Un nouveau niveau, le niveau 4 (enseignement post-secondaire non universitaire) sera introduit pour prendre en compte les programmes professionnels non comptabilisés jusque là. La définition et le classement des programmes éducatifs selon leur orientation –vers le marché du travail ou vers la poursuite d’études plus avancées (catégories A, B et C, cette dernière n’existant pas pour le supérieur) – seront appliqués aux niveaux secondaire et post-secondaire. Pour plus de détails, voir la comparaison entre la CITE 1978 et la CITE 1997 dans l’annexe. Une orientation vers la mesure de la capacité d’insertion au marché de travail peut être ainsi identifiée avec la révision de la CITE. La création d’une catégorie pour les programmes post-secondaires non universitaires permet de rendre visibles et de valoriser, entre autres, les formations courtes, fortement En fait, dans un pays comme l’Espagne les études universitaires les plus fréquentées était souvent d’une durée de plus de trois ans, ce qui poussait ce pays à les classer comme étant du niveau 6 de la CITE (parmi les niveaux 5, 6 et 7). Tandis que l’Espagne affichait, en 1985, un pourcentage de 95% d’étudiants dans le niveau 6, le Royaume-Uni n’en avait que 54%. 16 11 orientées au marché de travail. Le nouveau classement des programmes du supérieur a, en partie, surmontée la hiérarchie entre les niveaux 5, 6 et 7 de la CITE 1978 et ne « défavorise » plus les pays ayant des programmes universitaires courts, souvent plus techniques. La proportion de ces programmes peut maintenant être interprétée positivement car elle montre une plus grande diversité et flexibilité de l’offre du supérieur dans ces pays. Les catégories A, B et C, s’appliquant aux deux cycles du secondaire, permettent, en principe, de se faire une idée plus ciblée du potentiel de « capital humain » des jeunes. Certes, des problèmes de correspondance et de comparabilité continuent à se poser, notamment en ce qui concerne le classement des programmes selon l’orientation ultérieure (notion ambiguë). Enfin, la diversification de la production statistique et la critique de la qualité des données –dans un contexte de changement de paradigme de la gestion publique– ont conduit à la restructuration des services statistiques de l’UNESCO. La réforme a été initiée en 1995 et culminée en 1999, avec la création de l’ISU. Comme signalé plus haut, l’amélioration de la qualité des statistiques a été l’origine et, en principe, le principal objectif de la réforme, cette dernière étant également accompagnée du transfert de l’Institut au Canada et de l’entier renouvellement du personnel. Les quatre premières années d’existence de l’ISU ne se sont cependant pas accompagnées du renforcement de la production des données. La couverture et la diversité des indicateurs ainsi que le développement de la base de données étaient sensiblement les mêmes en 2003 que dans le passé (UIS, 2003) (Cussó, 2004a). Les objectifs du programme statistique semblent, en contraste, évoluer sensiblement avec la collaboration de l’ISU avec l’OCDE dans l’enquête PISA pour des pays non-membres de l’OCDE. Il importe de noter également l’inclusion d’un classement de pays selon un index synthétique de l’EPT dans le rapport de l’EPT de l’UNESCO pour 2003 (UNESCO, 2003). 6. Des comparaisons statistiques plus « normatives » et « fragmentées » Au moment de leurs premières parutions, les productions statistiques de la Banque mondiale, d’Eurostat ou de l’OCDE n’étaient pas toujours novatrices en termes de couverture et de diversité des indicateurs. Les questionnaires statistiques utilisés par l’OCDE et par Eurostat (UEO), étant dérivés des questionnaires de l’UNESCO, produisent un éventail similaire de données et d’indicateurs. Toutefois des statistiques complémentaires seront également collectées et analysées dans les publications de ces institutions ou dans le cadre du WEI, suite à des enquêtes spécifiques. De ce fait, l’on peut affirmer aujourd’hui que les indicateurs diffusés par ces agences sont sensiblement plus variés que ceux publiés par l’UNESCO (OCDE, 2003). Suite à cette diversification de la production statistique, trois conséquences « techniques » peuvent être soulignées : (i) une comparabilité, en principe, plus poussée avec l’interprétation plus stricte de la CITE ; (ii) une certaine régionalisation des indicateurs ; (iii) la rupture des séries temporelles. Mis à part la possibilité, pour ces agences, de produire leurs propres indicateurs, les nouvelles productions statistiques vont surtout faciliter le développement de nouvelles expertises. Dans ce sens, deux autres conséquences –plus générales– de la diversification de la production statistique peuvent être également notées : (i) une plus grande intervention au sein des entités statistiques des Etats membres avec l’introduction des processus d’harmonisation des méthodes de production des statistiques nationales ; (ii) des nouveaux traitements et des nouvelles présentations des statistiques permettant des analyses plus normatives des politiques d’éducation. Le schéma suivant détaille la diversification de la production de statistiques d’éducation selon les différentes agences internationales. L’émergence de nouvelles recommandations et de nouvelles 12 expertises dans le domaine de l’éducation est, en fait, intimement liée à la différenciation « technique » dans le processus d’élaboration des indicateurs. DIFFUSION Publications, rapports, études, recommandations Publications, rapports, études, recommandations (ex. Annuaire Statistiques, Rapport Mondiale, (ex. Les chiffres de éducation, Regards sur CD Room …) éducation, PISA…) Autres INDICATEURS INDICATEURS UNESCO BASE DE DONNEES UNESCO ANALYSE & VERIFICATION No reply CITE SERIE CHRONOLOGIQUE INDICATEURS COHERENCE Enquête Quest. UNESCO UNESCO Quest. UOE Enquête OCDE Quest. UOE Enquête EUROSTAT Enquête et autre Banque Mondiale FOURNISSEURS DE DONNEES LE RESTE DU MONDE Pays OCDE, WEI, PHARE L’OCDE va encourager une plus forte standardisation des indicateurs, notamment avec l’établissement – autant se peut– d’un nombre fixe d’années d’études (six années) pour l’enseignement primaire ou l’application plus stricte des catégories relatives aux enseignements secondaire et supérieur. Dans le premier cas, on verra, par exemple, le Brésil (pays participant au projet WEI) changer la répartition des années d’études du primaire, passant par la distribution des huit années auparavant considérées comme du « primaire » en deux cycles de quatre années et, ensuite, en deux groupes de respectivement six et deux années d’études. Ce que nous avons appelé la « régionalisation » des indicateurs dérivera également des différences entre les méthodes de traitement et d’analyse des données de la part de l’UNESCO et de celle des autres agences. L’OCDE utilise des données démographiques et économiques nationales pour le calcul des indicateurs pertinents (à la place de celles standardisées par les NU et la Banque mondiale, utilisées par l’UNESCO). Certains indicateurs sont calculés selon des méthodes légèrement différentes de celles utilisées par l’UNESCO. Il est possible de retrouver des chiffres différents pour un même indicateur, pour un même pays. Par exemple, le taux d’encadrement du primaire pour les Pays Bas en 1991 est d’environ 20 élèves par maître dans la publication de l’OCDE (OCDE, 1993), tandis qu’il est de 16 élèves par maître dans l’annuaire statistique de l’UNESCO (UNESCO, 1999). De son côté, la Banque mondiale a publié, entre autres, des taux d’achèvement du primaire à partir d’indicateurs calculés par l’UNESCO ou avec les données de l’UNESCO, mais aussi à partir de données nationales traitées directement par la Banque, ces dernières n’étant probablement pas, de ce fait, traitées et harmonisées de la même manière (Banque mondiale, 2002 ; UIS, 2003). Enfin, la standardisation des statistiques selon la nouvelle CITE et la « régionalisation » des indicateurs ont également supposé –en partie– une rupture des séries statistiques temporelles de l’UNESCO. Même si l’ISU « récupère » une bonne partie des données des autres agences pour calculer les indicateurs pour toutes les régions avec 13 les mêmes méthodes, les séries historiques de ces mêmes indicateurs (les années précédant 1990) n’ont cependant pas été recalculés et vérifiés avec les révisions démographiques les plus récentes des NU. Enfin, des enquêtes comme PISA viennent incarner la nouvelle façon de concevoir et d’entreprendre la mesure en éducation : il ne s’agit plus –ou plus seulement– de développer et de maintenir un ensemble homogène de données (produisant presque une centaine d’indicateurs dans le cas de l’UNESCO), mais de faire évoluer en permanence les données collectées, et surtout celles qui sont publiées. Ceci est justifié par les besoins changeants des utilisateurs et par l’évolution rapide du contexte économique. Nous avons également souligné deux autres conséquences, plus générales, de la diversification de la production statistique. D’une part, la nouvelle perception de l’activité statistique internationale s’est accompagnée, surtout dans le contexte de l’Europe, d’une plus grande intervention au sein de la gestion et des objectifs des entités statistiques nationales. Un processus d’harmonisation des méthodes de production statistique des Etats membres a été, en effet, mis en place par Eurostat. Ce processus comprend plusieurs réunions internationales, la production de recommandations et le partage des « meilleures pratiques » dont le but est l'amélioration de la qualité des données (Cussó, 2004b). D’autre part, pour l’UE, l’OCDE et la Banque mondiale, les nouvelles productions statistiques sont l’occasion de la mise en oeuvre d’analyses plus normatives des politiques d’éducation. Elles permettent, tout d’abord, de renforcer la vision du rôle socio-économique de l’éducation et de sa mesure. Selon l’OCDE : « Une description quantitative du fonctionnement des systèmes éducatifs peut permettre aux pays de comparer leurs propres performances à celles des autres » (OCDE, 2000 : p5). Pour Eurostat : « Les statistiques [des Etats membres] sont indispensables pour toute décision et évaluation au niveau européen. »17. Ensuite, la publication de classements des systèmes éducatifs nationaux, résultat, par exemple, de la mise en œuvre du PISA, met en relief la relation étroite entre l’évaluation statistique internationale et la réforme des systèmes éducatifs, indirectement –et parfois directement– soutenue par l’OCDE, la Commission européenne ou la Banque mondiale. Le lien entre la nouvelle comparaison internationale et la modification, à terme, des politiques nationales est souligné par un des membres de l’OCDE, en évoquant la question de la qualité de l’éducation et des programmes scolaires : « Dès l’instant où l’on se préoccupait de la qualité de la scolarité, il était inévitable que les projecteurs se braquent sur la ‘substance’ même de l’enseignement […] Il était tout aussi inévitable que les aspects politiques du débat sur la qualité atteignent le programme lui-même, sa structure, son organisation et finalement son contenu. […] Le débat sur les programmes, qui, comme le débat sur la qualité, intéresse avant tout le cycle obligatoire, débouche sur la question plus vaste des finalités de l’école. […] On a jugé que le programme très important d’activités sur la réforme des programmes, lancé par le CERI [Centre pour la recherche et l’innovation dans l’enseignement] à la fin des années 80 supposait au préalable une analyse précise de ces divergences [politiques à l’égard du programme national]. […] La première phase de cette activité a donc été centrée sur l’examen des tendances récentes en matière de réforme des programmes dans les pays Membres. » (Papadopoulos, 1994 : p208). De son côté, la Banque mondiale n’hésite pas, dans ses publications, à citer et même à présenter des analyses de corrélation ou des graphiques montrant, par exemple, l’absence de lien significatif entre la dépense publique d’éducation et la durée moyenne de la scolarisation (Banque mondiale, 2001). Ces études permettent de mettre en avant l’idée que l’efficacité dans l’usage et dans l’allocation des dépenses a plus d’effet sur l’éducation qu’une « simple » augmentation du budget public –thèse discutée par Cussó et D’Amico (2002). Parallèlement, le calcul des taux d’achèvement du primaire (Banque mondiale, 2002) est l’occasion de la proposition d’un programme de réforme de la structure de l’éducation et de son financement dans un nombre de pays. Les niveaux de ces taux permettent d’estimer le financement national et international que certains pays nécessiteraient pour attendre l’achèvement universel du 17 http://europa.eu.int/comm/eurostat/Public/datashop/printcatalogue/FR?catalogue=Eurostat&service=about_catalogue 14 primaire (AUP) en 201518. Ces mêmes estimations sont, à leur tour, à la base des conditionnalités des prêts et des programmes de réduction de la dette et de la pauvreté des pays concernés. L’analyse statistique (y compris le choix et le calcul de l’indicateur cible) permet ainsi de fonder explicitement un modèle optimum de politique éducative et de dépense à partir des pratiques considérées les plus efficaces, et d’appuyer, par la suite, une réforme macro-économique des pays emprunteurs selon ce même modèle (Banque mondiale, 2002 : p41). S’inspirant des pays ayant réussi l’AUP (ou étant en conditions de le faire dans des brefs délais), la Banque préconise d’accorder la priorité de l’effort national au primaire, consacrant à ce niveau d’enseignement 50% des dépenses publiques d’éducation et en diminuant conséquemment l’investissement dans le secondaire et le supérieur. Le modèle décrit également le niveau optimal de salaire des enseignants, le pourcentage d’enseignement privé recommandé ou le taux d’encadrement moyen le plus efficace. Enfin, dans le contexte de l’UE, la mise en œuvre de la méthode ouverte de coordination (MOC) dans le domaine de l’éducation souligne également le passage de la coopération technique (évaluation de l’efficience des systèmes éducatifs au niveau national) à la coopération politique (définition d’objectifs communs) (Dale, 2004)19. La MOC se caractérise par l’établissement de calendriers spécifiques, la définition d’indicateurs et de benchmarks, la comparaison des « meilleures pratiques », l’adoption de mesures, l’évaluation des processus. La comparaison statistique et la mesure de l’éducation proposées sont donc davantage liées à la réforme politique. 7. Conclusion : nouvelle politique d’éducation, nouvelle comparaison internationale La nouvelle production de données de l’éducation comparables internationalement permet la modification de certaines décisions techniques et méthodologiques relativement importantes et favorise des nouvelles analyses et conclusions. Le processus commun de collecte, d’analyse et de diffusion des données pour tous les pays du monde et toutes les années disponibles a été défié par des productions statistiques par groupes de pays et par des divergences méthodologiques. Les évaluations et les collectes de données ponctuelles sont privilégiées par rapport à la continuité des séries temporelles. L’analyse d’un seul indicateur ou d’un petit nombre d’indicateurs est également privilégiée au moment de piloter les politiques d’éducation. Ceci suppose forcément une certaine simplification de la complexité et des multiples facettes des décisions politiques. L’évaluation de la « qualité » de l’éducation ou du système scolaire en général reste plus complète lors qu'elle se fonde sur l’analyse de plusieurs indicateurs complémentaires (taux de scolarisation, de répétition, de déperdition, de survie scolaire dans le primaire ou de transition entre primaire et secondaire, pourcentage de filles…) plutôt que sur un seul indicateur, même si celui-ci peut parfois refléter plusieurs aspects du contexte éducatif d’un pays (indices synthétiques) (Cavicchioni, 2001). Plusieurs indicateurs, et leur évolution dans le temps, permettent éventuellement de mieux cibler les besoins spécifiques de chaque système éducatif. Bien entendu, il est plus difficile de définir de « recettes » politiques à partir de ce type d’analyse. Fin 2000 à l’occasion du Sommet du millénaire, les NU ont fixé un ensemble d’objectifs mesurables et assortis de délais pour lutter, entre autres, contre la pauvreté, la faim et l’analphabétisme. La Banque mondiale a estimé l’aide financière nécessaire à la réussite de l’objectif du Millénaire « Assurer l’éducation primaire pour tous » d’ici à 2015. 19 « indicators [are] to 'allow countries to learn from one another through comparison of common interests and shared differences', while benchmarks are to 'provide policy makers with reference points' ». (Dale, 2004: p11). Pour plus de détails sur la MOC voir Gobin et al. (2003). 18 15 La « fragmentation » du traitement, de l’analyse et de la publication des données et la rupture des séries temporelles n’est pas sans conséquence pour le monde de la recherche 20, surtout pour les chercheurs souhaitant étudier plusieurs régions et/ou tester les relations entre groupes de variables dans le temps. Mis à part les analyses de la Banque mondiale, des nombreuses études traitent également la relation entre le financement de l’éducation et la scolarisation (Coulclough et al., 2000 ; Wömann, 2001). L’examen des séries statistiques peut éventuellement permettre d’apporter des nouveaux éléments d’analyse dans ce domaine, surtout pour les périodes charnière, notamment avant et après les politiques d’ajustement structurel (Cussó, 2004c). Les séries temporelles permettent également d’avoir une vision d’ensemble de l’impact des politiques et des actions recommandées par les agences internationales. Enfin, la forte concurrence entre les agences dans le domaine de la production et de l’analyse des statistiques internationales de l’éducation –qui a aussi supposé la revalorisation de ces statistiques et l’augmentation du nombre d’études– pourrait laisser penser qu’elle accompagne une diversité de positions politiques dans la sphère internationale. En fait, l’éclatement de la production statistique a plutôt provoqué l’alignement de l’UNESCO, du moins en partie, aux objectifs des programmes statistiques des autres agences, entraînant par-là un croissant consensus international. Techniquement moins robuste, la nouvelle comparabilité internationale des données est toutefois plus poussée et plus normative. Quel qu’il soit son impact réel, la mesure de l’éducation est enfin ouvertement liée à la réforme scolaire et/u aux conditionnalités des prêts internationaux. En vue de ces évolutions, la discussion sur la « qualité » des statistiques de l’UNESCO ou des pays concernés prend, quelque peu, une dimension nouvelle. Références bibliographiques Banque mondiale (2002) Achieving Education for All by 2015: Simulation Results for 47 Low-income countries. Human development network, avril, 76p. Banque mondiale (2001) Le système éducatif mauritanien, Série département humain de la région Afrique, 88p. Banque mondiale (1963) Rapport annuel de 1963, Washington. Becker, G. (1993) Human capital: a theoretical and empirical analysis, with special reference to education, University Chicago press, Chicago, London (première édition 1964), 390p. Carson, C. S. et C. Liuksila (2001) Further steps toward a framework for assessing data quality, Working paper IMF, 20p. Cavicchioni, V. (2001) Development of EFA indicators, Discussion Paper, UNESCO, Paris, 19p. CMEPT, Conférence mondiale sur l’éducation pour tous : Répondre aux besoins éducatifs fondamentaux (1990) Rapport final, 5-9 mars 1990, Jontiem, Thaïlande, UNICEF, New York, 42p. Coulclough, Ch. et S. Al-Samarrai (2000) « Achieving schooling for all: budgetary expenditures on education in Sub-saharan Africa and South Asia », IDS Working paper 77, 30p. Cussó, R. (2004a) « Les statistiques de l’éducation de l’UNESCO : restructuration et changement politique », Education et sociétés, n°11, INRP, Editions De Boeck Université (à paraître). Cussó, R. (2004b) « Nouveau paradigme éducatif, nouvelle comparaison statistique internationale : Commission européenne et Eurostat », Séminaire « Jeunes chercheurs » Les comparaisons nationales et internationales des politiques éducatives, 24-25 mai, RAPPE, Ministère de la Recherche, Paris, 20p. 20 Malgré la tension qui résulte de ce que les statistiques peuvent être vues comme « construites » à partir de conventions (Desrosières, 2003b), la comparaison statistique reste pour beaucoup une méthode essentielle de production de connaissances (Sirota, 2001). 16 Cussó, R. (2004c) « L’éducation contribue-t-elle à la croissance économique ? La Banque mondiale et les pays les plus ‘pauvres’ », Colloque Education, formation et dynamique du capitalisme contemporain, IRD – Laser - CEP, Université de Montpellier I, Montpellier, 24-25 juin, 22p. Cussó, R. (2003) « Diversité culturelle ou diversité tout court ? », Nouveaux regards, n°20, Institut de Recherches de la FSU, Paris, pp7-10. Cussó, R. (2002) « La Banque mondiale et l’éducation : une politique basée sur l’expertise », Nouveaux regards, n°16, Institut de Recherches de la FSU, Paris, pp35-39. Cussó, R. et S. D’Amico (2002) « L’Education pour tous en Afrique sub-saharienne : analyse de la relation entre scolarisation et financement depuis les années 1970 » Communication au Colloque international L’Education de base pour tous dans la Francophonie à l’heure de la mondialisation - Une perspective comparative, 20-22 mai, Paris. Dale, R. (2004) « The construction of an European education space and education policy », Séminaire international « La mesure en éducation », FOREDUC, 18-19 juin, Paris, 17p. Desrosières, A. (2003a) « Les qualités des quantités », Courrier des statistiques, n°105-106, pp51-63. http://www.insee.fr/fr/ffc/docs_ffc/cs105l.pdf Desrosières, A. (2003b) « Comment fabriquer un espace de commune mesure : harmonisation des statistiques et réalisme de leurs usages » in Lallement, M. et J. Spurk (éds.), Stratégies de la comparaison internationale, CNRS Editions, Paris, pp151-166. Eursotat (2002) Definition of quality in statistics, Document N° Eurostat/A4/Quality/02/General/Definition, 4p. Gobin, C., Coron, G. et Dufresne, A. (2003) « The European Union. Reorganising resources : Employment, Pensions ans the Wage » in Clasquin, B. et N. Moncel (eds) Social Rights over Financial Resources: Issues for the Future of Employment and Social Protection in Europe, TSER European Network « Social Construction of employement », PIE/Peter Lang, Bruxelles. Haddad, W. D. et al. (1990) Meeting Basic Learning Needs: A Vision for the 1990s, Inter-Agency Commission for the World Conference on Education for All, UNDP, UNESCO, UNICEF, World Bank, New York, 164p. Heyneman, S. P. (1999) « The sad story of UNESCO’s education statistics » in International Journal of Educational Development, Vol. 19, janvier, pp66-74. Lévi-Strauss, C. (1952) Race et histoire, UNESCO, Paris, 50p. NCEE, National Commission on Excellence in Education (1983) A nation at risk: the imperative for educational reform, US Department of education, Washington, 65p. Normand, R. (2003) « Le mouvement de la ‘School effectiveness’ et sa critique dans le monde anglosaxon » in Van Haecht, A. (dir.) Sociologie, politique et critique en éducation, Revue de l’Institut de Sociologie, Bruxelles, ULB, pp135-166. OCDE-UIS (2003a) Financing Education - Investments and Returns. Analysis of the World Education Indicators 2002 Edition, Paris, 232p. OCDE-UIS (2003b) Literacy Skills for the World of Tomorrow - Further Results from PISA 2000, Paris, 392p. OCDE (2003) Regards sur l’éducation. Les indicateurs de l’OCDE – Edition 2003, Paris, 496p. OCDE (2001) Connaissances et compétences : des atouts pour la vie. Premiers résultats du Programme international de l’OCDE pour le suivi des acquis des élèves (PISA) 2000, Paris, 350p. OCDE (2000) Investing in education. Analysis of the 1999 world education indicators, Paris, 192p. OCDE (1993) Regards sur l’éducation. Les indicateurs de l’OCDE, Paris. OCDE (1989) A compendium of statistical information 1986-1987. Education in OECD countries, Paris, 131p. 17 Papadopoulos, G. S. (1994) L’OCDE face à l’éducation, 1960-1990, OCDE, Paris, 223p. Puryear, J. M. (1995) « International education statistics and research: status and problems » in International Journal of Educational Development, Vol. 15, janvier, pp79-91. Sirota, R. (dir.) (2001) Autour du comparatisme en éducation, Presses universitaires de France, Paris, 256 p. UIS (2003) Recueil de Données Mondiales sur l'Éducation 2003 - Statistiques comparées sur l'éducation dans le monde, Montréal, 127p. UNESCO (2003) Rapport mondial de suivi sur l’éducation pour tous 2003. Genre et éducation pour tous : le pari de l’égalité, Paris, 432p. UNESCO (2000) Rapport mondial de l’éducation 2000. Le droit à l’éducation, Paris, 182p. UNESCO (1999) Annuaire statistique de l’UNESCO 1999, Paris. UNESCO (1997) Classification internationale type de l’éducation, Paris, 28p. Vinokur, A. (2002) « Mondialisation du capital et reconfiguration des systèmes éducatifs des espaces dominés », Informations et commentaires, janvier-mars, n°118, pp4-10. Wömann, L. (2001) « New evidence on the missing resource-performance link in education », Kiel working paper, Kiel Institute of world economics, juin, 40p. Annexe Comparaison des systèmes de classification des programmes éducatifs CITE 1978 et CITE 1997 CITE 1978 Niveau 0 Préprimaire CITE 1997 Niveau 0 Préprimaire 1 Enseignement primaire 1 2 Enseignement secondaire 1er cycle 2 A/B/C - Général / pré-technique Enseignement secondaire 1er cycle - Général / pré-technique 3 Enseignement secondaire 2e cycle 3 A/B/C Général / technique ou/et professionnel Enseignement secondaire 2e cycle Général / technique ou/et professionnel Total 2+3 Secondaire Total 2+3 4A 4B 5 Enseignement supérieur 2-3 ans Total 4 5B 6 Enseignement supérieur 3-5 ans 5A 7 Enseignement supérieur, 3e cycle 6 Enseignement supérieur, 3e cycle Total 5+6 Supérieur Total 5+6+7 Supérieur Enseignement primaire Secondaire Enseignement post-secondaire non-universitaire Général / technique Post-secondaire non-universitaire Enseignement supérieur 2-3 ans Enseignement supérieur 5A<4 ou 5A >=4 18