> IV- EDUCATION. GÉNÉRALITÉS (Types de doc.) > Education-Généralités (Positions de chercheurs et experts ou (...) > Marc Demeuse : Evaluer les politiques d’éducation prioritaire : (...)

Voir à gauche les mots-clés liés à cet article

Marc Demeuse : Evaluer les politiques d’éducation prioritaire : provocation indécente ou nécessité ?

5 novembre 2013

Marc Demeuse : Evaluer les politiques d’éducation prioritaire : provocation indécente ou nécessité ?

"L’action se poursuit parce qu’il est impossible (politiquement) de ne rien faire… mais que fait-on réellement ?" Cette question de Marc Demeuse, professeur à l’université de Mons, interroge les politiques d’évaluation de l’éducation prioritaire. Dans les différents systèmes éducatifs européens, des études sur les politiques d’éducation prioritaire ont été menées. Mais l’évaluation de ces politiques reste à la fois assez marginale et décriée. Cependant, n’est-elle pas justement le moyen de mettre l’accent sur certaines incohérences de ces politiques ? C’est à cette question que Marc Demeuse cherche à répondre lors d’une conférence donnée le 20 octobre dernier à l’Université d’Automne du SNUIPP.

La mise en place de politiques d’éducation prioritaire est nécessairement subjective et relative.

Ces dernières années, les pays européens ont, en général, cherché à mettre en œuvre des politiques visant la démocratisation de l’éducation, y compris en ciblant des groupes qui présentent statistiquement moins de chance de réussite et qui sont parfois fortement concentrés dans certains établissements scolaires. D’emblée, le fait de cibler certaines populations ou certaines actions pose le problème de l’objectivité des mesures employées. Comment définir les bénéficiaires de manière objective et non stigmatisante ? Quelles actions envisager ? Cela conditionne dès le départ les résultats de la politique ou de l’action menée…

Marc Demeuse donne quelques exemples des groupes qui peuvent être ciblés à travers différentes politiques et dans différents systèmes éducatifs : en fonction de l’ethnicité supposée ou de l’appartenance à une minorité nationale, à un flux migratoire particulier, à la nationalité d’origine ou actuelle… Ces catégories sociales ne recouvrent pourtant pas la même réalité, pas la même chose du tout (certains migrants peuvent ne pas parler la langue d’enseignement, contrairement à d’autres, avoir ou non été alphabétisés dans leur pays de naissance, jouir d’un statut légal ou pas, et donc d’un certain statut social, culturel ou économique…). D’autres catégories sociales posent également des problèmes de définition, comme lorsqu’il s’agit de catégories construites en fonction de la scolarité (élèves faibles, élèves en difficultés, élèves porteurs de handicaps…). Pourtant, souvent, ces définitions sont peu questionnées et le ciblage est largement considéré comme une donnée préalable et assurée, au même titre que le diagnostic qui en découle.

Il en est de même pour les types d’actions envisagées qui peuvent s’avérer très disparates et très peu formalisées, voire laissées entièrement à l’appréciation « du local » : on peut donner des moyens supplémentaires aux enseignants, leur proposer une formation supplémentaire, réaliser un programme d’aide particulier en direction des écoles, on peut rajouter du personnel dans les classes, jouer sur la quantité des enseignants, offrir plus d’heures, choisir différents manuels qui traitent d’un sujet dans une autre perspective ou qui sont édités dans la langue d’origine des élèves concernés par l’action, utiliser des conceptions pédagogiques diversifiées, utiliser un système de quota pour tel ou tel établissement (interdire par exemple une trop grosse concentration d’élèves du groupe cible dans un établissement, comme en Communauté flamande de Belgique, ce qui constitue une sorte de quota inversé), travailler sur le rapport entre les parents et l’institution,…

Ces choix ne sont pas anodins. Ils ont une visée particulière et devraient être évalués en fonction de cette visée particulière, à savoir les résultats attendus sur le court, le moyen et le long terme. Or, ce n’est pas si simple et la relativité des choix préalablement réalisés (choix de la catégorie et choix de l’action menée) a des conséquences, parfois incohérentes, sur les effets et l’évaluation de la politique menée, y compris en la rendant très largement impossible.

Qu’évalue-t-on lorsqu’on évalue une politique d’éducation prioritaire ciblée ?

Pour étudier ces effets, et les résultats bien souvent décevants des politiques d’éducation prioritaire menées, Marc Demeuse choisit d’observer les résultats selon deux approches, une approche descriptive et une approche critiques. L’approche descriptive permet de poser les termes de l’évaluation et de son efficience : quels moyens ? Quels résultats ? Quelle évaluation ? Porte-t-elle sur le dispositif, les acteurs ou le processus ? L’approche critique pose la question de savoir quelle analyse réaliser à partir de ces informations : quelle utilisation en faire ? L’évaluation a-t-elle porté sur les bons éléments ? Globalement, l’effet attendu lorsqu’une action est menée, c’est de produire des effets sur les élèves, des effets à court terme (par exemple réussir son Brevet ou son Bac) comme à long terme (éviter la prison, réussir son insertion dans la société). Pour que ce modèle fonctionne, il est nécessaire de proposer des choses pertinentes (on peut être très efficaces à atteindre des objectifs qui ne servent pourtant à rien, mais qui sont très sensibles !) et de tenir compte des contraintes. On recherche une adéquation entre les objectifs et les contraintes et les moyens (l’efficience, c’est d’arriver à ses objectifs avec les moyens donnés, rien ne sert en effet de viser la lune si on ne dispose que de moyens dérisoires, voire même inexistants).
Le problème, lors des phases d’évaluation, c’est que de nombreux éléments bien souvent ne sont pas pris en compte. Lorsqu’on dit que « ça marche bien », il faut savoir ce qui marche bien. Il faudrait notamment prendre en compte la notion de durabilité de l’action ou celle de la synergie d’équipe : par exemple, si on compare deux actions identiques (même objectifs, mêmes moyens) menées dans deux établissements, on se rend compte que ça marche mieux dans l’un que dans l’autre car il y a une énergie déployée et un travail d’équipe plus efficace dans un des deux établissements et pas dans l’autre... c’est parfois cet engagement qui est difficile à tenir sur la longueur, quand l’équipe se modifie ou lorsqu’on généralise trop vite une réforme lancée exclusivement avec des volontaires. Pour évaluer, il faudrait également se poser la question a priori des effets non attendus. Enfin, quand on a des résultats, on a de nouveaux besoins, les objectifs changent, la population ciblée peut changer également, les établissements pouvant attirer d’autres élèves que les bénéficiaires ciblés, y compris en expropriant ceux-ci, en quelque sorte. Ce sont donc les notions d’impact et de flexibilité qui doivent être prises en compte.

Poser la question de l’évaluation de ces politiques permet d’en montrer les incohérences et les hypocrisies.

Pour évoquer les incohérences des évaluations réalisées sur des politiques d’éducation prioritaire, Marc Demeuse n’a pas choisi des pays au hasard, sa recherche porte essentiellement sur des pays où il y a des problèmes et notamment la France et la Belgique. Des effets pervers des politiques menées ont pu être observés, comme par exemple un détournement de l’action envisagée, qui ne répond pas à la catégorie ciblée a priori mais qui sert à une autre catégorie au moment de l’action. Dans l’idéal, les politiques d’éducation prioritaire pourraient être des réussites. Pourtant, dans les faits, les résultats montrent des effets souvent très modestes.

De fait, les actions sur le terrain sont confrontées à de véritables vices de conception, notamment dans les pays latins :
- on lance une réforme mais on ne définit pas les résultats attendus a priori ;
- peu d’études statistiques sérieuses sont entreprises sur les actions menées réellement, notamment parce que ces dernières sont peu ou pas définies ;
- on n’anticipe pas les actions correctives possibles en fonction des résultats observés ;
- les politiques sont rarement expérimentés en se donnant le temps d’analyser les résultats et, le cas échéant, en renonçant à certaines démarches qui n’ont pas fait leurs preuves : on lance une généralisation de suite, on analyse après ;
- les objectifs sont définis de manière très large, idéologique : il n’y a peu d’interventions visant des objectifs ciblés et raisonnables ;
- il peut aussi exister un problème de ciblage des bénéficiaires et d’affectation des moyens, comme l’a bien montré l’étude de Benabou, Kramarz et Prost sur la première vague des ZEP ;
- il n’y a pas de dispositif précis proposé avec les moyens donnés : que fait-on réellement des moyens dans les écoles ? Les moyens, lorsqu’ils sont donnés, le sont sans beaucoup de contrôle (ici, il ne s’agit pas de plaider pour un contrôle administratif accentué, mais pour un pilotage pédagogique, une aide à la décision en suggérant des solutions qui ont pu, dans certains contextes, faire leurs preuves…).

Au final, trop de facteurs empêchent une réelle efficacité des politiques d’éducation prioritaire et surtout de pouvoir l’évaluer, ce qui conduit à une véritable hypocrisie : l’action se poursuit parce qu’il est impossible (politiquement) de ne rien faire… mais que fait-on réellement ? On en vient alors à donner plus à ceux qui ont moins, mais on ne se pose pas la question de savoir « moins de quoi ? » Moins de ressources ? Moins de facilités ? Moins de chance ? Moins d’aide parentale ? De même, que signifie « donner plus » ? Plus de socialisation ? Plus d’activités périscolaires (sorties, musées,…) ? Plus d’enseignants ? Plus d’aide personnalisée ? Plus de crédits ? Plus de mobilisation ? Plus d’énergie ? Et si on donne plus, on doit donner combien ? A partir de quel seuil y-a-t-il des résultats ? Ces questions ne sont pourtant pas nouvelles. Ce sont celles que posait par exemple Gérard Chauveau en 2000 dans son ouvrage « Comment réussir en ZEP : vers des zones d’excellence pédagogiques ».

Ainsi Marc Demeuse, par une conférence très concrète et l’utilisation de beaucoup d’exemples, a-t-il présenté l’état de ses travaux de recherche actuels permettant de proposer quelques pistes de réflexion. Il serait intéressant de prendre en compte ces recherches afin de proposer en effet des politiques mieux ciblées et bien plus efficientes pour permettre à l’école de véritablement prendre en compte la diversité des élèves et de réussir dans la mission très ambitieuse d’égalité des chances et de différenciation pédagogique qu’elle se donne.

Alexandra Mazzilli

Pour en savoir plus :
- Interview de Marc Demeuse par Ginette Bret (SNUIPP), à paraître dans "Fenêtres sur cours" : http://inas-umh.blogspot.fr/
- Demeuse, M., Frandji, D., Greger, D., Rochex, J.Y. (dir.) (2008), Évolution des politiques d’éducation prioritaire en Europe. Conceptions, mises en œuvres, débats, Lyon, INRP.
- Demeuse, M., Frandji, D., Greger, D., Rochex, J.-Y. (dir.) (2011). Les politiques d’éducation prioritaire en Europe. Vol 2 : questions sur le devenir et les possibles en matière d’égalité scolaire, Lyon : Editions de l’ENS de Lyon.
• En particulier : Demeuse, M. (2011). Peut-on vraiment évaluer les politiques d’éducation prioritaires en Europe. pp. 281-292.
• Et : Demeuse, M., Demierbe, Friant, N. (2011). Quelle évaluation des politiques d’éducation prioritaire en Europe ? Un cadre d’analyse et son application. pp. 293-316.
- M., Friant, N. (2012). Evaluer les politiques d’éducation prioritaire en Europe : un défi méthodologique. Revue suisse des sciences de l’éducation, 34 (1), 39-55.

Extrait de L’Expresso du 04.11.2013 : Marc Demeuse : Evaluer les politiques d’éducation prioritaire : provocation indécente ou nécessité ?

Répondre à cet article