Billets d'humeur

2 octobre 2005 :

Depuis 1989, c'est le marronnier de la rentrée pour les élèves de CE2 et de 6e. "Evaluation CE2-6e", elle a été "Evaluation Nationale" et la voici devenue "Evaluation diagnostique".
Tout le monde est convaincu de son utilité sauf... les enseignants !

Evaluations idôlatrées

Cela aurait pu être un outil formidable. C'est devenu un dogme qu'il faut employer sans discuter malgré ses imperfections.
Même les rédacteurs de la notice le reconnaissent explicitement :
"Ce dispositif de grande envergure, conçu pour
le bénéfice personnel des élèves, a depuis lors été trop souvent détourné de ces objectifs prioritaires."
(Document à l'attention des enseignants 2005, p.4)

La page suivante est un rappel des erreurs que l'on peut commettre si on utilise les Evaluations sans discernement. A utiliser avec un peu de recul et beaucoup d'intelligence.


Envie de réagir ? Ecrivez-moi : Jacques Risso

"En aucun cas, il n'est question de classer les élèves les uns par rapport aux autres
selon leurs performances
." (Document à l'attention des enseignants, 1998, p.1) 


Charlemagne séparant les bons élèves qui ont obtenu au moins 80% de réponses attendues (code 1)
des élèves en difficulté bons pour un PPAP.

Intention louable. Pourquoi alors le logiciel de traitement des résultats, Casimir ou J'ADE, propose-t-il toujours une comparaison par rapport à la moyenne de la classe ou de l'établissement ?
Peut-être parce que - horreur ! - cela reste la seule référence objective que permet l'évaluation.
Nous l'allons voir tout à l'heure.

L'évaluation ne sert pas non plus à établir un palmarès des écoles 

C'est la grande inquiétude des enseignants et tous les IEN se défendent de juger les écoles à l'aune des pourcentages de réussite aux évaluations en CE2 ou en 6e...
On recherche toujours un critère qui permette de juger les enseignants au mérite et il faut espérer qu'on ne choisira pas celui-là... Pourquoi ? Par exemple parce qu'il peut y avoir des élèves de CE2 qui viennent d'une autre école : c'est agaçant pour les maîtres de CE1 de se sentir jugés à partir d'élèves qu'ils n'ont jamais eu. Surtout dans les petites écoles : effectif réduit, gros écarts...

Et puis "
Cette évaluation ne couvre pas tout le domaine des apprentissages prévus par les textes réglementaires, soit pour des raisons d'ordre technique (l'expression orale n’est pas prise en compte), soit pour ne pas alourdir la durée de passation des épreuves..." (Document à l'attention des enseignants, 1998, p.1)

On a vu aussi des comparaisons très pointues entre circonscription ou entre académies. Il est naturel d'observer les différences d'une région à l'autre, mais parfois cela tourne à la caricature, quand on épluche les résultats à la virgule près. Et depuis 1998, "La phase d'évaluation et de constat doit être considérée comme un appui pour établir des diagnostics individuels [...] Au-delà de ces moyennes nationales, ce qui compte c'est de tout faire pour améliorer les résultats individuels." (Circulaire N°98-229 du 18-11-1998)


Inspecteur rêvant d'un résultat individuel

O tempora, ô mores : à l'origine, les plus anciens s'en souviennent, il fallait au contraire se dégager des résultats individuels pour s'attacher à la globalité : je me souviens ainsi des premières années où on découvrait qu'il fallait mettre l'accent sur la géométrie, revoir les critères de jugement d'une expression écrite, réfléchir sur les scores de grammaire ou d'orthographe au sein de la classe, de l'école, du département...
Cela me semblait d'ailleurs, j'ose l'avouer, plus pertinent que les résultats individuels d'aujourd'hui qui stigmatisent les faiblesses des élèves en français et en maths.
.

Utilisation pertinente des évaluations au niveau général : elles permettent à
L'Observatoire des Inégalités de démontrer que les élèves étrangers sont à la peine.

Il s'agit bien avant tout, d'une évaluation analytique au bénéfice de chaque élève et non pas d'une évaluation sommative permettant soit des calculs de moyennes soit la production d'indicateurs de " niveau scolaire " à visées comparatives. Elle n'a pas de caractère normatif. (Document à l'attention des enseignants, 2005, p.4) 

A partir de quel pourcentage de réussite est-on un bon élève ? Un élève en difficulté ?
Question souvent posée par les parents. Aucun texte officiel n'osera - avec raison - avancer un chiffre.
Depuis 1989, les Evaluations révèlent ainsi que la plupart des élèves français sont en-deçà des compétences attendues en fin de cycle 2 puisqu'ils sont nombreux à ne pas atteindre les 100% de réussite :

Scores moyens en français : (septembre 2004)
établissement fréquenté

Score moyen sur 100

écoles publiques de ZEP

64,5

écoles publiques de REP hors ZEP

70,4

écoles publiques hors ZEP/REP

74,6

écoles publiques

73,6

Scores moyens en mathématiques : (septembre 2004)
établissement fréquenté

Score moyen sur 100

écoles publiques de ZEP

59,6

écoles publiques de REP hors ZEP

65,1

écoles publiques hors ZEP/REP

70,7

écoles publiques

69,5

source : Ministère Education Nationale

En effet, si l'on veut invoquer la rigueur scientifique, comment prouver que les exercices où il y a eu le plus d'échecs n'avaient pas placé la barre trop haut ? Ou inversement que les plus forts taux de réussite ne sont pas dûs à des questions trop simples ?

Et les exercices varient d'une année à l'autre...
Par exemple en 2003,
12 items rendaient compte de la production d'écrit.

En 2005, il n'y avait que 5 items.

Remarquez l'intitulé des compétences : il ne s'agit pas des mêmes. Ces différences se retrouvent partout en français et en mathématiques.
Il est impossible de comparer les résultats d'une année sur l'autre : ce n'est jamais la même chose qui est évaluée, et jamais de la même façon.
On reste perplexe devant ces variations, comme si la DEP n'en finissait pas de tâtonner à la recherche de la meilleure manière d'évaluer les élèves, sans jamais y arriver depuis 1989.

Il est toujours impossible de savoir si "le niveau monte" ou s'il baisse.
Dommage ?

Jouez au jeu des ressemblances et différences d'une année à l'autre. Même les consignes de passation changent !

Les archives des Evaluations Nationales sont disponibles sur le site de la CISAD. On y retrouve les cahiers des élèves (CE2 et 6e) de 1997 à 2004 ainsi que les documents à l'usage des maîtres.
Ceux de
2005 sont disponibles sur le site de l'IEN de Gap.

Peut-on comparer des compétences qui ne sont pas évaluées de la même façon ?
Par exemple le graphique ci-dessous semble montrer que l'élève se débrouille très bien en production de textes.

Mais il ne faut pas oublier que cette année (2005), cette compétence n'était estimée que par 5 items. L'orthographe, la grammaire, l'écriture (sic) étaient estimées par 50 items : cela atténue les écarts entre les pourcentages de réussite et les pourcentages d'échec.


Répartition des items de français (Evaluations CE2 2005)

On oublie trop souvent que les chiffres ne sont que des indicateurs, et non l'expression fidèle de la réalité.
Les enseignants, devant leurs élèves, savent que les choses sont plus complexes et moins abruptes.
Ci-dessous, le nombre d'items en mathématiques : en 2005, il y avait quand même trois fois moins d'exercices pour évaluer la géométrie que pour le calcul.


Répartition des items de mathématiques (Evaluations CE2 2005)

C'est bien normal, répondra-t-on : la part de la géométrie avant le CE2 n'est pas la même que le calcul ou la numération. Il faut bien en avoir conscience et relativiser les résultats.

Du coup, si l'on s'en tient à une macro-analyse (par exemple sur la moyenne des résultats de l'académie), il est difficile d'affirmer que les élèves se débrouillent mieux en écriture qu'en lecture, par exemple. Ou qu'ils ont plus de difficultés en calcul qu'en résolution de problèmes.

 



Cela paraît impensable, mais pourtant imposer des objectifs arbitraires, c'est dans l'air du temps. Et avec la
LOLF, cette tentation va s'accroître encore.

Il paraît qu'il y en a qui n'y trouveraient rien à redire ! On n'ose pas imaginer tous les effets pervers que cela engendrerait : bachotage, tricherie, évaluations simplifiées, élimination des élèves en difficulté... BRRR !

"Pour chacun de ces élèves, une action spécifique doit être mise en place systématiquement. Elle prend la forme d'un "programme personnalisé d'aide et de progrès" construit avec l'élève et en partenariat avec ses parents."(Circulaire N°98-229 du 18-11-1998)

Depuis 1998, les Evaluations ont un nouveau souffle. La mise en place des PPAP les oriente désormais vers l'analyse individuelle. D'accord, mais n'oublions pas les limites des tests : uniquement le français et les mathématiques, uniquement l'écrit, et en plus ils ne sont pas vraiment adaptés pour dépister une éventuelle dyslexie (dépistage qui aurait dû se faire dès le CP)...

Stella Baruk, dans "Si 7 = 0. Quelles mathématiques pour l’école ?" ( Ed. Odile Jacob, 2004) dénonce les "mécanismes de l'exclusion" qui se mettent selon elle en place dès le CP : l’évaluation ne devrait exister que pour aider une intelligence à progresser, à se construire, non pour juger voire prédire. Quels dégâts provoque-t-on sur un enfant en le désignant en difficulté ?
C'est un autre débat. Et il faut qu'il y ait débat ! (Lire les réponses de Françoise Colsaet, professeure de mathématiques, lycée de Cavaillon.)

Une question reste en suspens : quel critère est retenu pour établir un PPAP ?
- Dans la Drôme, il faut avoir
moins de 60% de réussite aux tests.
- A Grenoble, c'est
moins de 70 %.
- Ailleurs, il faut prendre
les cinq élèves ayant eu les moins bons résultats...
- etc.

(Source : le forum de discussion news:fr.education.divers )

"Une motivation positive de sa famille est tout à fait essentielle. "(Circulaire N°98-229 du 18-11-1998)

Instituées outil de référence incontournable, les Evaluations ont acquis un apparat scientifique, mais si l'on voulait être rigoureux, il y aurait beaucoup de corrections et d'améliorations à apporter...
En attendant, ça impressionne, ces tableaux et ces graphiques imprimés ! Les parents n'osent rien dire.

 
Outil obligatoire, les résultats des évaluations sont employés à toutes les sauces.
Certes, ce sont des indicateurs intéressants. Mais leur voir conférer un statut de profil représentatif de l'école, c'est quand même dérangeant.
Parfois, ce n'est pas forcément bien adapté aux objectifs poursuivis. Tous les projets d'école doivent-ils être axés uniquement sur le français et les maths ?

Et les autres classes ? les autres élèves ? Ils existent eux aussi ?

Pour ceux qui n'y ont pas droit, on pourra leur proposer des
PPER.
Les Evaluations sont donc contournables !

Finalement, il n'est pas évident de dire à quoi peuvent servir les Evaluations, comment les utiliser avec intelligence et discernement. Les enseignants ont leur avis sur la question, pas forcément le même que celui de l'administration.
C'est peut-être beaucoup de frais pour un résultat étriqué. Le ministère a raccourci en 2005 le nombre de jours de passation des épreuves : trois jours au lieu de quatre. Une tendance ?

Quelques liens à propos des évaluations

Spécial copinage :

Le site de Pragmatice propose tout un dossier Evaluation
pour aider les enseignants à tirer parti de l'Evaluation CE2 2005.

Il n'y a donc pas que de l'esprit destructif sur cette page...

Un article sur le même sujet paru dans
"La communale"
de décembre 2005,
le bulletin d'info du SNUDI-FO de Mayenne.

Envie de réagir ? Jacques Risso

Vous voulez recevoir les billets d'humeur ?
Il suffit de demander, j'aurai du mal à refuser.

Jacques Risso


et aussi Les petits dessins pour le GDID