Les surévaluations de CE2.


      Dans le courant du mois de septembre 2005, un scandale a failli éclater. En effet, avant même le début des passations, les cahiers des épreuves des évaluations nationales de CE2 et de 6ème étaient disponibles sur le site du ministère, et ce, paraît-il, depuis l’été, avant d’en être précipitamment retirées. Cette " bourde " n’avait, semble-t-il, rien d’exceptionnel : les évaluations de 2004, m’a-t-on appris depuis, avaient connu le même sort, la même discrète publicité, dans l’indifférence générale.
      Certes, il fallait jouir du privilège d’une connexion à internet pour avoir accès au site. Il n’en demeure pas moins que profiter de cette fuite était facile pour beaucoup (notamment les enseignants ou les parents avertis, pour préparer leurs élèves ou leurs enfants).
      Dans un contexte de querelle scolaire, entre prétendument " modernes innovants " et prétendument " archaïques fossilisés ", maintenir coûte que coûte la fiction du " niveau qui monte " devient vital. Pour se défausser de leur responsabilité accablante dans le naufrage de l’école française, les réformateurs n’en sont plus à une manipulation près du thermomètre :
rôle, précisément, de ces évaluations. Dissimuler l’ampleur de la catastrophe leur permet encore d’éviter la mise en cause de leurs délirantes prescriptions et retarde d’autant les remèdes.
      Comment se fait-il que cette fuite soit restée dans l’ombre ? Imagine-t-on seulement à quel tollé nous aurions eu droit si des sujets de brevet ou de bac avaient été éventés ? C’eût été un immense et juste scandale.

      Pourquoi donc le ministère s’est-il permis cette licence ? Pourquoi nos évaluateurs n’ont-ils pas même craint de risquer une levée de boucliers ?

      Que cette énormité ait été passée sous silence laisse perplexe. Au moins peut-on mesurer la crédulité démissionnaire, voire la complicité de nos médias (hormis Natacha Polony, Marianne n°438 page 69). L’école ? Un sujet parmi d’autres. Un " débat ". Il faudra bien payer toutes ces lâchetés un jour.

      Mais, au-delà de la tricherie manifeste, on peut se demander si ces évaluations méritent qu’on se scandalise. Dénoncer la gravité de cette fuite revient à leur reconnaître la valeur d’authentiques épreuves. Et si, au contraire, il s’agissait d’un aveu, bien involontaire, de leur caducité ? Et si ces épreuves étaient à ce point factices et truquées que leur diffusion préalable n’importait même plus ?

      Il ne suffit certes pas de l’affirmer, bien que de nombreux instituteurs le pressentent. Encore faut-il le démontrer. C’est bien ce que je me suis proposé de faire, me plongeant dans le marécage des items à la pelle et le dédale infernal des codages de correction.
       " Théorie du complot " ? Au moins mensonge d’État et fuite en avant. Au lecteur d’en juger. On verra que les prétendus modernes y sont en effet très innovants. Gare à la nausée.

 

I. Empêcher les redoublements et provoquer l’hétérogénéité.

      Les évaluations nationales de CE2 et de 6ème doivent obligatoirement être passées par tous les élèves de France en début d'année, à la rentrée.
      Première manipulation, trop peu relevée : arriver après la bataille.
      En effet, ces épreuves évaluent les compétences exigibles à la fin du cycle... précédent (CE1 pour le cycle 2 et CM2 pour le cycle 3) seuls niveaux où, selon les textes, les " maintiens " (nouveau nom des redoublements) sont autorisés. C’est donc après coup, une fois l’élève admis en CE2 que l’on s’enquiert enfin de savoir s’il a acquis les compétences de CE1, ou s'il aurait dû être "maintenu"... De même, c’est à l’entrée en 6ème que l’on s’avise enfin de savoir si les compétences requises pour sortir de CM2 sont vraiment acquises.
      Voilà comment on en arrive à constater que des élèves ne savent pas lire en sixième. Qui leur apprendra à lire au collège ? Et comment ?

      Voilà comment on condamne des élèves à passer dans la classe supérieure sans avoir les moyens de la suivre, comment on les enferme dans une insupportable spirale de l’échec programmé.
      Voilà enfin comment on rend impossible le travail des maîtres et des professeurs, puisque la classe perd son unité, en l’absence de
toute référence à un niveau commun et requis. Voilà comment on culpabilise ensuite les enseignants, accusés de ne pas tenir compte de l’hétérogénéité.

II. Truquer les résultats.

      Mais cette malhonnêteté inaugurale est loin d’épuiser l’imposture.
      Je suis apparemment le premier à avoir été assez soupçonneux (ou vicieux) pour me pencher sur le fatras des codes de correction.
      De façon générale, les correcteurs disposent de trois codages. Code " 1 " = réponse correcte. Code " 9 " = réponse erronée. Code " 0 " = pas de réponse.
      Chacun des travaux correspond à un " item " numéroté, lequel correspond à une compétence.
      Les scores globaux (pourcentages de réussite) correspondent exactement au nombre d’items évalués. Par exemple, pour les évaluations CE2 de 2005 en français, 50 codes " 1 " et 43 codes " 9 " sur un total de 93 items donnent (50 x 100) : 93 = 53,8 % de réussite en français.

      Mais les concepteurs des évaluations, qui veulent persuader qu’ils sont des pilotes aussi scrupuleux que scientifiques de l’éducation, ont prétendu à une précision chirurgicale pour ces résultats.
      Aussi, pour de nombreux items, d’autres codages de correction sont proposés, selon le degré d’exactitude ou les types de réponses : codes " 2 ", " 3 ", " 4 ", " 5 ", " 6 ", " 7 ", " 8 ".
      Certes, un peu perdus par ce foisonnement, les correcteurs ne peuvent qu’être impressionnés et convaincus par tant de finesse ! Au moins vient-elle récompenser, après deux semaines assommantes de passation (et de leçons sacrifiées), les puissantes migraines que la lecture des consignes de correction ne manque pas d’occasionner.
      Ah, le bien des élèves n’est pas un vain mot !

      On pourrait légitimement s’attendre à ce que de tels efforts, une telle précision, aboutissent à des scores extrêmement nuancés. Le correcteur qui s’astreint à coder " 2 " au lieu de " 1 ", " 6 " au lieu de " 3 ", après examen détaillé de l’erreur, devrait pouvoir espérer une traduction de cette minutie dans les scores globaux.
      Il n’en est rien. Le logiciel de traitement des évaluations (" J’ADE ", qui a remplacé le plaisant " casimir ") ne reconnaît que deux codes : la réussite ou l’erreur.
      Comment ? Ces heures de peine, généralement partagées par les autres instituteurs de l’école (solidaires des souffrances des maîtres de CE2), dépensées pour rien ? Le temps passé
sur chaque livret pour coder " 3 " au lieu de " 4 " ou " 8 " perdu ? Pour rien ? Tous les codes (3, 4, 5, 6, 7, 8) équivalent à un code " 9 " : réponse erronée.

      Tous les codes ? Non. Il y a mieux. Il y a les codes " 2 ".
      Les codes " 2 " correspondent à une réussite partielle, à une réponse (quantitativement ou qualitativement) moins bonne que le code " 1 ".
      Le cahier de passation annonce d’ailleurs tranquillement la couleur :
" Seuls les codes 1 et 2 sont des codes de réussite
Code 1      Réponse exacte attendue, réponse exhaustive, procédure induite par l’énoncé : l’objectif est atteint
Code 2      Réponse exacte : formulation moins attendue, réponse non exhaustive, mais on considère que l’objectif est atteint "

      La formulation est la même dans le cahier de passation de 6ème 2004.

      Mais que fait " J’ADE " des codes " 2 " ?
      Les codes " 2 ", qui sont des réussites moindres, voire des réponses erronées, sont comptés comme des codes " 1 ", des réussites à part entière.

 

Quelques exemples de codes " 2 " :

* L’épreuve de copie (2004) : le texte à copier n’est pas sur la page où il sera copié ; 5 phrases ; 85 mots ; 10 mn.
Item 50 :
code " 1 " : copie de trois phrases ou plus.
code " 2 " : copie de deux phrases.
Item 51 :
code " 1 " : aucune erreur
code " 2 " : aucune erreur sur les deux premières
phrases [pourquoi pas sur le premier mot ?]
Item 53 : pour le passage : " l'Europe. Le tronc, dépouillé de toutes ses branches, "
code " 1 " : deux majuscules, le point, deux virgules.
code " 2 " : il manque un signe.
En début de CE2, ces différences qualitatives sont énormes.

 

* L’épreuve de géométrie (2005) : complète [sur un quadrillage] pour obtenir un rectangle à partir du côté déjà dessiné.
Item 33 :
code " 1 " : tracé exact du rectangle à partir du côté existant.
code " 2 " : le rectangle est transformé en carré.

* L’épreuve de la dictée (2004), écrite et montrée au tableau préalablement :
" Des roses jaunes parfument le salon. "
Items 63, 64 et 65 :
les codes " 1 " correspondent aux mots "roses", "jaunes" et "parfument".
les codes " 2 " : il y a la marque du pluriel (-s ou -nt) mais il y a une faute d'usage.
Pour l'évaluation de la dictée, l'orthographe d'usage de ces mots n'est donc pas prise en compte (rozes, roseux, rauzes, jones, parefument).

* L’épreuve de dictée (2005), items 25 à 27 (graphie / phonie) :
" Les champignons poussent sous les grands arbres. "
Item 25 :
code " 1 " : " champignons ".
code " 2 " : erreur ne changeant pas la prononciation du mot (an, en, em, nion)
Item 26 :
code " 1 " : " poussent "
code " 2 " : erreur ne changeant pas la prononciation du mot (ç, c) [pouçent ?!]

Item 27 :
code " 1 " : " arbres "
code " 2 " : erreur ne changeant pas la prononciation du mot [mais laquelle ? arrreubreu ? harbre ?]

 

      Les résultats des évaluations sont donc clairement et sciemment truqués.

 

      En 2004 :
Français : 21 codes " 2 " possibles sur 87 items (soit 24,1 % des items !)
Mathématiques : 4 codes " 2 " possibles / 86 items (4,7 % des items).

      En 2005 (de façon beaucoup moins spectaculaire) :
Français : 3 codes " 2 " possibles / 93 items (soit 3,2 % des items)
Mathématiques : 6 codes " 2 " possibles / 88 items (soit 6,8 % des items)
[par coquetterie sans doute, seuls deux des six codes " 2 " semblent comptés comme " 1 " quand tous les autres items sont à 0].

 

      On frémit en considérant l’exercice 23 des évaluations de 6ème, puisque la signification des codes " 2 " y est la même.

      C'est un scandale.

En résumé :
      Question faussement naïve : ce poisson d'avril de septembre amuse-t-il autant les experts en ingénierie pédagogique ? Est-il bien raisonnable d'exiger deux codages différents pour un même résultat ? Ils doivent sans doute bien rire en pensant à ces pauvres instituteurs besogneux et dociles. Ils doivent même s'étonner que nul n'ait découvert le pot aux roses... Quelle rigolade !

      Obscurcir le travail des instituteurs n'est certainement pas leur motivation principale, mais celle-ci est tout de même forte puisqu’il n’y a, en fin de compte, que deux codages : " 1 " ou " 2 " = réponse juste ; le reste = réponse fausse. Autant de temps et d’efforts perdus pour rien, absolument rien !
      Si, pour quelque chose. Cette fausse complexité a en fait pour fonction : 1) de tromper le correcteur en le persuadant de la finesse de l’évaluation, 2) de brouiller les pistes, d’étourdir un peu plus les plus critiques.
      Et puis, c'est qu'il faut que ces petits praticiens, dont certains nourrissent encore quelques espoirs d'efficacité et d'instruction vraie, sentent bien leur infériorité par rapport aux chercheurs.

      Reste enfin la motivation principale, qui mérite un gros titre en première page : truquer les résultats de façon éhontée, non sans faire avaler aux crédules que nous touchons là une précision chirurgicale, hors de portée du vulgaire instituteur, et non sans décourager, grâce à une complexité factice et purement tactique, les sceptiques.

      Voilà donc la raison d'être de ces cauchemars que sont les évaluations, de ces labyrinthes devrait-on dire : doper les scores, en persuadant du sérieux scientifique de haute volée de l'entreprise, tout en dissuadant d'y regarder de plus près.

 

III. Tous les items sont gris.

      Même si, sur le principe, le scandale est entier (et dans des proportions hallucinantes en français pour 2004), la fraude est réelle mais relativement marginale en 2005.

      Mais ce n’est pas tout.
      Il y a d'autres façons de tromper son monde. Rappelons que les pourcentages de réussite globaux correspondent exactement au nombre d'items. Par exemple, 45 codes 1 (ou 2 !) / 93 items en français donnent donc 48,4% de réussite globale en français.

      Cette absence de hiérarchie entre les différents items est déjà stupéfiante. Les exercices suivants méritent-ils d’être mis sur un même plan et d’avoir rigoureusement le même impact sur les résultats globaux ?

Exemple 1 :
- Souligne les mots qui commencent par la lettre " b " et se terminent par la lettre " a " [en CE2 !] : baba – charbon – boa – balle – diable, etc.
- Exercice 10 : le verbe " poussent " (quelle que soit son orthographe) se termine par " -nt ".

 

Exemple 2 (expression écrite) :
- L’élève a produit une histoire d’au moins 5 lignes. [quelle qu’en soit la qualité, quelle que soit la taille de l’écriture ?]
- L’élève a utilisé les quatre mots imposés : récréation – gentil – se disputer – souvent.
- L’élève a produit au moins deux phrases sémantiquement correctes.

 

      Cette indifférenciation des épreuves permet ainsi de noyer les difficultés. Dix lignes incohérentes ont la même valeur que deux phrases impeccables ou simplement sensées.

      L’absurde morcellement des compétences (dont certaines n’ont aucun sens) permet de masquer le niveau réel et de valoriser à outrance les tâches les plus dérisoires.
      Les thuriféraires auto-proclamés du sens sont aussi les spécialistes de l’atomisation extrême en objectifs et compétences, inconscients du fait que leur taylorisme obsessionnel est responsable de cette perte de sens [par exemple : la reconnaissance d’un type d’écrit par ses signes extérieurs, indépendamment de la lecture de son contenu].

 

 

IV. Mat. Sup. ou niveau grande section de maternelle.

      Mais il y a encore mieux.
      Les évaluations de CE2 sont l’occasion d’un bilan capital (et ô combien redouté par les instances officielles) : celui de la lecture et des calamités dues aux méthodes semi-globales.
      Là encore, la stratégie d’évitement est reine.
      D'après le cahier de passation de consignes, le maître doit lire les textes, les consignes, les questions et les différentes réponses proposées.
      Nos ingénieurs en évaluation sont tellement épris de sens qu'ils en ont oublié que comprendre un texte était le comprendre en l'ayant lu soi-même.
      Ces épreuves permettent donc, non de distinguer les bons lecteurs (qui ont une lecture autonome fiable leur permettant de répondre correctement à des questions, d'ailleurs souvent excessivement littérales), mais de savoir à combien s'élève le nombre d’élèves qui, en CE2, ne comprennent pas ce qu'on leur "raconte".
      Afin de prouver nos dires, nous ferons donc l’autopsie détaillée (et fastidieuse) des 93 items de français pour les évaluations 2005.

 

1) La lecture du maître.

Après immersion (nauséeuse) dans ce dédale, pour la compréhension de texte :

- Lecture intégrale du maître (texte, consignes, questions ou réponses possibles : items 1 à 5, 10, 38 à 41, 63 à 68 et 70), total : 17 items / 93, soit 18,3 % en cadeau.

- Lecture du texte par le maître, lecture des consignes ou des questions par l’élève (items 42 à 50), total : 9 items / 93, soit 9,7 % de prémâché.

- Lecture du texte par l’élève, lecture des questions (auxquelles on peut parfois répondre sans référence au texte) par le maître (items 6 à 9 et 69) : 5 items / 93, soit 5,4 % de béquille.

- Lecture intégrale de l'élève : 0.

Soit au total 31 items / 93 (la totalité de la compréhension en lecture), ou encore 33,3 % de complaisance.

 

2) Les décorations.

A cela viennent s'ajouter des items "décoratifs", destinés à mettre les élèves en confiance et à leurrer les parents, soit quand même 19 items / 93 : soit 20,4 %). Items : 25 à 28, 51 à 53, 57, 59, 78 à 80 à 87. Le détail de cette extrême mansuétude :

- items 25 à 27 : " chenpinion ", " pouçe " et " harbreu " (codes 2)

- item 28 (la dictée de phrases) : l'élève a correctement écrit " les " deux fois dans la phrase.

- item 51 : copie intégrale des deux phrases (avec ou sans fautes d’orthographe).

- item 52 : l’élève a employé une écriture lisible.

- item 53 : l’élève a employé une écriture cursive.

- item 57 : écris une histoire de cinq ou six lignes au moins [évidemment : 5 "lignes" - quelle que soit la taille de l'écriture = code 1].

- item 59 : l'élève a utilisé les quatre mots imposés (c'est-à-dire : " Tu dois utiliser dans ton texte tous les mots suivants: récréation – gentil – se disputer – souvent. ").

- items 78 et 79 : reconstitution de phrase (" un " – " demain " – " Giganton " – " spectacle " – " . " – " donnera ") avec majuscule et point.

- item 80 : souligne les mots qui commencent par la lettre "b" et se terminent par la lettre "a".

- item 81 : entoure la consigne qui a permis de faire cet exercice.

[Il y a trois tableaux contenant chacun quatre mots dont un est barré. Parmi les quatre consignes proposées, une seule commence par " Barre… ". Les autres commencent par : " Souligne… ", " Mets une croix… " et " Entoure…]

- items 82 à 87 : écriture phonétiquement correcte des mots : " farfelu, tourbillon [tourbion est faux mais probablement systématiquement admis], gratin, manipulé, clochette, digne ".
[J’estime que le respect de l’écriture phonétique est du niveau de fin de CP. On remarquera en outre l’évitement soigneux des graphies complexes : que, qui, -gue, gui-, -ain, -oi, -ein, -oin, -ien, -tion, e = è (veste), -oy-, -ay-, -ail, -eil, -euil, -eur, m / p et b : graphies qui relèvent déjà du CP mais sont absolument requises en fin de CE1].

 

Liste à laquelle on peut ajouter les sept items :

- item 15 (réponse fournie par le modèle deux lignes au-dessus : " hérissons "),

- items 71 à 73 (ajouter le préfixe " mal- " à " chanceux ", " habile ", " honnête " après deux exemples : " adroit " → " maladroit ", ; " heureux "→ " malheureux "),

- items 74, 76 et 77 (quatre mots à mettre au féminin, dont deux fois " le " → " la " et " fils " → " fille ").

Si on inclut ces sept items litigieux, on obtient au total : 19 + 7 = 26 items pratiquement offerts : soit 28 %.

 

3) Soyons un instant sérieux.

      Précisons tout de même que certaines épreuves peuvent être dites sérieuses, sans non plus rechercher de grosses difficultés :

- Accord du verbe avec le sujet, soit les 4 items : 11 (entrent), 13 (mangent), 16 (sont) et 21 (poussent [ou " pouçent " !]).

- Accord au pluriel (nom, pronom, adjectif qualificatif), soit les 6 items : 12 (ils), 14 (jeunes), 15 (hérissons [mais il figure dans les cadeaux]), 22 (chenpinions), 23 (grans) et 24 (harbres).

- Accord au féminin (nom, adjectif qualificatif, article, pronom complément, lettre finale), soit les 5 items : 30 (grand(s)), 74 et 76 (" le " → " la " [comptés comme cadeaux]), 75 (malheureuse) et 77 (" fils " → " fille " [cadeau aussi]).

- Déchiffrage de 4 mots inconnus, 4 items : 17 à 20.

- Ecriture (sans tolérance de fautes d’orthographe), 8 items : 29 (" sous ") 88 à 93 (" avec, comme, plus, alors, toujours, aussi ") et 54 (copie sans faute).

- La ponctuation, 6 items : 31 et 32 (dictée), 55 et 56 (copie), 61 (expression écrite) et 79 (reconstitution de phrase [cadeau]).

- Repérage du son intrus par rapport aux autres mots d’une liste, 5 items : 33 à 37.

- Expression écrite, 3 items : 58 (deux phrases sémantiquement correctes), 60 (tenir compte du fait, dans l’invention de la suite, que les trois enfants sont amis) et 62 (bonne cohérence temporelle interne).

      Autrement dit, 41 items dont 5 cadeaux = 36 items valables : soit 38,7 %.

 

4) Résumons-nous.

      La compréhension autonome en lecture n'est pas évaluée. Quand on fait mine de faire lire le texte par les élèves, le maître doit aussitôt lire les questions, tellement évidentes qu'il est possible de répondre correctement sans avoir lu (j'ai eu des élèves qui ont pu s'en sortir sans lire).
      33,3 % de cadeau-prémâché-béquille + 20,4 % pour la confiance voire 28 % = 53,7 % (dans le meilleur des cas) à 61,3 % (au pire) de quasiment acquis.

      Les épreuves sérieuses ne représentent donc que 46,3 % (au mieux) à 38,7 % (au pire)

      Outre l’impudente manipulation des scores et la tricherie caractérisée, la fraude invisible et permanente, elle est là.

 

V. Conclusion

      On peut donc conclure que les évaluations nationales de CE2 représentent une mascarade, un mensonge et donc un leurre. Une franche imposture.

      1) Elles sont un instrument pour empêcher les redoublements, provoquer l’impraticable hétérogénéité en effaçant toute notion de niveau dans les classes.

      2) Elles n’hésitent pas à truquer sans vergogne les résultats, dans l’indifférence générale.

      3) Elles éclatent volontairement les savoirs en compétences isolées et non hiérarchisées, interdisant toute vision d’ensemble sur les capacités des élèves, à la différence des exercices classiques de dictée, rédaction, questions de grammaire dont on notera l’absence (identification du verbe, du sujet, des noms, des adjectifs).
      C’est pourquoi ils ont été éradiqués au profit de la " moderne " évaluation truqueuse au service exclusif de la réussite obligatoire décrétée, dont l’élève n’est plus que la victime expiatoire.
      Ce faisant, elles valorisent des pseudo-compétences qui ont le mérite statistique et démagogique de relever le score global.

      4) Elles esquivent enfin soigneusement la question des performances en lecture. Dans pratiquement tous les cas, c’est le maître qui lit. Jamais l’élève n’est appelé à lire seul le texte et les consignes.
      Au mieux, la moitié (un peu moins) des épreuves échappe à la complaisance.

 

Le niveau monte, dit-on.
La coupe est désormais pleine.
Nos élèves ont déjà assez bu la tasse.

Ces surévaluations nationales ne méritent donc pas mieux que le pilon et le boycott.

Larvatus prodeo

Lire sur le même sujet :
- Les petits secrets de Jade.
- Quelques rédactions de l'évaluation 2005 en 6e.

10/2005