Pour la Société Française de Psychologie
et l’Association de Psychologues de l’Education Nationale, 2nd degré et supérieur

Document réalisé par
Virginie LECLERCQ, PhD, Maître de Conférences en Psychologie cognitive, Université Paul-Valéry Montpellier 3
Stéphanie BELLOCCHI, PhD, Maître de Conférences en Psychologie du développement, Université Paul-Valéry Montpellier 3

1. Présentation et objectifs généraux de ce travail

Le ministère de l’Education Nationale a engagé une procédure d’évaluation portant sur les niveaux en français et mathématiques des élèves entrant en classe de CP.
La mise en œuvre de ce dispositif a généré de nombreuses réactions de la part des enseignants et des organisations syndicales. Cette évaluation a fait l’objet de nombreux articles dans les médias et il a été finalement décidé d’assouplir les consignes du dispositif et d’envisager un nouveau dispositif dans un délai d’un an.
Si les épreuves incluses dans le dispositif portent sur des acquis en français et mathématiques, de nombreuses critiques ont porté sur la cohérence des contenus de l’évaluation avec les programmes de maternelle et sur l’utilité des résultats obtenus, autrement dit, sur la validité des mesures fournies par les tests soumis aux enfants. Dans une perspective d’évolution du dispositif existant, l’identification des facteurs pouvant affecter la validité des résultats aux tests, ainsi que des solutions possibles pour y remédier, constituent un enjeu important. La psychologie, en tant que discipline scientifique, a travaillé de longue date sur cette problématique de la qualité des mesures fournies par des tests dans différents domaines d’application, dont le développement de l’enfant et les apprentissages.
En tant que société savante de psychologie, la Société Française de Psychologie a souhaité réaliser une analyse du dispositif existant au regard des connaissances scientifiques actuelles concernant le développement de l’enfant et les critères à prendre en compte afin de développer des tests fournissant des mesures cognitives valides.
Dans cet objectif, nous avons sollicité deux expertes dans le champ du développement de l’enfant et des apprentissages. Le travail réalisé a porté sur l’ensemble des tests inclus dans le dispositif ainsi que le livret donné aux enseignants.

Nous avons poursuivi deux objectifs principaux :

1) Identifier des points d’amélioration possibles du dispositif d’évaluation au regard des connaissances scientifiques actuelles en psychologie
2) Proposer des pistes d’évolution du dispositif.
2. Evaluation du dispositif et recommandations

Tout d’abord nous tenons à souligner que les compétences évaluées correspondent aux compétences qui sont mises en avant dans les modèles théoriques récents sur l’apprentissage de la lecture (Cohen et Dehaene, 2004 ; Frith, 1985 ; Snowling, 2006) et les premiers apprentissages numériques (Butterworth et Walsh, 2011 ; Dehaene, 2010). Toutefois, il nous semble important de souligner des points qui pourraient être améliorés.

2.1 Informations données aux enseignants

Une formation et un livret d’accompagnement.

Le livret actuellement donné aux enseignants a l’avantage de permettre une mise en œuvre de l’évaluation et l’obtention de mesures en classe. Toutefois, malgré ces informations, ce dispositif reste perçu par certains collègues comme inutiles. Les questions soulevées sont par exemple : à quoi servent in fine ces tests ? Comment pouvons-nous nous assurer que les résultats obtenus pour un enfant sont valides, autrement dit, est-ce qu’un même enfant obtiendrait des résultats similaires quelque soit l’enseignant(e) concerné(e) ?
Ces deux questions soulèvent un problème commun : celui de la formation et de l’accompagnement des enseignants afin d’améliorer leur maîtrise du dispositif et de l’utilisation possible des résultats obtenus.
Ainsi, la mise en place de ce dispositif d’évaluation gagnerait grandement à être accompagnée d’une formation adaptée pour les enseignants. L’objectif de cette formation préalable serait d’accroître leur niveau de maîtrise des tests réalisées et de l’exploitation possible des résultats obtenus. Il serait souhaitable d’envisager une réflexion sur les dispositifs de formation actuelle dispensés aux enseignants afin de les faire évoluer. Un accompagnement nous semble nécessaire pour la passation des épreuves et lecture des résultats de la part de professionnels formés à ces pratiques (ex. psychologues).
De plus, il serait intéressant de proposer un livret destiné aux enseignants afin de les guider dans la passation des exercices et à une correcte analyse et exploitation des résultats. Premièrement, ce livret reprendrait des notions théoriques sur l’acquisition de la lecture, de la construction du nombre, et deuxièmement il comprendrait une analyse complète des capacités sollicitées par chaque exercice1. Comprendre sur quelles bases ont été construites les évaluations proposées et les compétences sollicitées dans chaque exercice permettraient aux enseignants de mieux analyser les résultats de leurs élèves et de mieux adapter leur enseignement.

2.2 Présentation des objectifs du dispositif

Clarté des compétences évaluées

Premièrement, il est fait mention des capacités attentionnelles sur la page Eduscol de l’évaluation. Or, aucun des différents exercices proposés n’est construit de telle manière à évaluer spécifiquement les capacités attentionnelles. Cette évaluation requière l’utilisation d’outils spécifiques nécessitant une formation à la passation des outils et à l’exploitation des résultats obtenus. Selon nous, cet objectif dépasse les missions des enseignants – lesquels peuvent faire appel aux psychologues de l’Education Nationale afin de réaliser ces évaluations complémentaires à celles de l’enseignant.
Deuxièmement, concernant l’évaluation des habiletés mathématiques, il est annoncé que seuls les compétences relatives à la construction du nombre sont testées. Or, des exercices évaluent également des capacités qui vont au-delà de la construction du nombre : capacité de résolution de problème et premiers apprentissages arithmétiques (addition, soustraction).
Le terme « évaluation diagnostique » :

Le terme « diagnostique » est polysémique et peut prendre un sens différent selon les professionnels qui l’emploient. Aussi, la définition du terme « évaluation diagnostique » doit être précisée afin de clarifier sans ambigüité les objectifs du dispositif. En effet, ce terme peut renvoyer au domaine clinique où il correspond au résultat d’un processus d’identification d’un trouble. Il nous semble important de préciser clairement que cet outil d’évaluation n’est pas un outil d’identification de troubles des apprentissages scolaires.
Deuxièmement, l’objectif de cette évaluation est double : réalisée une évaluation formative par les enseignants pour leur « fournir des outils pour adapter leurs pratiques pédagogiques à leurs élèves » et une évaluation formative qui « permettrait aux inspecteurs de mieux appréhender la situation pédagogique des écoles de leur circonscription et ainsi de mieux accompagner leurs enseignants ». La présentation actuelle du dispositif ne permet pas de déterminer laquelle de ces deux acceptions possibles du terme « évaluation » est ici utilisée. Nous postulons qu’en précisant plus clairement ces objectifs, il sera possible de mieux estimer (notamment pour les enseignants) la pertinence du dispositif.

2.3 Remarques sur les tests employés

Elaboration des exercices

L’erreur informative : Nous regrettons que dans certains exercices avec réponse au choix, les réponses ne soient pas construites de façon à ce que les erreurs des élèves puissent constituer des indices pour comprendre son raisonnement (Bastien et Bastien-Toniazzo, 2004). Par exemple, l’exercice 8 du cahier évaluation « mathématiques » implique de réaliser une soustraction (6-2). Les élèves commettent classiquement l’erreur de réaliser une addition. Or, le résultat de cette addition (8) ne figure pas parmi les réponses possibles.
Présentation : La manière dont les différents exercices sont présentés et imprimés augmente la difficulté des exercices en ne les séparant pas suffisamment « spatialement ». Cette situation peut produire des interférences entre exercices qui peuvent majorer la distractibilité de certains enfants. Cette présentation peut donc réduire les performances de certaines enfants alors qu’ils(elles) ont les compétences requises pour effectuer la tâche proprement dite.

En conclusion, ces remarques nous semblent pouvoir permettre l’amélioration du dispositif en donnant accès plus précisément aux enseignants aux processus de raisonnement et aux difficultés rencontrées par leurs élèves. Mais il importe de choisir rigoureusement les exercices proposés afin de relier de manière précise les exercices proposés avec les capacités que l’on entend évaluer.
Ceci pourrait être approfondi dans les actions de formation continue afin que différentes modalités de remédiation puissent être élaborées par les enseignants et mises en commun à partir de ces résultats.

Références :
Bastien, C. & Bastien-Toniazo, M. (2004). Apprendre à l’école. Armand Colin : Paris.
Butterworth, B. & Walsh, V. (2011). Neural basis of mathematical cognition. Current Biology, 21, R618-R621.
Cohen, L. & Dehaene, S. (2004). Specialization within the ventral stream: the case for the visual word form area. Neuroimage, 22 (1), 466-476.
Deahene, S. (2010). La bosse des maths. Odile Jacob : Paris.
Frith, U. (1985). Beneath the surface of developmental dyslexia. In K. E. Patterson, J. C. Marshall & M. Coltheart (Eds.), (pp. 301-330). London: Lawrence Erlbaum
Snowling, M. J. (2006). Language skills and learning to read: The dyslexia spectrum. In M. J. Snowling e & J. Stackhouse (Eds.), Dyslexia—Speech and Language (pp. 1–14). Chichester, West Sussex: Whurr Publishers.