Au-delà des points : 5 vérités surprenantes pour évaluer autrement

L’évaluation des apprentissages vise deux finalités essentielles : soutenir les apprentissages et témoigner fidèlement des acquis (Conseil supérieur de l’éducation, 2018; Girouard-Gagné et al., 2024; Voisard, Cormier, & Arseneault-Hubert, 2024).

Pourtant, la pratique habituelle de notation, qui consiste à donner des points pendant la session et à les additionner pour composer la note finale (Voisard, 2025), introduit des problèmes qui empêchent souvent ces finalités d’être atteintes (Voisard, Cormier, & Arseneault-Hubert, 2024).

En effet, le calcul habituel de la note finale ne reflète pas toujours le degré d’atteinte final des objectifs, car il pénalise les erreurs commises lorsque l’apprenant est en cours de développement.

Les pratiques alternatives de notation (PAN), que les écrits désignent également par le terme plus large de Pratiques Évaluatives Réduisant ou Éliminant la Notation (PRÉN), proposent de revoir cette approche pour soutenir une évaluation plus équitable et plus efficace (Cormier et al., 2024).

Voici cinq vérités révélées par la recherche qui justifient l’adoption des PAN.

Vérité 1 : La notation traditionnelle nuit à la motivation intrinsèque et à l’efficacité de la rétroaction

La note en pourcentage semble offrir une grande précision, mais c’est une illusion (Guskey & Brookhart, 2019; Voisard, 2025).

Déjà au début du XXe siècle, les travaux de Starch et Elliott (1912, 1913a, 1913b) ont montré que différents enseignants évaluant le même travail pouvaient attribuer des notes variant de plusieurs dizaines de points. Ces conclusions ont été confirmées plus récemment, avec des écarts allant jusqu’à 46 % pour un même travail, même après que les enseignants aient reçu une formation sur la correction (Brimi, 2011).

L’utilisation d’une échelle de 0 à 100 points introduit inévitablement une part d’arbitraire dans l’évaluation, une partie de la note reflétant le hasard ou des facteurs externes plutôt que le véritable degré d’atteinte des cibles d’apprentissage (Voisard, 2025).

La recherche recommande de limiter le nombre de niveaux possibles pour l’évaluation, par exemple 2 à 5 niveaux au lieu de 100, afin d’atteindre un degré d’accord beaucoup plus fiable et de réduire les biais.

Vérité 2 : La note sur 100 points procure une illusion de précision

La note en pourcentage semble offrir une grande précision, mais c’est une illusion (Guskey & Brookhart, 2019; Voisard, 2025).

Déjà au début du XXe siècle, les travaux de Starch et Elliott (1912, 1913a, 1913b) ont montré que différents enseignants évaluant le même travail pouvaient attribuer des notes variant de plusieurs dizaines de points. Ces conclusions ont été confirmées plus récemment, avec des écarts allant jusqu’à 46 % pour un même travail, même après que les enseignants aient reçu une formation sur la correction (Brimi, 2011).

L’utilisation d’une échelle de 0 à 100 points introduit inévitablement une part d’arbitraire dans l’évaluation, une partie de la note reflétant le hasard ou des facteurs externes plutôt que le véritable degré d’atteinte des cibles d’apprentissage (Voisard, 2025).

La recherche recommande de limiter le nombre de niveaux possibles pour l’évaluation, par exemple 2 à 5 niveaux au lieu de 100, afin d’atteindre un degré d’accord beaucoup plus fiable et de réduire les biais (Guskey & Brookhart, 2019; Voisard, 2025; Voisard, Cormier, & Arseneault-Hubert, 2024).

Vérité 3 : La notation finale sanctionne l’erreur commise en cours de parcours, pénalisant l’apprentissage

La pratique traditionnelle, en utilisant la moyenne pour calculer la note finale, pénalise systématiquement les erreurs commises par les étudiants en cours d’apprentissage (Voisard, 2025; Cormier et al., 2024).

Une personne qui a mal performé au début de la session, mais qui atteint les objectifs d’apprentissage terminaux à la fin, sera pénalisée par les pratiques de notation qui sanctionnent les erreurs en cours de formation (Cormier et al., 2024). Ce phénomène est problématique puisque l’erreur est une partie intégrante du processus d’apprentissage (Astolfi, 2015).

Les PAN visent à laisser place à l’erreur sans pénalité. Elles prévoient :

  • Des occasions multiples de reprise ou de révision des évaluations (Clark & Talbert, 2023; O’Connor, 2022; Townsley & Schmid, 2020).
  • D’utiliser notre jugement professionnel pour composer la note finale en s’appuyant sur les traces les plus représentatives des apprentissages (Cormier & Arseneault-Hubert, 2025; Voisard, Cormier, & Arseneault-Hubert, 2024). Cela signifie de ne pas tenir compte des erreurs initiales dans la note finale, mais de valoriser la maîtrise atteinte à la fin de la session (Mercier, s.d.).

Vérité 4 : L’évaluation qui tient compte des comportements diminue la fidélité de la note et introduit des biais d’iniquité

La note a pour rôle de symboliser le degré d’atteinte individuel des cibles d’apprentissage, et non de contrôler le comportement (Voisard, 2025).

Toutefois, les pratiques habituelles intègrent souvent dans la composition de la note finale des facteurs extérieurs aux objectifs d’apprentissage, tels que les points de participation, les pénalités pour les retards, les absences, le plagiat, ou l’utilisation de notes d’équipe. Ces pratiques n’informent pas avec justesse sur le degré d’atteinte des cibles et introduisent des biais de notation, ce qui est une question de fidélité de l’évaluation (O’Connor, 2022; Feldman, 2024; Cormier et al., 2024).

Ces biais ne sont pas neutres : certaines pratiques de notation désavantagent certains groupes plus que d’autres (Farkas et al., 1990; Duckworth & Seligman, 2006). De plus, l’utilisation de la note comme outil de contrôle pénalise d’abord les étudiants vulnérables (Feldman, 2024).

Les PAN, notamment la notation basée sur la maîtrise ou les standards (Bloom, 1968), exigent que la note finale témoigne uniquement de l’atteinte des objectifs (Feldman, 2024; Voisard, 2025). En s’assurant que la note n’est pas contaminée par ces facteurs comportementaux, les PAN deviennent un levier vers une évaluation plus équitable (Cormier et al., 2024; Feldman, 2024).

Vérité 5 : La définition claire des attentes est le point de départ de toute évaluation de qualité

Même si la flexibilité et la possibilité de reprise sont des caractéristiques phares des PAN, l’étape fondamentale est de définir ses attentes clairement (Voisard & Arseneault-Hubert, 2025).

« Un élève peut atteindre n’importe quelle cible qu’il peut clairement voir et qui ne bouge pas » (Chappuis et al., 2012, cité dans Voisard & Arseneault-Hubert, 2025). Sans cette condition, il est impossible de soutenir efficacement les apprentissages ou d’en témoigner avec justesse.

Cela implique :

  1. Des cibles d’apprentissage claires et compréhensibles pour les étudiants et les étudiantes (Cormier, 2025). La cible doit être émancipée de son dispositif d’évaluation (Voisard & Arseneault-Hubert, 2025).
  2. Des critères d’évaluation explicites qui décrivent un comportement observable. Des critères trop vagues, comme « rigueur méthodologique, » ne sont pas assez détaillés pour guider l’effort (Voisard & Arseneault-Hubert, 2025).

L’amélioration de l’évaluation peut passer par de petits changements progressifs. Que ce soit en s’entendant en équipe-cours sur les objectifs terminaux et les critères (Cormier & Arseneault-Hubert, 2025) ou en offrant une seule opportunité de reprise, commencer petit est une stratégie recommandée (Mercier, s.d.).

Sources

AQPC Association québécoise de pédagogie collégiale. (2023). Stratégies d’incorporation des PAN dans ses enseignements [Vidéo]. YouTube.

Astolfi, J.-P. (2015). L’erreur, un outil pour enseigner (12e édition). ESF éditeur.

Brimi, H. M. (2011). Reliability of Grading High School Work in English. Practical Assessment, Research & Evaluation, 16(17).

Chamberlin, K., Yasué, M. et Chiang, I.-C. A. (2023). The impact of grades on student motivation. Active Learning in Higher Education, 24(2), 109‑124. https://doi.org/10.1177/1469787418819728

Chappuis, J., Stiggins, R. J., Chappuis, S., & Arter, J. A. (2012). Classroom assessment for student learning : Doing it right – using it well (Second edition). Pearson.

Clark, D., & Talbert, R. (2023). Grading for growth : A guide to alternative grading practices that promote authentic learning and student engagement in higher education. Routledge.

Conseil supérieur de l’éducation. (2018). Rapport sur l’état et les besoins de l’éducation 2016-2018 – Évaluer pour que ça compte vraiment. Gouvernement du Québec. https://www.cse.gouv.qc.ca/wp-content/uploads/2020/01/50-0508-RF-evaluer-compte-vraiment-REBE-16-18.pdf

Cormier, C. (2025, 27 octobre). Développer son système de notation. Pratiques alternatives de notation.

Cormier, C., & Arseneault-Hubert, F. (2025, 3 novembre). Foire aux questions. Pratiques alternatives de notation.

Cormier, C., Voisard, B., Arseneault-Hubert, F., & Turcotte, V. (2024, avril). Les pratiques alternatives de notation comme levier vers une évaluation plus équitable et qui accompagne mieux l’apprentissage [Communication présentée au colloque Diversité, Réussite[s] dans l’Enseignement Supérieur (2024)]. Nantes Université, Nantes, France.

Duckworth, A. L., & Seligman, M. E. P. (2006). Self-discipline gives girls the edge: Gender in self-discipline, grades, and achievement test scores. Journal of Educational Psychology, 98(1), 198–208. https://doi.org/10.1037/0022-0663.98.1.198

Farkas, G., Grobe, R. P., Sheehan, D., & Shuan, Y. (1990). Cultural Resources and School Success: Gender, Ethnicity, and Poverty Groups within an Urban School District. American Sociological Review, 55(1), 127–142. https://doi.org/10.2307/2095708

Feldman, J. (2024). Grading for equity : What it is, why it matters, and how it can transform schools and classrooms (Second edition). Corwin Press, Inc.

Girouard-Gagné, M., Langlois, P., Poulin-Lamarre, M., Goulet, M., & Tardif, C. (2024). Évaluer sans noter, une inspiration pour les cégeps? Revue systématique des écrits sur les pratiques évaluatives qui réduisent ou éliminent la notation. Revue internationale du CRIRES: innover dans la tradition de Vygotsky, 8(1), 1–25. https://doi.org/10.51657/9db17q94

Guberman, D. (2021). Student Perceptions of an Online Ungraded Course. Teaching & Learning Inquiry, 9(1), 86‑98.

Guskey, T. R., & Brookhart, S. M. (Éds.). (2019). What we know about grading : What works, what doesn’t, and what’s next. ASCD.

Hattie, J., & Timperley, H. (2007). The power of feedback. Review of Educational Research, 77(1), 81-112. https://doi.org/10.3102/003465430298487

Koenka, A. C., Linnenbrink-Garcia, L., Moshontz, H., Atkinson, K. M., Sanchez, C. E., & Cooper, H. (2021). A meta-analysis on the impact of grades and comments on academic motivation and achievement: a case for written feedback. Educational Psychology, 41(7), 922‑947. https://doi.org/10.1080/01443410.2019.1659939

Meinking, K. et Hall, E. E. (2022). Letting Go of Grades: Creating an Environment of Autonomy and a Focus on Learning for High Achieving Students. Teaching & Learning Inquiry, 10.

O’Connor, K. (avec Wormeli, R.). (2022). A repair kit for grading : 15 fixes for broken grades (Revised third edition). First Educational Resources.

Pulfrey, C., Darnon, C. et Butera, F. (2013). Autonomy and Task Performance: Explaining the Impact of Grades on Intrinsic Motivation. Journal of Educational Psychology, 105(1), 39‑57. https://doi.org/10.1037/a0029376

Ryan, R. M. et Deci, E. L. (1989). Bridging the research traditions of task/ego involvement and intrinsic/extrinsic motivation: Comment on Butler (1987). Journal of Educational Psychology, 81(2), 265‑268. https://doi.org/10.1037/0022-0663.81.2.265

Starch, D., & Elliott, E. C. (1912). Reliability of the Grading of High-School Work in English. The School Review, 20(7), 442‑457.

Starch, D., & Elliott, E. C. (1913a). Reliability of Grading Work in History. The School Review, 21(10), 676‑681.

Starch, D., & Elliott, E. C. (1913b). Reliability of Grading Work in Mathematics. The School Review, 21(4), 254‑259.

Townsley, M., & Schmid, D. (2020). Alternative Grading Practices: An Entry Point for Faculty in Competency-Based Education. The Journal of Competency-Based Education, 5(3), e01219. https://doi.org/10.1002/cbe2.1219

Voisard, B. (2025, 8 septembre). La précision illusoire de la note sur 100 points. Pratiques alternatives de notation.

Voisard, B., & Arseneault-Hubert, F. (2025, 20 octobre). Des attentes claires, le point de départ pour une évaluation de qualité. Pratiques alternatives de notation.

Voisard, B., Cormier, C., & Arseneault-Hubert, F. (2024). Les pratiques alternatives de notation : pour mieux soutenir les apprentissages et en témoigner. Pédagogie collégiale, 37(2), 26‑35. https://eduq.info/xmlui/handle/11515/39399

Winstone, N., Bourne, J., Medland, E., Niculescu, I. et Rees, R. (2020). “Check the grade, log out”: students’ engagement with feedback in learning management systems. Assessment & Evaluation in Higher Education, 46(4), 631‑643. https://doi.org/10.1080/02602938.2020.1787331

Contactez-nous!

Contactez-nous!

Contactez-nous!

Contactez-nous!

Contactez-nous!

Résumé de la politique de confidentialité

Ce site utilise des cookies afin que nous puissions vous fournir la meilleure expérience utilisateur possible. Les informations sur les cookies sont stockées dans votre navigateur et remplissent des fonctions telles que vous reconnaître lorsque vous revenez sur notre site Web et aider notre équipe à comprendre les sections du site que vous trouvez les plus intéressantes et utiles.