EPP-APS Effets Pédagogiques

Effets Pédagogiques à Court Terme et à Long Terme des Examens Portant sur le Programme Entier, ou Examens Cumulatifs

Maya M. Khanna1[1], Amy S. Badura Brack[1], and Laura L. Finken[1]

Abstract

In two experiments, we examined the benefits of cumulative and noncumulative finals on students’ short- and long-term course material retention. In Experiment 1, we examined results from course content exams administered immediately after course finals. Course sections including cumulative finals had higher content exam scores than sections with noncumulative finals. In Experiment 2, current and former students completed online versions of content exams up to 18 months after course completion. Students completing courses with cumulative finals retained more than students who took noncumulative finals. Introductory psychology students benefited more from cumulative finals than did upper-division course students. Based on our results, we suggest that instructors use cumulative finals to increase short- and long-term retention of course material.

Résumé

Lors de deux expériences, nous nous sommes penchés sur les avantages des examens concernant des programmes entiers (cumulatif) et les examens à programme délimité (non-cumulatif) concernant la rétention à court terme et à long terme du contenu de cours. Dans l’expérience 1, nous avons étudié les résultats aux contrôles de connaissances portant sur des éléments du cours, proposés immédiatement après les examens de fin d’année. Les parties traitées lors des examens cumulatifs étaient mieux retenues que les contenus abordés lors d’examens non cumulatifs. Lors de l’expérience 2, des étudiants anciens et actuels complétaient des examens en ligne jusqu’à 18 mois après l’achèvement du cours. Les étudiants des cours sanctionnés par des examens cumulatifs avaient retenu plus que les autres étudiants. Les étudiants démarrant leur cursus en psychologie bénéficiaient davantage de ces examens cumulatifs que les étudiants plus expérimentés. D’après nos résultats, nous suggérons aux enseignants d’utiliser des examens cumulatifs pour améliorer la rétention à court terme et à long terme des connaissances de cours.

Keywords

final exams, testing effect, student learning

Mots-clés

examens de fin d’année, effet de l’évaluation, apprentissage des étudiants


 

Les étudiants arrivent souvent le premier jour de cours et regardent tout de suite le programme pour savoir si l’examen final sera cumulatif, c’est-à-dire s’il portera ou non sur le programme de l’année entière. Au début de chaque cours, les enseignants doivent décider s’ils exigeront ou non cela de leurs élèves. Malheureusement, il y a peu d’études qui indiquent que, chez les étudiants, le format cumulatif améliore l’apprentissage et la rétention. Au lieu de s’appuyer sur des preuves scientifiques solides, les enseignants décident souvent du format d’examen en se basant sur leurs préférences personnelles ou les opinions de leurs élèves. Bien que la plupart des élèves n’affectionnent pas les examens cumulatifs, Wesp et Miele (2008) ont montré que les activités pédagogiques les plus appréciées par les étudiants étaient celles qui étaient corrélées avec de résultats d’examens mauvais. Les preuves empiriques devraient nous guider dans nos réflexions pédagogiques, et non les avis des élèves.

De nombreux chercheurs ont suggéré que les examens cumulatifs pouvaient potentiellement améliorer l’apprentissage des étudiants. Par exemple, Petrowsky (1999) a enquêté auprès d’élèves et a trouvé que la majorité des étudiants d’un cours proposant un examen cumulatif, comparés à ceux avec un examen non cumulatif, avaient des comportements différents. En effet, ils passaient plus de temps à réviser le contenu des chapitres précédents et trouvaient que les examens cumulatifs les avaient aidés à apprendre le contenu qu’ils avaient raté plus tôt dans le semestre. Ils pensaient également que la révision de contenus plus anciens les aidait à mieux comprendre le cours dans sa globalité. Nevid and Mahon (2009) ont démontré que les contrôles courts au début et à la fin d’un cours magistral aideraient les étudiants à se concentrer sur les données essentielles et permettraient une meilleure mémorisation des informations importantes abordées lors d’une réunion de classe. De la même façon, Szpunar, McDermott, et Roediger (2007) ont étudié le contrôle répété de listes de mots et ont trouvé que le fait de s’attendre à une évaluation mettait en place un traitement continu d’information qui améliorait la performance à l’examen final. Ce phénomène n’existait pas lorsque il n’y a pas la possibilité d’une interrogation future. Bien que Szpunar et al. (2007) n’aient pas utilisé d’épreuves similaires à nos contrôles de connaissances, ils suggèrent que la possibilité d’un contrôle de connaissances dans un futur proche peut influencer la manière dont le contenu est traité.

Être évalué sur le contenu spécifique d’un cours lors d’un examen plus tôt dans le semestre indique aux étudiants que ce contenu est important pour la notation future. De cette façon, les étudiants devraient savoir quels sujets sont susceptibles de faire partie de l’examen cumulatif final. Les étudiants sont alors capables de réviser et de réapprendre tout en sachant ce qui est important selon l’enseignant. En effet, Nevid et Lampman (2003) ont montré que les étudiants retenaient mieux le contenu signalé comme étant important (i.e. souligné dans les marges du texte) comparé à l’information qui n’a pas reçu cette étiquette. De plus, d’autres chercheurs ont montré que le contrôle continu tout au long du semestre entraîne de meilleurs résultats aux examens finaux comparé aux résultats aux examens sans contrôle continu (voir Brosvic & Epstein, 2007; Landrum, 2007; McGuire & MacDonald, 2009).

Ces bénéfices grâce au contrôle continu peuvent être mis en lien avec les travaux récents dans le domaine de la psychologie cognitive concernant l’effet de l’évaluation (voir Karpicke & Roediger, 2008; Roediger & Karpicke, 2006). Les chercheurs qui s’intéressent à l’effet de l’évaluation suggèrent que les participants qui passent un examen évaluant le contenu récemment appris retiendront mieux celui-ci que s’ils révisaient simplement de manière répétée (i.e. relire et reréviser sans avoir de contrôle ou sans autocontrôle, voir Karpicke & Roediger, 2008). Karpicke and Roediger (2008) avancent que le fait de mettre en place des processus de récupération mnésique lors d’un contrôle engendre une meilleure rétention d’un contenu. Nous croyons que l’examen final cumulatif crée une situation de “re-test” similaire aux situations testées lors des recherches sur l’effet de l’évaluation. La récupération nécessaire dans le cadre du contrôle continu et cumulatif créera des souvenirs plus durables. Howard (2011), d’autre part, a démontré que l’exposition à des contenus de type « contrôle » (i.e., être évalué sur une question ou simplement lire la question), bien avant le contrôle lui-même, permettait d’améliorer la performance de l’étudiant. Indépendamment des fondements théoriques de l’évaluation ou de l’exposition répétée, se pencher sur l’utilité pratique potentielle des examens cumulatifs est important, et demeure aujourd’hui une question empirique sans réponse. À notre connaissance, notre étude est la première évaluation directe et empirique des bénéfices à long terme et à court terme des examens cumulatifs concernant la rétention, en comparaison avec les examens finaux non-cumulatifs.

Bien que les chercheurs qui s’intéressent à l’effet de l’évaluation suggèrent que les examens cumulatifs devraient améliorer les apprentissages des étudiants, il est difficile de trouver des preuves claires de ces bénéfices dans la littérature existante (cependant, voir Lawrence, 2013). Dans la plupart des études, les chercheurs utilisent les examens cumulatifs comme critère nécessaire pour apprendre en cours (i.e. comme variable dépendante plutôt que variable indépendante, voir Landrum, 2007). D’autres chercheurs évaluent la rétention de connaissances sur de courtes périodes (i.e. 30 minutes) dans un cadre de laboratoire (voir Szpunar, McDermott, & Roediger, 2007), mais ces conditions expérimentales sont trop éloignées de celles que nous rencontrons lorsqu’il s’agit d’évaluer le contenu d’un semestre entier.

Pour pallier ce déficit dans la littérature pédagogique, nous avons mis en place deux expériences. La première expérience se concentre sur une question basique : est-ce que les étudiants qui passent des examens cumulatifs à la fin du semestre ont de meilleurs résultats lors d’un contrôle de connaissances que ceux qui ont passé un examen non-cumulatif ? Cependant, faire en sorte que les étudiants retiennent davantage de contenu de cours à la fin du semestre n’est que le premier objectif que les enseignants souhaitent atteindre avec des examens cumulatifs. Un objectif plus ambitieux serait de mettre en place des examens cumulatifs de façon que le contenu de cours soit retenu bien après la fin du semestre. Malheureusement, certains chercheurs suggèrent que les étudiants ne retiennent que peu du contenu de leurs cours introductifs (Rickard, Rogers, Ellis, & Beidleman, 1988; Spitzer, 1939; VanderStoep, Fagerlin, & Feenstra, 2000; cependant, voir Scepansky & Carkenord, 2004, pour des conclusions divergentes) et qu’une détérioration de la mémoire s’opère relativement rapidement après la fin du semestre (i.e., en moins de 17 jours; Bunce, VandenPlas, & Soulis, 2011). Cependant, sur le court terme, Bunce, VandenPlas, and Soulis (2011) ont constaté que les examens cumulatifs étaient l’une des techniques pédagogiques qui empêchaient le mieux cette détérioration de la mémoire sur le court terme (i.e. 17 jours). De ce fait, notre deuxième expérience évaluait la rétention du contenu de cours, de zéro à trois semestres (i.e., 0-18 mois) après la fin du cours, comparant des étudiants qui avaient réussi des cours avec des examens cumulatifs et non cumulatifs. Notre hypothèse étant que les étudiants ayant passé des examens cumulatifs retiendraient plus de contenu de cours que les étudiants avec des examens finaux non cumulatifs. Enfin, Landrum (2007) a suggéré que le bénéfice de l’évaluation cumulative pouvait varier en intensité, selon qu’il s’agissait d’un cours introductif ou d’un cours de master. Certains autres chercheurs ont montré que les étudiants jeunes en début de cursus (i.e. étudiants en cours introductifs) et/ou les étudiants avec des résultats plus fragiles bénéficieraient plus d’un contrôle continu que les étudiants ayant déjà un bagage théorique de base, comme les étudiants en master (voir Landrum, 2007; Lawrence, 2013; Swanson, Holtzman, & Butler, 2010). Landrum (2007) a démontré que les étudiants ayant des notes élevées, moyennes et basses amélioraient leurs résultats au fil des contrôles cumulatifs, mais cet effet était le plus notable pour les étudiants se trouvant dans les 30% des plus faibles du cours introductif, indiquant que l’effet du contrôle continu était plus marqué pour les étudiants qui avaient le plus à apprendre. De ce fait, lors de notre deuxième expérience, nous avons également évalué les variations possibles de l’effet de l’évaluation cumulative en fonction du niveau de l’étudiant (cours introductif vs. master). Notre hypothèse était que les étudiants débutants bénéficieraient davantage des examens cumulatifs que les étudiants en master, mais que les deux groupes en tireraient profit.

Expérience 1

 Méthode

Participants

Tous les étudiants inscrits dans l’un de nos cours (i.e. introduction à la psychologie, méthode de recherche et statistiques, psychopathologie, psychologie sociale, psychologie cognitive, développement de l’enfant, etc.) passaient un contrôle de connaissances juste après avoir passé leur examen final, ceci faisant partie d’une évaluation du département de psychologie. Certaines classes comprenaient des examens finaux cumulatifs ; d’autres des examens non-cumulatifs, selon les préférences de l’enseignant. En moyenne, il y avait 50 étudiants inscrits dans chaque cours d’introduction à la psychologie et 20-24 dans chaque cours de master. Pour nos analyses, nous avons utilisé les performances moyennes de la classe plutôt que les résultats individuels de chaque étudiant car les étudiants pouvaient rendre leurs examens de manière anonyme. De ce fait, il n’était pas possible de regrouper diverses performances d’un étudiant s’il avait effectué plusieurs contrôles. Il est important de noter que les élèves n’ont aucune source de motivation extrinsèque pour bien réussir ces contrôles de connaissances. Par conséquent, les résultats aux contrôles de connaissances peuvent être plus bas que ceux des examens car les élèves savent que leur performance n’affectera pas leur moyenne semestrielle. Cependant, l’absence de source de motivation extrinsèque pour réussir ces contrôles existe dans toutes les classes, quel que soit le niveau ou le format de l’examen final.

Tableau 1. Expérience 1: Statistiques Descriptives pour le Format de l’Examen en fonction de Niveau de Cours

Examen cumulatif         Exam non-cumulatif

Niveau du cours M SD n M SD n
Master 82.60 (4.54) 10 72.19 (10.55) 15
Introductif 76.66 (4.01) 3 63.26 (6.82) 10

 

Outils et procédure

L’expérience 1 utilisait une méthode d’archivage de données, approuvée par l’IRB (Institutional Review Board[1]). Ces données étaient collectées pour que le corps enseignant du département puisse mettre en place les procédures d’évaluation standardisées. Nous avons décrit les objectifs de cette étude à la réunion départementale, et les membres du corps enseignant ont accepté l’utilisation de données d’évaluation anonymisées dans le but de soutenir cette étude. Le corps enseignant a également précisé s’il utilisait des méthodes cumulatives ou non cumulatives pour l’examen final de chaque cours. Notre département de psychologie utilise les contrôles de connaissances en tant que preuves quantitatives de l’efficacité de l’enseignement et comme mesure de la rétention des éléments de cours les plus importants transmis par leurs enseignants. Ces contrôles de connaissances ont été élaborés pour les cours d’introduction à la psychologie et pour chaque grand domaine de psychologie faisant l’objet d’un cours spécifique (i.e. méthodes de recherche et statistiques). Les enseignants de chaque cours (i.e. tous les enseignants qui enseignent le cours de méthodes de recherche et de statistiques) travaillaient ensemble pour créer le contenu des examens. Ils se sont mis d’accord sur les concepts clés de leurs cours et ont élaboré les questions d’examen en fonction de ces choix. Les enseignants se sont également mis d’accord pour éviter d’utiliser les mêmes questions pour leurs examens et contrôles de connaissances. Le contrôle de connaissances pour le cours introductif de psychologie comprend 18 QCM, alors que les autres n’en comprennent que 15. Ces contrôles sont proposés à la fin de chaque semestre pour évaluer l’empan des connaissances essentielles retenues par chaque élève lors de chaque cours pendant le semestre.

La note d’un élève au contrôle de connaissances ne comptait pas dans sa moyenne pour ce cours, mais le résultat moyen de la classe à ce contrôle a été utilisé pour évaluer chaque année l’enseignant. Nous avons dit aux étudiants que les contrôles de connaissances étaient uniquement utilisés pour évaluer les enseignants, et non les étudiants. Comme ces contrôles constituaient des données importantes d’évaluation pour notre enseignement, nous avons demandé aux étudiants de les compléter à la fin de chaque semestre. Nous les avons informés du fait que les résultats à ces contrôles demeureraient confidentiels, et qu’il était possible de les rendre de manière anonyme. Ainsi, chaque enseignant ne pouvait pas avoir connaissance des résultats individuels de ses élèves. De cette façon, nous ne savons pas si la performance au contrôle de connaissances peut être associée aux notes individuelles reçues par l’étudiant aux divers devoirs. Tous les étudiants présents à leur examen final prévu ont complété le contrôle de connaissances et beaucoup d’entre eux ont décidé de le soumettre anonymement. Pour chaque cours, nous avons demandé aux étudiants de compléter des contrôles de connaissances, tout de suite après avoir passé leurs examens de fin de semestre. Cela veut dire qu’après chaque examen final, nous avons donné un contrôle de connaissances à compléter. L’étudiant disposait d’un temps illimité pour compléter ce contrôle, mais la plupart d’entre eux l’ont terminé en 10-15 minutes. Comme ces données seront archivées, et que nous ne pourrons pas identifier les notes individuelles de chaque étudiant, nous avons utilisé les notes moyennes de chaque classe (pourcentage de réponses correctes) comme unité de mesure.

Des notes moyennes aux contrôles de connaissances ont été évaluées pour 13 des 14 cours d’introduction à la psychologie donnés au cours de l’année scolaire 2007-2008, et pour 25 des 26 cours de master pour lesquels le département utilise des contrôles de connaissances. Au sein des cours d’introduction à la psychologie, 3 comprenaient des examens cumulatifs, et 10 n’en comprenaient pas. Pour les cours de master, 15 comprenaient des examens cumulatifs et 10 n’en comprenaient pas. Un cours d’introduction à la psychologie n’a pas été compris dans nos analyses à cause d’une erreur administrative (i.e. les examens complétés ont été égarés par l’équipe administrative du département à la fin du semestre). Un cours de master n’a pas fait partie des analyses car l’enseignant n’a pas accepté que ses données soient incluses.

Résultats et Discussion

En nous penchant sur la première question, concernant l’impact du format de l’examen final sur la rétention du contenu de cours à la fin du semestre, nous avons mis en place une analyse 2 (format de l’examen final : cumulatif versus non-cumulatif) X 2 (niveau du cours : introductif vs. master) de variance en utilisant les pourcentages moyens de bonnes réponses au contrôle de connaissances. Nous n’avons pas trouvé d’interaction entre le format de l’examen final et le niveau du cours (F<1). Cependant, nous avons trouvé des effets significatifs pour le format de l’examen final et le niveau du cours. En effet, les cours ayant un examen final cumulatif avaient de meilleurs résultats que les cours à examen non cumulatif, F (1, 34) ¼ 14.63, Z2 ¼ .23, p <.001. De plus, les cours de master avaient des pourcentages de réponses correctes plus élevés que les cours d’introduction à la psychologie, F (1, 34) ¼ 5.707, Z2 ¼ .09, p < .05. Voir le Tableau 1 pour les moyennes et les écarts types pour chaque cellule. Les moyennes de chaque classe composaient les seules données archivées disponibles, donc l’Expérience 1 avait moins de poids que si nous avions pu utiliser les résultats individuels des étudiants comme unité de mesure. Malgré les données restreintes, nous pensons que les résultats de l’Expérience 1 soutiennent l’utilisation des examens cumulatifs plutôt que non cumulatifs afin d’améliorer la rétention des étudiants. De plus, nous avons constaté que les étudiants en début de licence avaient de moins bons résultats aux contrôles de connaissances que les étudiants de master, donc nous nous sommes demandé si les faibles effectifs auraient pu nous empêcher d’observer une interaction possible entre le format de l’examen final et le niveau du cours sur la performance au contrôle de connaissances. De ce fait, dans l’Expérience 2, nous avons mis en place une étude plus étendue dans laquelle nous avons invité à participer les anciens élèves de tous nos cours comportant des contrôles de connaissances.

De plus, nous avons interrogé nos participants potentiels entre zéro et trois semestres après la fin de leurs cours (i.e. 0-18 mois). En les joignant peu de temps après la fin du cours, il était possible d’évaluer si les bénéfices de rétention offerts par la passation d’examens cumulatifs demeuraient bien après la fin du cours.

Expérience 2

Méthode

Participants

Nous avons proposé aux étudiants ayant validé des cours de licence et/ou de master utilisant des contrôles de connaissances à compléter l’évaluation en ligne. Tout au long de nos trois phases de collecte de données, nous avons envoyé 4732 invitations par mail. Nous avons reçu au total 450 contrôles de connaissances complétés : 335 de ces derniers étaient pour des cours de licence et 115 pour des cours de master. Nous avons envoyé tous nos mails d’invitation aux adresses électroniques universitaires des étudiants. Nous pensons que cette pratique pourrait expliquer le faible nombre de contrôles complétés. Les étudiants utilisent d’autres adresses électroniques comme adresse principale et il est possible qu’ils ne consultent pas leurs comptes universitaires fréquemment, surtout lors des vacances d’hiver ou d’été. Lorsque les étudiants complétaient ce contrôle, ils pouvaient le faire de manière anonyme ou en fournissant des informations permettant de les identifier afin de les faire participer à une tombola proposant de gagner un des 3 Ipod Touch® Apple (lors des deux premières phases de collecte) ou pour gagner un Ipad® Apple (dernière phase de collecte).

Nous ne pouvons pas nous assurer du nombre de répondants uniques au sondage au sein des divers contrôles de connaissances car les participants avaient la possibilité de les soumettre anonymement. Nous avons estimé que l’exigence de s’identifier serait inappropriée. Nous pensons cela pour deux raisons. D’abord, parce que beaucoup de participants potentiels étaient des étudiants actuellement inscrits à l‘université et tous les chercheurs sur ce projet étaient des membres du corps enseignant, nous ne voulions pas que les étudiants se sentent donc obligés de participer de ce fait. Ensuite, nous étions également préoccupés par le fait que les participants pouvaient penser que leur performance aurait un impact sur leurs notes dans de futurs cours de psychologie. Malheureusement, à cause de l’anonymat des réponses, nous ne pouvons pas savoir si les participants ont rempli des sondages pour des cours spécifiques (i.e. introduction à la psychologie) pendant les trois phases de collecte de données. Voir le Tableau 2 pour une description des sondages rendus lors de ces trois phases de collecte lors de l’Expérience 2.

Outils

Tableau 2. Nombre de sondages rendus pour chaque phase de la collecte de données

Semestre pendant lequel le cours a eu lieu

Automne 2008   Printemps 2009   Automne 2009   Printemps 2010

Phase de collecte                

Juillet 2009                             98

Janvier 2010                          32                             43                                69

Juin 2010                                30                             41                                 71                               62

Note. Nous indiquons également le nombre de sondages rendus pour chaque semestre de cours pendant chaque phase de collecte de données.

Pour l’Expérience 2, nous avons converti le contenu des examens d’introduction à la psychologie et de master en versions pouvant être proposées en ligne. Nous avons décidé de les proposer sous forme numérique pour deux raisons. Tout d’abord, nous souhaitions que les participants les complètent en dehors du cadre de leurs cours de psychologie. Nous ne voulions pas que les participants craignent que leurs performances à cet exercice en ligne puissent être associées à leurs performances en cours, ou qu’elles fassent l’objet d’une note. Deuxièmement, nous souhaitions pouvoir demander aux participants de compléter ce contrôle en ligne peu de temps après la fin du cours, ce qui signifiait que de nombreux participants seraient diplômés pendant ce laps de temps. De ce fait, la seule façon de les contacter et de leur demander de compléter un examen était de le faire grâce à un format numérique. Les examens en ligne comportaient les mêmes QCMs que les contrôles de connaissances proposés par écrit en fin de semestre : 18 pour le cours d’introduction à la psychologie, et 15 pour les autres cours. Chaque contrôle en ligne comprenait une question où les participants indiquaient si leur examen final avait été cumulatif ou non.

Procédure

Nous avons invité les étudiants actuellement ou précédemment inscrits en cours de psychologie à compléter des contrôles de connaissances en ligne en lien avec les cours qu’ils avaient terminés il y a un, deux, ou trois semestres (i.e. les cours avaient donc été suivis 0 à 18 mois auparavant). Nous avons proposé cela en trois phases de collecte de données. Lors de la première phase, effectuée en juillet 2009, nous avons contacté des étudiants ayant suivi un cours de psychologie durant le semestre d’automne 2008. Lors de la seconde phase, nous avons contacté des étudiants en janvier 2010 qui avaient terminé un cours de psychologie dans un des trois derniers semestres (i.e., automne 2008, printemps 2009 et/ou automne 2009), afin qu’ils complètent des contrôles de connaissances en ligne. Dans la troisième et dernière phase, nous avons contacté en juillet 2010 des étudiants qui avaient suivi des cours de psychologie dans au moins un des quatre derniers semestres (i.e. en automne 2008, printemps 2009, automne 2009 et/ou printemps 2010) afin qu’ils effectuent le contrôle en ligne. De ce fait, les étudiants ayant suivi un ou plusieurs cours de psychologie pendant le semestre d’automne 2008 ont été contactés lors des trois phases de collecte. Si les étudiants avaient suivi plus d’un cours de psychologie, ils recevaient donc plusieurs invitations, une pour chaque cours.

Quand des participants potentiels recevaient une invitation par mail, celle-ci précisait quel cours serait l’objet du contrôle de manière claire. Cette invitation par mail constituait alors la base de notre processus de consentement éclairé pour l’expérience, qui indiquait que la participation était volontaire et qui laissait le choix aux étudiants de participer ou non.

L’IRB (Institutional Review Board)[2] de la recherche comportementale et sociale de l’université a relu et approuvé cette étude pédagogique, acceptant notre méthode de collecte en ligne qui comprenait une attestation de consentement éclairé. À la fin de l’invitation par mail, les participants potentiels indiquaient s’ils choisissaient de participer ou de refuser l’invitation en cliquant sur un des deux hyperliens, l’un menant au contrôle en ligne et l’autre menant à un écran qui les remerciait de leur intérêt et qui leur donnait nos contacts pour des questions complémentaires possibles. À nouveau, voir le Tableau 2 pour le détail des contrôles effectués lors de chaque phase de collecte.

Quand les participants indiquaient qu’ils voulaient participer à l’étude en cliquant sur l’hyperlien qui se trouvait dans les documents de consentement du mail, ils étaient directement redirigés vers le contrôle en ligne se trouvant sur le site de sondage de l’université (dont l’exploitant est Vovici). Le sondage de notre étude comprenait des demandes d’informations démographiques optionnelles (i.e. nom, numéro de téléphone, etc.), une section dans laquelle les participants indiquaient quels cours de psychologie ils avaient suivis, puis ils complétaient les questions pour le contrôle de connaissances départemental approprié. Les participants précisaient également la nature, cumulative ou non cumulative, de leur examen final pour le cours en question.

Résultats et Discussion

Nous avons effectué des analyses pour tenter de répondre aux trois questions principales que nous nous posions dans cette étude longitudinale —(1) Est-ce que les participants qui terminent leur cours avec un examen final cumulatif retiennent plus d’informations que ceux avec un examen non cumulatif ? (2) S’il y a un avantage accordé aux participants de l’examen cumulatif en termes de rétention d’informations, est-ce que cet avantage perdure dans le temps ? Et (3) est-ce que l’effet de l’examen cumulatif vs. non-cumulatif était le même pour les étudiants en cours introductif qu’en master ?

Pour répondre à ces questions dans l’Expérience 2, nous avons mis en place une analyse de covariance 2 (format de l’examen final : cumulatif ou non cumulatif) X 2 (niveau du cours : introductif ou master) ANCOVA avec le laps de temps en covariable. Pour chaque participant nous avons calculé le nombre de mois (ou la proportion d’années) qui s’étaient écoulés entre la réponse au sondage et la fin du cours correspondant. Par exemple, si un étudiant soumettait le sondage en juillet 2009 pour un cours suivi en décembre 2008, le laps de temps était codé comme 7 mois ou 0.5833 années. Nous avons fait cela au lieu de traiter le laps de temps comme une variable catégorielle (i.e. Nombre de semestres passés) car le nombre de mois dans un semestre n’est jamais le même. Par exemple, un semestre s’écoule entre un cours fini en mai et un sondage rempli en janvier, et un semestre s’écoule également entre un cours terminé en décembre et un sondage complété en juin. Il s’est donc écoulé 7 mois dans le premier cas, et seulement 6 dans le second.

Donc, nous avons décidé de traiter ce laps de temps comme une variable continue, et nous l’avons utilisé comme covariable dans nos analyses. Lors de cette ANCOVA, nous avons trouvé des effets significatifs pour chacun de ces facteurs, mais aucune interaction. Ceux qui passaient des examens cumulatifs en fin d’année avaient de meilleurs résultats que ceux passant des examens non cumulatifs, F (1, 441) ¼ 4.17, Z2 ¼ .008, p ¼ .042. De plus, les participants suivant des cours de master avaient de meilleurs résultats que les étudiants en cours d’introduction à la psychologie, F (1, 441) ¼ 69.59, Z2 ¼ .133, p < .001, quelle que soit la nature de l’examen final. Le laps de temps a également influencé la réussite à l’évaluation en ligne car les notes diminuaient avec l’augmentation du temps entre la passation et la fin du cours, F (1, 441) ¼ 13.06, Z2 ¼ .025, b ¼   1.57, p < .001.

Bien que nous n’ayons pas trouvé d’interaction entre le format de l’examen final et le niveau du cours, nous avons mis en place des ANCOVA supplémentaires qui séparaient la performance des participants passant des contrôles de connaissances pour des cours de débutants et la performance des participants passant des contrôles de connaissances de master. D’après les écrits de Landrum (2007), nous nous attendions à observer que les étudiants qui avaient le plus de savoir à acquérir (i.e. les étudiants en cours d’introduction à la psychologie) bénéficieraient plus de l’évaluation cumulative que les étudiants ayant déjà des connaissances de base. Pour ces analyses, nous avons étudié les effets du format de l’évaluation (cumulatif vs. non-cumulatif) et le laps de temps. Nos analyses séparées pour les contrôles de cours introductif et pour les contrôles de master appuient l’hypothèse de Landrum (2007). Plus précisément, nous avons trouvé un effet significatif du format de l’examen pour les contrôles de connaissances de cours introductif, F (1, 328) ¼ 7.43, Z2 ¼ .021, p < .001, et du laps de temps, F (1, 328) ¼ 13.45, Z2 ¼ .038, b ¼   1.96, p < .001. Nous voyons donc que les participants ayant passé des examens cumulatifs avaient de meilleurs résultats aux contrôles que les participants ayant passé des examens non cumulatifs, et la performance à ces contrôles se déteriorait avec l’augmentation du laps de temps entre la fin du cours et l’évaluation. Nous n’avons pas trouvé les mêmes résultats pour les répondants de master. En effet, nous n’avons pas trouvé d’effet significatif pour le format de l’examen final et le laps de temps (tous les F< 1). Voir le Tableau 3 pour observer ces résultats. Dans le Tableau 3, nous présentons ces résultats en termes de nombre de semestres écoulés au moment de la passation depuis la fin du cours. De ce fait, il y a quatre laps de temps proposés (0 à 3 semestres) décrits en semestres plutôt qu’en mois ou en années.

Nous pensons que l’absence de bénéfice offert par l’examen cumulatif final et l’absence d’effet du laps de temps pour les étudiants en master peuvent être dues au fait que la plupart de ces étudiants sont en master de psychologie. Il est intéressant de noter que Scepansky et Carkenord (2004) ont trouvé des résultats similaires dans leur étude, qui démontrait que les étudiants de master en psychologie retenaient une proportion étonnante d’informations concernant leurs cours sur les méthodes de recherche et les méthodes quantitatives. En tant qu’élève en master de psychologie, ces étudiants étaient exposés à des concepts familiers dans beaucoup de cours pendant leurs cursus. En effet, les étudiants qui remplissaient les questionnaires de master jusqu’à trois semestres après la fin du cours avaient validé en moyenne 10.38 cours de psychologie, et 16 répondants sur 21 étaient en master de psychologie. Nous le savons car tous les étudiants de master ont donné des renseignements personnels. Ainsi, dans le laps de temps entre la fin du cours spécifique et le contrôle de connaissances correspondant, ces étudiants continuaient à réviser et étaient exposés à des concepts qui se retrouvaient dans le contrôle de connaissances. Il n’est pas étonnant de voir que l’impact d’un seul examen final cumulatif était alors amoindri par rapport à un examen final passé par des étudiants débutants.

Tableau 3. Expérience 2: Statistiques descriptives pour le format de l’examen en fonction du niveau du cours et du laps de temps

Note. M = moyenne; . Le n représente le nombre de répondants.

Examen cumulatif                 Examen non-cumulatif

Niveau du Cours M Ety n M Ety n
    Introductif (total) 63.90 (19.00) 227 57.75 (18.21) 104
Zéro semestre 69.14 (18.92) 74 65.97 (15.57) 32
Un semestre 62.87 (17.65) 95 53.70 (19.99) 48
Deux semestres 57.65 (21.56) 45 55.13 (8.321) 13
Trois semestres 63.25 (12.53) 13 54.55 (19.69) 11
     Master (Total) 78.14 (13.88) 61 75.68 (16.89) 54
Zéro semestre 80.75 (10.94) 18 76.19 (8.48) 7
Un semestre 78.28 (12.29) 31 74.21 (18.41) 38
Deux semestres 75.24 (22.68) 7 79.99 (16.32) 7
Trois semestres 71.99 (19.65) 5 86.67 (9.43) 2


Discussion Générale

Quel que soit le type de cours, les étudiants ayant effectué des examens de fin d’année cumulatifs obtenaient de meilleurs résultats aux contrôles de connaissances proposés par le département que les étudiants ayant eu des examens non cumulatifs. Nous retrouvions cet effet juste après la passation de l’examen final. Les étudiants en cours d’introduction à la psychologie bénéficiaient plus de ce type d’examen cumulatif que les étudiants de master. Spécifiquement, les étudiants novices qui passaient des examens cumulatifs réussissaient mieux que ceux ayant eu des examens non-cumulatifs, même 18 mois après la fin du cours. Les étudiants en début de parcours tirent davantage profit de ces examens finaux cumulatifs car ils maîtrisent moins rapidement tout le contenu, à la différence des étudiants en master, comme le suggère Landrum (2007). Les étudiants débutants qui effectuaient des examens cumulatifs bénéficiaient d’une exposition répétée au contenu de l’examen. Ils l’apprennent puis sont évalués sur ces mêmes éléments en milieu de semestre, puis à nouveau à la fin du semestre lors de l’examen cumulatif final. Les étudiants en master qui ont des examens cumulatifs sont également exposés au contenu de l’examen durant le semestre et, à nouveau, lors de l’examen final cumulatif. Cependant, les étudiants de master ont suivi au moins un (et sans doute plus que cela) cours de psychologie. De ce fait, le bénéfice de l’exposition supplémentaire aux connaissances de cours ayant lieu lors de l’examen cumulatif final est moindre car ils ont déjà été exposés à des concepts psychologiques lors de nombreux cours précédents. Comme un cours d’introduction à la psychologie, valant 3 ou 4 crédits, est obligatoire dans 80% des universités américaines pour ceux qui souhaitent se spécialiser dans ce domaine, et que quasiment toutes les spécialisations nécessitent d’avoir commencé avec un cours ou une série de cours introductifs (Stoloff et al., 2010), trouver des moyens simples pour améliorer la qualité de l’apprentissage dans ces cours de base est important. Les cours au sein du master devraient s’intégrer les uns aux autres (Stoloff et al., 2010) et nos résultats montrent que c’est le cas (voir Nathanson, Paulhus, & Williams, 2004; Sanders-Dewey & Zaleski, 2009; Tobin & Gebo, 2008). L’effet moindre de l’examen cumulatif pour les cours de master est compréhensible si le contenu du master reprend des données initialement introduites lors des premiers cours de psychologie, et peut être enseigné lors d’autres cours, également. Nous pensions que l’effet moins notable de ces examens dans les cours de master pouvait être expliqué par l’exposition répétée, méthode qui fait partie d’un cursus bien élaboré, donc ce résultat continue à valider l’importance de l’exposition et des révisions répétées. Nous pensons donc que les examens cumulatifs améliorent l’apprentissage des étudiants, et nous encourageons les enseignants à les utiliser au sein de leurs cours. Nous les encourageons également à étudier et à évaluer d’autres stratégies pédagogiques qui amélioreraient la rétention de cours pour les étudiants, car même dans notre condition d’étude optimale (passation du contrôle de connaissances directement après l’examen cumulatif en master), les étudiants ont seulement répondu correctement à 82% des réponses de l’examen. Dans la condition la plus difficile (Laps de temps de 18 mois après un cours d’introduction à la psychologie avec un examen final non cumulatif), les étudiants retenaient un peu plus de la moitié des informations transmises par ce cours. Trouver de nouvelles façons de développer la motivation des étudiants pour l’apprentissage peut améliorer nos pratiques pédagogiques et la rétention de contenu. Marrs, Sigler, and Hayes (2009) ont considéré que la motivation est la variable discriminante la plus importante entre les étudiants qui obtenaient de bons ou de mauvais résultats en cours introductifs de psychologie. De plus, Szpunar, McDermott, et Roediger (2007) suggèrent que le fait de s’attendre à un contrôle cumulatif prochain peut être une source de motivation suffisante pour permettre aux étudiants d’apprendre et de retenir leur cours. Brosvic et Epstein (2007) suggèrent que les révisions de corrections de contrôle “post mortem” n’offrent que très peu de bénéfices, car les étudiants ne sont pas motivés pour apprendre de ces corrections, car ces apprentissages ne leur permettront pas d’améliorer la note du contrôle qu’ils ont déjà reçue. En revanche, si les étudiants s’attendent à un examen final cumulatif dans lequel figurera le contenu d’examens précédents, ils seront motivés pour revoir ce feedback et ces corrections de leurs anciens contrôles (Brosvic & Epstein, 2007). Nous pensons que la motivation à apprendre augmente lorsque les étudiants sont intéressés par ce qu’ils sont en train d’apprendre et lorsqu’il y a un intérêt pour cet apprentissage (i.e. avoir une bonne note) (Marrs, Sigler, & Hayes, 2009). Ainsi, nous pensons que le fait de savoir qu’il y a un examen final cumulatif les motive pour apprendre les points essentiels du cours et pour consolider leur compréhension initiale de ces derniers. Donc, les étudiants qui s’attendent à un examen cumulatif, sur lequel leur performance sera meilleure s’ils apprennent de leurs erreurs précédentes, peut les motiver à corriger leurs erreurs d’apprentissage. Ceci peut engendrer une note plus élevée à l’examen final et au contrôle de connaissances. Plus important encore, utiliser des examens finaux cumulatifs semble faire augmenter le taux de rétention du contenu de cours sur le court terme, et dans certains cas, le long terme. Nous avons constaté qu’il y a un bénéfice immédiat des examens cumulatifs pour les étudiants novices et en master dans les Expériences 1 et 2. De plus, nous avons vu le bénéfice à long terme (i.e. 1,5 années) pour la rétention de connaissances grâce aux examens cumulatifs pour les étudiants ayant suivi un cours d’introduction à la psychologie lors de l’Expérience 2. Nous pensons que nous n’avons pas trouvé de bénéfices à long terme pour la rétention pour les étudiants de master, car la plupart des étudiants participant à cette étude étaient en master de psychologie. Par conséquent, ces étudiants avaient pris de nombreux cours de psychologie pendant le laps de temps entre la fin de leurs cours et les contrôles de connaissances en ligne. La puissance relative d’un examen cumulatif unique diminue lorsque les étudiants sont exposés de manière répétée à une myriade de sujets connexes dans leurs cursus de psychologie ; cependant, la conclusion que nous tirons est que les opportunités nombreuses pour apprendre et être évalués sur des informations essentielles améliorent globalement la rétention des étudiants.

 

Nous savons que de nombreux enseignants peuvent être réticents à l’idée d’utiliser des examens cumulatifs car leurs étudiants ont tendance à ne pas les apprécier. Cependant, nous les encourageons à se rappeler que les étudiants ont peu d’insight concernant les pratiques pédagogiques dont ils pourraient bénéficier (Wesp & Miele, 2008). Les enseignants peuvent partager les bénéfices des examens finaux cumulatifs et souligner le fait que le contenu des cours suivis à l’université servira toujours plus tard. En outre, si plus d’enseignants adoptent ce genre d’examen, les étudiants y seront habitués et s’y prépareront sans problème. Ceci a été le cas dans notre département. En conclusion, nos données présentées lors de nos deux expériences soulignent l’efficacité des examens cumulatifs, en comparaison avec les non cumulatifs. Ainsi, nous recommandons vivement que les enseignants adoptent des évaluations cumulatives dans leurs cours, notamment lors de cours introductifs. Des acquis renforcés grâce aux examens cumulatifs bénéficieront aux élèves mais aussi à la profession, en produisant des diplômés ayant retenu le maximum des informations transmises lors de leurs formations.

 

Remerciements

Nous remercions Madison Laughlin pour la quantité innombrable d’heures qu’elle nous a accordées afin de nous aider à organiser et à noter les réponses des questionnaires en ligne. Nous remercions également les autres membres du département de Psychologie à Creighton University qui nous ont accordé le droit d’utiliser leurs notes (évaluation scores) dans notre étude.

 

Déclaration de Conflits d’Intérêts

L’auteur déclare qu’il n’y a eu aucun conflit d’intérêts concernant son statut d’auteur, la recherche et/ou la publication de cet article.

 

Financement

Les auteurs déclarent la source de leur soutien financier pour cette recherche, pour l’écriture de l’article et pour sa publication. Cette recherche a été soutenue, en partie, par des subventions de l’Office for Academic Excellence and Assessment de Creighton University

 

Note

  1. Nous avons également effectué une analyse de variance 2 (nature de l’examen) X 2 (niveau du cours) X 4 (nombre de semestres). Dans cette analyse, nous avons trouvé un effet significatif du niveau de cours ; les étudiants de master réussissaient mieux les questionnaires que les étudiants novices, F (1, 432) ¼ 12, Z2 ¼ .104, p < .001. Nous avons également noté un effet du laps de temps, F (3, 432) ¼ 2.09, Z2 ¼ .012, p ¼ .101. Cependant, nous n’avons pas remarqué d’effet significatif du type d’examen pour la réussite au questionnaire lors de cette analyse, F (1, 432) ¼ 1.88, Z2 ¼ .004, p ¼ .17. Bien que nous ayons remarqué que les étudiants avaient de meilleurs résultats s’ils avaient passé un examen final cumulatif, comparé à un examen non cumulatif, l’effet n’était pas significatif. Nous l’expliquons car, dans cette analyse, nous avons divisé le laps de temps en 4 catégories, plutôt que de le traiter comme une variable continue. Ceci faisait décroître la puissance de l’analyse et a introduit plus de degrés de liberté.

 

Notifications

  • Cet article a été traduit en français de sa version originale avec la permission de la Division no 2 de l’American Psychological Association (APA). La Division no 2 ne garantit pas la précision de la traduction française ; la traduction n’étant pas produite par l’APA. Pour des questions concernant cet article ou tout autre publication de la Division no 2 de l’American Psychological Association, merci de contacter stp@teachpsyc.org
  • Cet article a été traduit de l’anglais par Laetitia Ribeyre, psychologue, Ecole de Psychologues Praticiens.


Références

Brosvic, G. M., & Epstein, M. L. (2007). Enhancing learning in the introductory course. Psychological Record, 57, 391–408.

Bunce, D. M., VandenPlas, J. R., & Soulis, C. (2011). Decay of student knowledge in chemistry. Journal of Chemical Education, 88, 1231–1237. doi:10.1021/ed100683h

Howard, C. R. (2011). Examining the testing effect in an introductory psychology course. Unpublished doctoral dissertation, Auburn University, Auburn, AL.

Karpicke, J. D., & Roediger, H. L. (2008). The critical importance of retrieval for learning. Science, 319, 966–968. doi:10.1080/09541440601056620

Landrum, R. E. (2007). Introductory psychology student performance: Weekly quizzes followed by a cumulative final exam. Teaching of Psychology, 34, 177–180.

Lawrence, N. K. (2013). Cumulative exams in the introductory psychology course. Teaching of Psychology, 40, 15–19.

Marrs, H., Sigler, E., & Hayes, K. (2009). Study strategy predictors of performance in introductory psychology. Journal of Instructional Psychology, 36, 125–133.

McGuire, M. J., & MacDonald, P. M. (2009). Relation of early testing and incentive on quiz performance in introductory psychology: An archival analysis. Journal of Instructional Psychology, 36,

134–141.

Nathanson, C., Paulhus, D. L., & Williams, K. M. (2004). The challenge to cumulative learning: Do introductory courses actually benefit advanced students? Teaching of Psychology, 31, 5–9. doi:

10.1207/s15328023top3101_2

Nevid, J. S., & Lampmann, J. L. (2003). Effects on content acquisition of signaling key concepts in text material. Teaching of Psychology, 30, 227–230. doi:10.1207/S15328023TOP3003_06

Nevid, J. S., & Mahon, K. (2009). Mastery quizzing as a signaling device to cue attention to lecture material. Teaching of Psychology, 36, 29–32. doi:10.1080/00986280802529152

Petrowsky, M. (1999). The use of a comprehensive multiple-choice final exam in the macroeconomics principles course: An assessment (Report No. JC-990-133). Glendale, AZ: Glendale Community College (ED427830)

Rickard, H. C., Rogers, R., Ellis, N. R., & Beidleman, W. B. (1988). Some retention, but not enough. Teaching of Psychology, 15, 151–152. doi:10.1207/s15328023top1503_14

Roediger, H. L., & Karpicke, J. D. (2006). Test enhanced learning: Taking memory tests improves long-term retention. Psychological Science, 17, 249–255. doi:10.1111/j.1467-9280.2006.01693.x

Sanders-Dewey, N. E. J., & Zaleski, S. A. (2009). The utility of a college major: Do students of psychology learn discipline-specific knowledge? The Journal of General Education, 58, 19–27.

Scepansky, J., & Carkenord, D. M. (2004). Senior year retention of methods and statistics concepts. Teaching of Psychology, 31, 9–12. doi:10.1207/s15328023top3101_3

Spitzer, H. F. (1939). Studies in retention. Journal of Educational Psychology, 30, 641–656.

Stoloff, M., McCarthy, M., Keller, L., Varfolomeeva, V., Lynch, J., Makara, K., Simmons, S., & Smiley, W. (2010). The undergraduate psychology major: An examination of structure and sequence. Teaching of Psychology, 37, 4–15. doi:10.1080/00986280903426274

Swanson, D. B., Holtzman, K. Z., & Butler, A. (2010). Cumulative achievement testing: Progress testing in reverse. Medical Teacher, 32, 516–520. doi:10.3109/0142159X.2010.485657

Szpunar, K. K., McDermott, K. B., & Roediger, H. L. (2007). Expectation of a final cumulative test enhances long-term retention. Memory & Cognition, 35, 1007–1013. doi:10.3758/BF03193473

Tobin, K., & Gebo, E. (2008). Assessing student learning and depart- mental effectiveness through an undergraduate comprehensive exam. Criminal Justice Studies: A Critical Journal of Crime, Law and Society, 21, 223–238.

VanderStoep, S. W., Fagerlin, A., & Feenstra, J. S. (2000). What do students remember from introductory psychology? Teaching of Psychology, 27, 89–92. doi:10.1207/S15328023TOP2702_02

Wesp, R., & Miele, J. (2008). Student opinions of the quality of teaching activities poorly predict pedagogical effectiveness. Teaching of Psychology, 35, 360–362. doi:10.1080/00986280802374617

[1] Comité d’Experts

[2] Le Comité d’Éthique


APS regularly opens certain online articles for discussion on our website. Effective February 2021, you must be a logged-in APS member to post comments. By posting a comment, you agree to our Community Guidelines and the display of your profile information, including your name and affiliation. Any opinions, findings, conclusions, or recommendations present in article comments are those of the writers and do not necessarily reflect the views of APS or the article’s author. For more information, please see our Community Guidelines.

Please login with your APS account to comment.