EPP-APS Utiliser des activités

Utiliser des activités basées sur des affirmations pseudoscientifiques pour enseigner la pensée critique

Aimee Adam[1] et Todd M. Manson[1]

 

Teaching of Psychology
2014, Vol. 41(2) 130-134
ªThe Author(s) 2014

Reprints and permission:
sagepub.com/journalsPermissions.nav DOI: 10.1177/0098628314530343 top.sagepub.com

[1] School of Social Sciences, Indiana University Southeast, New Albany, IN, USA

Auteur à joindre pour la correspondance :
Aimee Adam, School of Social Sciences, Indiana University Southeast, 4201 Grant

Abstract

In two studies, we assessed the effectiveness of a classroom activity designed to increase students’ ability to think critically. This activity involved watching and discussing an infomercial that contained pseudoscientific claims, thus incorporating course material on good research design and critical thinking. In Study 1, we used a pretest–post  test design. After the activity, students were significantly more likely to correctly identify flaws in a series of claims. In Study 2, we compared the effectiveness of this activity to a traditional course. Participation in the activity was more effective at increasing students’ ability to critically evaluate claims than the course. These results suggest that short-term interventions to increase critical thinking can be successful and can be made interesting for students.

Keywords

critical thinking, pseudoscience activity, active learning

 

Résumé

Lors de deux expériences, nous avons évalué l’efficacité d’une activité en classe, élaborée pour améliorer les compétences en pensée critique de nos élèves. Pendant cette activité, ils regardaient des publicités contenant des affirmations pseudoscientifiques, puis en discutaient. Ceci permettait donc de mettre en jeu la pensée critique et de comprendre l’élaboration de protocoles de recherche en cours. Lors de l’Expérience 1, nous avons utilisé un protocole prétest-posttest. Après l’activité, les étudiants identifiaient avec beaucoup plus de facilité les défauts ou les failles dans une série d’affirmations. Dans l’Expérience 2, nous avons comparé l’efficacité de cette activité avec celle d’un cours magistral traditionnel. La participation à l’exercice en cours permettait aux élèves de développer plus de sens critique. Ces résultats suggèrent que des interventions courtes peuvent augmenter de manière efficace les compétences en pensée critique et devenir intéressantes pour les étudiants.

Mots-clés

pensée critique, activité basée sur des affirmations pseudoscientifiques, apprentissage actif

 

La pensée critique est définie comme l’évaluation engagée, efficace et critique de ses propres croyances, ainsi que celles des autres (pour une revue de la littérature à ce sujet, voir Behar-Horenstein & Niu, 2011). En développant ses capacités de réflexion critique, il est possible d’évaluer des affirmations ou des arguments permettant ainsi que des conclusions logiques puissent être tirées (Bensley, 1998; Halpern, 1998). Cette compétence est essentielle en psychologie mais aussi dans le quotidien. Enseigner cette compétence est primordial, ce qui explique la multiplication de recherches récentes, plus ou moins concluantes, qui tentent de trouver des interventions qui permettraient de la développer (Abrami et al., 2008). En général, la discipline de la psychologie semble améliorer ces compétences de manière efficace. Par exemple, des étudiants en master de psychologie identifiaient plus d’informations erronées ou de défauts dans une série d’affirmations (tels que l’appui sur des preuves purement anecdotiques, la confusion entre corrélation et causalité et la présence de variables indépendantes ou parasites) que les élèves en master de sciences naturelles, ou encore les licenciés en psychologie (Lawson, 1999). De la même façon, le nombre de cours de psychologie auxquels un étudiant s’est inscrit est corrélé à sa capacité à analyser des arguments (Bensley, Crowe, Bernhardt, Buckner, & Allman, 2010). Certains chercheurs ont utilisé des techniques similaires à celles de Lawson (1999) pour évaluer l’efficacité de leurs cours dans l’amélioration de la pensée critique. Après avoir participé à ces cours, spécialement élaborés dans ce but, les étudiants savaient évaluer des arguments plus justement (Bensley et al., 2010; Blessing & Blessing, 2010), identifier des preuves non-scientifiques (McLean & Miller, 2010; Penningroth, Despain, & Gray, 2007) expliquer les défauts dans des affirmations et proposer des explications alternatives (Wesp & Montgomery, 1998). Ils avaient également moins tendance à avoir des croyances paranormales (McLean & Miller, 2010) que ceux qui suivaient des cours où la pensée critique n’était pas au cœur des objectifs. De manière générale, les études récentes démontrent que des interventions longues (pendant tout un semestre ou pour un projet en cours important) qui mettent l’accent sur un aspect de la psychologie ont généralement augmenté la capacité des étudiants à évaluer des affirmations avec succès. Cependant, ces interventions nécessitent un temps de classe important que certains enseignants ne peuvent pas leur allouer, et il peut donc être difficile de conceptualiser des activités qui encouragent la pensée critique. L’article que vous allez lire décrit des activités d’apprentissage actif courtes comprenant une discussion autour de données pseudoscientifiques issues de publicités. Cet exercice aide les étudiants à évaluer les affirmations qu’elles présentent et à identifier leurs erreurs scientifiques majeures. Comparées aux cours magistraux et à la simple lecture (Yoder & Hochevar, 2005), les techniques d’apprentissage actif, dans lesquelles les étudiants produisent eux-mêmes des connaissances, peuvent mieux aider les étudiants à améliorer leurs résultats aux examens. Nous avons conçu cette activité pour qu’elle soit à la fois intéressante et facilement reproductible par d’autres enseignants. Dans cet article, deux expériences évaluent son efficacité, l’une utilisant un protocole prétest-posttest et l’autre comparant l’activité à un cours magistral traditionnel traitant du même sujet.

 

Expérience 1

Lors de cette première expérience quasi expérimentale, les participants ont dû lire quatre déclarations erronées, indiquer à quel point ils étaient d’accord avec ces affirmations et évaluer la valeur des preuves avancées pour chacune d’entre elles. Nous avons fait l’hypothèse qu’après cette activité, les participants (a) seraient moins souvent d’accord avec les affirmations erronées et (b) en identifieraient correctement les erreurs.

 

Méthode

Participants

Soixante-six étudiants, dont 40 femmes, se sont inscrits dans l’un des deux cours d’introduction à la psychologie enseignés par les auteurs de cette étude. La majorité d’entre eux étaient blancs.

Mesure

 Nous avons effectué nos mesures en nous basant sur le travail de Lawson (1999). Nous avons mesuré la pensée critique en utilisant un prétest et un posttest, pour lesquels les participants évaluaient une série de quatre affirmations erronées, élaborées par les chercheurs. Chaque assertion venait d’une source différente : un parent, un scientifique, une publicité et un enseignant. Ceci encourageait les étudiants à transférer leurs compétences en pensée critique à des situations du quotidien (Halpern, 1998). Les affirmations sont détaillées dans l’Appendice. Les participants devaient lire chaque déclaration et indiquaient leur degré de consensus sur une échelle allant de 1 (Pas du tout d’accord) à 7 (Tout à fait d’accord). Ils devaient ensuite lister toutes les raisons pour lesquelles les preuves avancées n’étaient pas convaincantes, remettant en cause leur validité. Nous avons écrit ces affirmations pour qu’elles comprennent un ou deux des défauts suivants : un appui trop important sur des preuves empiriques, une trop grande place laissée au hasard, des échantillons trop restreints, aucun groupe de contrôle, la confusion entre corrélation et lien de causalité, des différences entre les participants d’un même groupe, l’effet placébo, l’effet-expérimentateur, des effets de l’ordre[i] et des effets de la pratique[ii]. Nous avons codé le nombre d’erreurs correctement identifiées par chaque participant, sans savoir si les données étaient issues d’un prétest ou d’un posttest. Nous nous sommes entraînés pour ce codage de données avec les résultats d’une troisième classe, pour discuter de nos résultats avant de coder ceux des deux classes de l’étude. Puis, nous avons calculé la fidélité inter-cotateurs en faisant une corrélation entre les scores, codés séparément, de nos participants lors des deux tests. La fidélité pour le prétest était de 0.87 et de 0.90 pour le posttest. Nous avons ensuite fait la moyenne du nombre d’erreurs identifiées correctement par chaque participant.

Tableau 1. Changement concernant l’accord avec les affirmations de l’Étude 1

Prétest Postest
Scenario M Ety M Ety t(df) p d
1 3.42 1.55 2.57 1.63 5.12(64) <.001 0.64
2 3.59 1.53 2.25 1.48 7.18(64) <.001 0.89
3 2.02 1.23 1.59 1.10 2.52(64) .014 0.31
4 2.80 1.83 2.34 1.65 2.41(60) .019 0.34

Note. Ety = écart type

 

Protocole

Un cours de 75 minutes était prévu pour cette activité basée sur des affirmations pseudoscientifiques. Nous l’avons mise en place lors des deux premières semaines du semestre, avant que son contenu puisse être abordé en cours. Nous n’avons demandé aucune préparation particulière aux étudiants. Le comité d’examen institutionnel de l’université a approuvé notre méthode et nos outils. Les participants ont reçu une fiche explicative et ont ensuite complété le prétest. Après que les prétests ont été ramassés, la classe a visionné une publicité de 2 minutes pour des bracelets iRenew, trouvée sur Youtube. Cette publicité décrit les bénéfices de ce bracelet, qui donnerait plus d’énergie, de force et d’équilibre en utilisant les fréquences naturelles du corps. Elle comportait des anecdotes de consommateurs, des témoignages « d’experts » et des démonstrations d’équilibre effectuées dans un centre commercial. En effet, les clients devaient tenir leurs mains serrés dans leur dos, puis l’expérimentateur exerçait une pression sur leurs mains, leur faisant perdre l’équilibre. Les participants affirmaient avoir plus d’équilibre lorsqu’ils portaient le bracelet. Les étudiants ont regardé cette publicité deux fois, et nous leur avons demandé leur avis concernant les affirmations et les preuves présentées. Nous avons divisé les élèves en groupes en leur demandant (a) d’identifier les déclarations de la publicité, (b) d’identifier les preuves apportées pour les soutenir et (c) de les évaluer. Enfin, les groupes ont discuté d’une manière de tester eux-mêmes la validité des propos tenus. Après environ 10 minutes, les groupes ont partagé leurs idées avec le reste de la classe. La classe a identifié et discuté des erreurs suivantes (qui sont fréquentes en pseudoscience) : les effets de l’ordre, les effets placébos, l’utilisation abusive des preuves anecdotiques, des échantillons trop réduits, une méconnaissance des explications alternatives et l’effet-expérimentateur. Les participants ont également dû évaluer la source dont émanaient les preuves et les assertions. Nous avons facilité la mise en place de ces discussions en leur fournissant la terminologie précise correspondant à leurs observations, et en leur assurant que les deux classes avaient identifié les mêmes erreurs avec succès. Après ce dialogue, les participants ont effectué un posttest de manière individuelle. Il était constitué des quatre scénarios vus précédemment, et nous avons demandé aux participants de réévaluer les affirmations une nouvelle fois. Ils ont ensuite évalué l’activité qu’on leur avait proposée.

 

Résultats

Nous avons effectué 4 tests de Student sur échantillons appareillés pour analyser les différences concernant le nombre d’accords pour chaque affirmation. Chacun des 4 tests avait un résultat significatif qui confirmait notre hypothèse (voir le Tableau 2). Les participants avaient moins tendance à être d’accord avec les déclarations erronées après l’activité en classe. En utilisant cette méthode d’analyse, nous avons comparé le nombre total d’erreurs repérées pour les quatre affirmations du prétest et du posttest (cf. Tableau 2 pour voir les différences concernant le nombre de défauts repérés pour chaque scénario).

Comme dans nos hypothèses, les participants ont identifié un nombre bien plus important d’erreurs après l’activité en classe, M=5.72, ETY=2.73, comparé à leurs évaluations pré-activité, M = 4.00, ETY = 2.23, t(65) = 6.86, p < .001,d = 0.84. Après le posttest, les participants ont évalué l’activité en notant s’ils l’avaient trouvée agréable, s’ils pensaient qu’elle avait permis de développer leurs capacités de pensée critique et si elle était adaptée au cours. Nous leur avons proposé une échelle Likert en 5 points. Les deux tiers des participants (65%) l’ont considérée agréable (en lui donnant en score de 4 ou 5). De la même façon, 72% d’entre eux l’ont considérée utile dans le développement de leurs compétences en pensée critique.

 

Tableau 2. Différences concernant le nombre de défauts repéré dans l’Étude 1

Prétest Postest
Scenario M Ety M Ety t(df) p d
1 1.13 0.72 1.45 0.86 3.48(65) .001 0.43
2 0.73 0.89 1.31 0.91 5.06(65) <.001 0.62
3 1.17 0.71 1.63 0.93 4.39(65) <.001 0.55
4 1.05 0.72 1.37 0.74 3.74(62) <.001 0.47

Note. Ety = écart type

Discussion

De manière générale, après l’activité proposée, les élèves parvenaient à mieux identifier les erreurs scientifiques des déclarations issues de publicités, et cette compétence constitue un des aspects majeurs de la pensée critique. Cette étude suggère que les interventions brèves peuvent améliorer la pensée critique de manière aussi efficace que les interventions plus chronophages. Cependant, une limite de cette étude est son protocole prétest-posttest. Bien que nous ayons démontré que les étudiants ont identifié plus d’erreurs lors du posttest, nous ne savions pas si la méthode d’apprentissage actif aurait été plus efficace qu’une autre méthode pédagogique. Nous avons donc mis en place l’Expérience 2 pour répondre à cette question.

 

Expérience 2

Lors de cette deuxième étude, nous avons effectué une expérience quasi expérimentale 2 (condition : activité basée sur des données pseudoscientifiques vs. cours magistral) X 2 (temps : prétest vs. posttest) qui comparait les améliorations en pensée critique après la mise en place d’une activité ou d’un cours magistral traditionnel. Nous avons à nouveau mesuré le degré d’accord pour chaque affirmation et le nombre d’erreurs identifiées correctement. Notre hypothèse était qu’il y aurait un effet significatif important du temps sur le degré d’accord, c’est-à-dire que les participants seraient moins d’accord avec les informations erronées lors du posttest. Nous avions également une hypothèse selon laquelle il y aurait un effet d’interaction significatif entre le temps et la condition. En effet, selon nous, les participants aux activités de groupe seraient moins d’accord avec ces informations fausses. Nous pensions également qu’il y aurait un effet signicatf du temps et une interaction importante entre le temps et la condition en rapport avec le nombre d’erreurs identifiées. Les participants des activités de groupe identifieraient donc plus d’erreurs.

 

Méthode

Participants

Les étudiants inscrits dans l’un de nos quatre cours d’introduction à la psychologie ont participé à cette expérience. Chaque auteur était l’enseignant de l’un de ces cours ; un troisième professeur donnait les deux cours restants. Les participants avaient entre 18 et 43 ans (M=20.41, ETY=4.32). Environ la moitié d’entre eux étaient des hommes (47%).

Mesure et Protocole

Nous avons mis en place les mêmes mesures et la même procédure que lors de l’Expérience 1, hormis quelques exceptions. Lors de l’Expérience 2 nous avons utilisé un protocole dans lequel nous avons proposé une activité à deux classes. Les deux classes restantes ont abordé le même contenu sous forme de cours magistral. À nouveau, nous avons proposé l’activité durant les deux premières semaines du semestre, avant d’avoir traité le contenu en cours. Chacun d’entre nous a visité un cours d’introduction à la psychologie enseigné par un autre professeur pour y proposer une de ces activités basées sur des données pseudoscientifiques. Nos propres classes constituaient donc les groupes « cours magistral ». Nous avons proposé un cours d’introduction à la psychologie classique, sur la méthode scientifique et les protocoles expérimentaux de base. Nous y avons abordé l’importance de la méthode scientifique dans la réponse aux questions, pour montrer que le simple appui sur l’expérience personnelle ou des preuves anecdotiques était insuffisant. En utilisant différents exemples, nous avons abordé les concepts principaux de l’expérimentation, les variables indépendantes potentielles et les explications alternatives (par exemple, l’effet de l’ordre, l’effet placébo, l’effet-expérimentateur, les différences entre les groupes), ainsi que la façon d’expliquer comment une variable peut être indépendante, ou parasite. Ce cours magistral définissait et décrivait les mêmes erreurs que l’activité en classe. La différence majeure entre ces deux approches était que les étudiants en groupe proposaient des exemples et des descriptions eux-mêmes, grâce à la discussion. Dans l’Expérience 2, les participants n’ont pas complété le prétest et le posttest le même jour, car les participants semblaient fatigués lors de l’Expérience 1 et ne répondaient plus aux dernières questions. Nous avons proposé le prétest à tous les groupes lors de la première semaine du semestre, et nous avons mis en place l’activité, le cours magistral et le posttest la semaine suivante. La fidélité inter-cotateurs entre les auteurs était très importante lors de l’Expérience 1, donc nous avons chacun codé la moitié des scores sans savoir dans quelle condition le participant se trouvait.

 

Résultats

 Tableau 3. Changements concernant l’accord avec les affirmations de l’Étude 2










Prétest Posttest
Scénario Condition M Ety M Ety t(df) p d
1 Activité 3.62 1.56 2.64 1.45 6.92(88) <.001 0.78
Cours 3.57 1.59 2.73 1.56 4.29(58) <.001 0.58
2 Activité 3.71 1.62 2.63 1.58 5.76(88) <.001 0.59
Cours 4.03 1.62 2.97 1.68 5.19(57) <.001 0.63
3 Activité 2.21 1.50 1.52 0.77 4.33(88) <.001 0.53
Cours 2.51 1.58 1.92 1.13 2.58(58) .012 0.36
4 Activité 3.86 2.13 2.69 1.89 6.58(88) <.001 0.67
Cours 3.70 1.91 3.03 1.94 2.81(58) .007 0.38









Note. Ety = écart type.

 

Tableau 4. Différences concernant le nombre de défauts détectés dans l’Étude 2










Prétest Posttest
Scénario Condition M Ety M Ety t(df) p d
1 Activité 0.76 0.62 1.06 0.83 3.72(88) <.001 0.42
Cours 0.81 0.78 0.78 0.70 0.32(57) .749 0.04
2 Activité 0.55 0.62 1.04 0.88 5.08(88) <.001 0.55
Cours 0.65 0.79 0.84 0.70 1.85(56) .07 0.24
3 Activité 0.48 0.62 1.16 0.72 7.26(88) <.001 0.78
Cours 0.74 0.58 0.72 0.64 0.17(57) .867 0.03
4 Activité 0.55 0.60 0.76 0.69 2.82(88) <.01 0.30
Cours 0.53 0.50 0.79 0.61 3.594(57) .001 0.48









Note. Ety = écart type.

 

Cinquante-huit étudiants dans la condition “cours magistral” et 89 étudiants dans la condition “activité” ont complété le prétest et le posttest. Le nombre d’accords ainsi que les comparaisons appareillées pour ces deux tests sont présentés dans le Tableau 3. Nous avons également calculé le nombre d’accords moyen pour les quatre scénarios. Il n’y avait aucune différence pour les moyennes des scores au prétest pour ceux ayant complété le prétest et le posttest, N = 148, M = 3.39, ETY = 1.13, et pour ceux qui ont uniquement effectué le prétest, N = 34, M = 3.33, ETY = 1.02, t(180) = – 0.30, p = .767. Ensuite, nous avons mis en place une analyse de variance mixte (ANOVA) 2 (activité vs. cours magistral) x 2 (prétest vs. posttest) pour savoir si le nombre d’accords baissait plus dans le groupe activité ou dans le groupe cours. Nous avons trouvé un effet significatif, et attendu, du temps sur le nombre moyen d’accords. Il n’y avait pas d’effet significatif concernant la condition sur ces moyennes, F(1, 176)=1.21, p=.274, partial Z2 = .007, et aucune interaction entre la condition et le temps sur le nombre d’accords n’a été retrouvé, F(1, 176) = 0.04, p = .837, partiel Z2=.00. Contrairement à nos hypothèses, les étudiants dans la condition activité n’étaient pas moins souvent d’accord avec les affirmations erronées avec le temps, comparés à ceux qui suivaient un cours magistral simple. Nous avons également étudié le nombre d’erreurs détectées pour chaque scénario en fonction du temps et de la condition (voir le Tableau 4). Nous avons fait la somme du nombre d’erreurs identifiées par les participants pour les quatre scénarios, ce qui nous donnait un score global pour le prétest et le posttest pour chaque participant. Il n’y avait aucune différence dans le nombre de défauts retenus au prétest pour les participants ayant complété les deux tests, M = 2.48, ETY = 1.65, et ceux ayant complété le prétest seul, M = 2.64, ETY = 1.71, t(181) = 0.51, p = .614. Le nombre d’erreurs identifiées avec justesse a augmenté pour le groupe cours magistral, prétest M = 2.72, ETY = 1.85; posttest M = 3.12, ETY = 1.88, et le groupe activité, M =2.33, ETY =1.49; posttest M =4.02, ETY =2.17. Nous avons ensuite mis en place une ANOVA mixte 2 (activité vs. cours magistral) x 2 (prétest vs. posttest) pour examiner l’influence de ces facteurs sur le nombre d’erreurs identifiées. Les résultats de cette ANOVA nous permettent d’affirmer qu’il y avait un effet signifcatif du temps sur le nombre d’erreurs détectées correctement, F(1, 145) = 48.22, p < .001, partial Z2 = .25. Il n’y avait pas d’effet significatif de la condition en revanche, F(1, 145) = 0.83, p = .363, partiel Z2=.006, mais nous avons trouvé un effet d’interaction significatif entre la condition et le temps sur le nombre d’erreurs trouvées, F(1, 145) = 18.60, p < .001, partiel Z2 = .11. Ces comparaisons ont montré que les scores du prétest ne variaient pas entre le groupe activité, M=2.33, ETY=1.49, et le groupe cours magistral, M=2.72, ETY=1.85, t(181)=1.16, p=.249, d=0.18. En revanche, les scores de posttest étaient beaucoup plus élevés pour le groupe activité, M = 4.02, ETY = 2.17, que pour l’autre groupe, M=3.12, ETY=1.88, t(145)=2.59, p=.011, d=0.44. De plus, les mêmes questions attitudinales étaient posées lors de l’Expérience 1, et les réponses ont été mesurées selon des échelles allant de 1 (Pas du tout d’accord) à 7 (Tout à fait d’accord). 59% des étudiants ont trouvé que l’activité basée sur des informations pseudoscientifiques était agréable (lui donnant un score de 5, 6 ou 7), et 60% des élèves estimaient que cette activité leur permettait d’améliorer leur compétences en pensée critique (avec un score de 5, 6 ou 7).

 

Discussion Générale

Beaucoup d’études affirment que les interventions longues, élaborées dans le but d’améliorer les compétences en pensée critique, peuvent être efficaces (McLean & Miller, 2010; Penningroth et al., 2007; Wesp & Montgomery, 1998). Cet article décrit une activité courte et facile à reproduire en cours, que les enseignants peuvent utiliser dans ce même but. La plupart des participants ont apprécié cette activité, qui permettait une implication meilleure que celle d’un cours magistral simple. En réalité, nous pensons que les étudiants ont sous-noté leur expérience, pensant que nous voulions qu’ils évaluent le posttest en lui-même et pas l’activité (vidéo et discussion). Quoi qu’il en soit, dans les deux expériences, nous avons constaté une augmentation significative du nombre d’erreurs détectées dans les affirmations – ce qui fait partie des composantes essentielles de la pensée critique – après avoir participé à l’activité. Nous avons également montré que cette tâche d’apprentissage actif était plus efficace qu’un cours magistral traditionnel, traitant le même contenu. Ces interventions brèves sont faciles à reproduire par d’autres enseignants. Youtube est une source de vidéos inépuisable, permettant de trouver aisément le genre de contenu pseudoscientifique que nous cherchons. Il est donc facile d’incorporer ces vidéos au cours. Bien que nous ayons amélioré le protocole expérimental lors de l’Expérience 2, nous n’avons pas affecté les élèves à des groupes de manière aléatoire, ce qui peut être problématique. Cependant, les résultats du prétest ne montraient pas de différences signiificatives entre les classes. De plus, une méta-analyse des recherches empiriques existantes, abordant l’efficacité des outils pédagogiques qui visent à améliorer la pensée critique, n’a pas trouvé de différences d’effets pour le protocole prétest-posttest, qu’il ait été expérimental ou quasi expérimental (Abrami et al., 2008). Ceci nous laisse penser que les résultats auraient été similaires quelle que soit l’attribution des groupes. Une limite de ces deux expériences est la conscience de la présence d’erreurs dans les affirmations des scénarios lors du posttest. Cela a pu pousser les participants à être moins en accord avec ces assertions, sans pour autant influencer la pensée critique. Cependant, lors de l’Expérience 2, le nombre d’erreurs détectées dans le posttest était bien plus important pour le groupe activité que pour le groupe cours magistral, ce qui suggère que la connaissance des consignes de l’exercice n’était pas leur seul atout. Une autre limite est l’accent que nous avons mis sur les effets à court terme. Pour mieux répondre à ces problématiques, il faudrait que d’autres chercheurs utilisent une série d’affirmations différentes dans le posttest, ou mettent en place un protocole intra-groupes sans prétest pour évaluer les compétences en pensée critique à la fin du semestre.

 

Appendice

Scénarios proposés lors de l’activité

Scénario 1: La mère de Bill lui a dit que le fait de prendre de la vitamine C permettait de guérir le rhume. Lorsqu’il a attrapé un rhume, il a bu trois verres de jus d’orange tous les jours pendant 5 jours. Le jus d’orange contient de la vitamine C. À la fin du 5e jour, le rhume était guéri. Bill en a conclu que sa mère avait raison.

Scénario 2: Un scientifique connu, ayant reçu le Prix Nobel, annonce que les aimants peuvent soulager les douleurs dorsales lorsque vous les frottez contre votre dos. Il a trouvé 10 personnes souffrant de ce mal et leur a proposé une thérapie à l’aimant. Après cela, la plupart des participants lui ont affirmé que leurs douleurs s’étaient apaisées. Il en a conclu que les aimants soulageaient effectivement les maux de dos.

Scénario 3: Vous voyez une nouvelle publicité pour un médicament qui augmente la capacité naturelle du corps à se concentrer pendant la conduite. La publicité met en scène un pilote automobile connu qui découvre un circuit qu’il ne connaît pas, avant et après la prise du médicament. Sa performance est bien meilleure la seconde fois, après avoir pris la gélule. La publicité affirme donc que la prise de ce médicament améliore les compétences en conduite.

Scénario 4: Une enseignante se sent mieux lorsqu’elle porte des couleurs vives. Elle pense alors que ces vêtements peuvent aussi améliorer l’humeur des personnes autour d’elles. Elle propose donc cette expérience à ses étudiants. Elle porte des couleurs mornes lors de son cours du matin, comportant 45 élèves, et des vêtements très colorés lors de son cours de l’après-midi, composé du même nombre d’étudiants. Elle affirme que ceux du cours de l’après-midi étaient plus vifs et souriaient davantage. Elle en conclut que le fait de porter des couleurs vives améliore l’humeur des gens.

  1. Jusqu’à quel point étes-vous d’accord ou pas d’accord avec cette conclusion ?

Pas du tout d’accord 1 2 3 4 5 6 7 Tout à fait d’accord

  1. Donnez autant de raisons spécifiques que possible pour expliquer en quoi les preuves avancées vous convainquent ou ne vous convainquent pas de la validité de cette affirmation.

 

Note de l’auteur

Nous remercions Robert Lipinski, Brittany Sizemore, Hannah Hatton, et Alicia Barnickle pour leur aide tout au long de ce projet.

 

Déclaration de conflits d’intérets

Les auteurs affirment qu’il n’y eu aucun conflit d’intérêts concernant la recherche, l’écriture et/ou la publication de cet article.

 

Financement

Les auteurs n’ont reçu aucun soutien financier pour la recherche, l’écriture, et/ou la publication de cet article.

 

Notifications

  • Cet article a été traduit en français de sa version originale avec la permission de la Division no 2 de l’American Psychological Association (APA). La Division no 2 ne garantit pas la précision de la traduction française ; la traduction n’étant pas produite par l’APA. Pour des questions concernant cet article ou tout autre publication de la Division no 2 de l’American Psychological Association, merci de contacter [email protected]
  • Cet article a été traduit de l’anglais par Laetitia Ribeyre, psychologue, Ecole de Psychologues Praticiens.

 

Références

Abrami, P. C., Bernard, R. M., Borokhovski, E., Wadem, A., Surkes, M. A., Tamim, R., & Zhang, D. (2008). Instructional interventions affecting critical thinking skills and dispositions: A stage 1 meta- analysis. Review of Educational Research, 78, 1102–1134. doi: 10.3102/0034654308326084

Behar-Horenstein, L. S., & Niu, L. (2011).Teaching critical thinking skills in higher education: A review of the literature. Journal of College Teaching and Learning, 8, 25–42.

Bensley, D. A. (1998). Critical thinking in psychology: A unified skills approach. Pacific Grove, CA: Brooks/Cole.

Bensley, D. A., Crowe, D. S., Bernhardt, P., Buckner, C., & Allman, A. L. (2010). Teaching and assessing critical thinking skills for argument analysis in psychology. Teaching of Psychology, 37, 91–96. doi:10.1080/00986281003626656

Blessing, S. B., & Blessing, J. S. (2010). PsychBusters: A means of fostering critical thinking in the introductory course. Teaching of Psychology, 37, 178–182. doi:10.1080/00986283.2010.488540

Halpern, D. F. (1998). Teaching critical thinking for transfer across domains. Dispositions, skills, structure training, and metacognitive monitoring. American Psychologist, 53, 449–455. doi:10.1037/ 0003-066X.53.4.449

Lawson, T. J. (1999). Assessing psychological critical thinking as a learning outcome for psychology majors. Teaching of Psychology, 26, 207–209. doi:10.1207/S15328023TOP260311

McLean, C. P., & Miller, N. A. (2010). Changes in critical thinking skills following a course on science and pseudoscience: A quasi- experimental study. Teaching of Psychology, 37, 85–90. doi:10. 1080/00986281003626714

Penningroth, S. L., Despain, L. H., & Gray, M. J. (2007). A course designed to improve psychological critical thinking. Teaching of Psychology, 34, 153–157. doi:10.1080/00986280701498509

Wesp, R., & Montgomery, K. (1998). Developing critical thinking through the study of paranormal phenomenon. Teaching of Psychology, 25, 27–278. doi:10.1080/00986289809709714

Yoder, J. D., & Hochevar, C. M. (2005). Encouraging active learning can improve students’ performance on examinations. Teaching of Psychology, 32, 91–95. doi:10.1207/s15328023top3202_2

 

[i] Ce sont des effets générés par l’ordre dans lequel les questions sont posées (Heiman, 2002). Par exemple, il peut y avoir une grande réactivité lors des premières questions et, lorsque la liste de questions s’allonge, l’ennui peut s’installer et avoir un impact sur les réponses.

[ii] Si les participants ont pu s’entrainer avant l’expérience, ceci peut avoir un effet sur leur performance (Heiman, 2002).


APS regularly opens certain online articles for discussion on our website. Effective February 2021, you must be a logged-in APS member to post comments. By posting a comment, you agree to our Community Guidelines and the display of your profile information, including your name and affiliation. Any opinions, findings, conclusions, or recommendations present in article comments are those of the writers and do not necessarily reflect the views of APS or the article’s author. For more information, please see our Community Guidelines.

Please login with your APS account to comment.