Utiliser des activités basées sur des affirmations

publicité
Utiliser des activités basées sur des affirmations
pseudoscientifiques pour enseigner la pensée critique
Aimee Adam1 et Todd M. Manson1
1
1
School of Social Sciences, Indiana University Southeast, New Albany, IN, USA
Auteur à joindre pour la correspondance :
Aimee Adam, School of Social Sciences, Indiana University Southeast, 4201 Grant
Abstract
In two studies, we assessed the effectiveness of a classroom activity designed to increase students’ ability to
think critically. This activity involved watching and discussing an infomercial that contained pseudoscientific
claims, thus incorporating course material on good research design and critical thinking. In Study 1, we used a
pretest–posttest design. After the activity, students were significantly more likely to correctly identify flaws in a
series of claims. In Study 2, we compared the effectiveness of this activity to a traditional course. Participation in
the activity was more effective at increasing students’ ability to critically evaluate claims than the course. These
results suggest that short-term interventions to increase critical thinking can be successful and can be made
interesting for students.
Keywords
critical thinking, pseudoscience activity, active learning
Résumé
Lors de deux expériences, nous avons évalué l’efficacité d’une activité en classe, élaborée pour améliorer les
compétences en pensée critique de nos élèves. Pendant cette activité, ils regardaient des publicités contenant des
affirmations pseudoscientifiques, puis en discutaient. Ceci permettait donc de mettre en jeu la pensée critique et
de comprendre l’élaboration de protocoles de recherche en cours. Lors de l’Expérience 1, nous avons utilisé un
protocole prétest-posttest. Après l’activité, les étudiants identifiaient avec beaucoup plus de facilité les défauts ou
les failles dans une série d’affirmations. Dans l’Expérience 2, nous avons comparé l’efficacité de cette activité
avec celle d’un cours magistral traditionnel. La participation à l’exercice en cours permettait aux élèves de
développer plus de sens critique. Ces résultats suggèrent que des interventions courtes peuvent augmenter de
manière efficace les compétences en pensée critique et devenir intéressantes pour les étudiants.
Mots-clés
pensée critique, activité basée sur des affirmations pseudoscientifiques, apprentissage actif
1
Adam, A. & Manson, T.M. (2014). Using a pseudoscience activity to teach critical thinking. Teaching of
Psychology 42, 130-134.
La pensée critique est définie comme l’évaluation engagée, efficace et critique de ses propres croyances,
ainsi que celles des autres (pour une revue de la littérature à ce sujet, voir Behar-Horenstein & Niu, 2011). En
développant ses capacités de réflexion critique, il est possible d’évaluer des affirmations ou des arguments
permettant ainsi que des conclusions logiques puissent être tirées (Bensley, 1998; Halpern, 1998). Cette
compétence est essentielle en psychologie mais aussi dans le quotidien. Enseigner cette compétence est
primordial, ce qui explique la multiplication de recherches récentes, plus ou moins concluantes, qui tentent de
trouver des interventions qui permettraient de la développer (Abrami et al., 2008). En général, la discipline de la
psychologie semble améliorer ces compétences de manière efficace. Par exemple, des étudiants en master de
psychologie identifiaient plus d’informations erronées ou de défauts dans une série d’affirmations (tels que
l’appui sur des preuves purement anecdotiques, la confusion entre corrélation et causalité et la présence de
variables indépendantes ou parasites) que les élèves en master de sciences naturelles, ou encore les licenciés en
psychologie (Lawson, 1999). De la même façon, le nombre de cours de psychologie auxquels un étudiant s’est
inscrit est corrélé à sa capacité à analyser des arguments (Bensley, Crowe, Bernhardt, Buckner, & Allman, 2010).
Certains chercheurs ont utilisé des techniques similaires à celles de Lawson (1999) pour évaluer l’efficacité de
leurs cours dans l’amélioration de la pensée critique. Après avoir participé à ces cours, spécialement élaborés dans
ce but, les étudiants savaient évaluer des arguments plus justement (Bensley et al., 2010; Blessing & Blessing,
2010), identifier des preuves non-scientifiques (McLean & Miller, 2010; Penningroth, Despain, & Gray, 2007)
expliquer les défauts dans des affirmations et proposer des explications alternatives (Wesp & Montgomery, 1998).
Ils avaient également moins tendance à avoir des croyances paranormales (McLean & Miller, 2010) que ceux qui
suivaient des cours où la pensée critique n’était pas au cœur des objectifs. De manière générale, les études
récentes démontrent que des interventions longues (pendant tout un semestre ou pour un projet en cours
important) qui mettent l’accent sur un aspect de la psychologie ont généralement augmenté la capacité des
étudiants à évaluer des affirmations avec succès. Cependant, ces interventions nécessitent un temps de classe
important que certains enseignants ne peuvent pas leur allouer, et il peut donc être difficile de conceptualiser des
activités qui encouragent la pensée critique. L’article que vous allez lire décrit des activités d’apprentissage actif
courtes comprenant une discussion autour de données pseudoscientifiques issues de publicités. Cet exercice aide
les étudiants à évaluer les affirmations qu’elles présentent et à identifier leurs erreurs scientifiques majeures.
Comparées aux cours magistraux et à la simple lecture (Yoder & Hochevar, 2005), les techniques d’apprentissage
actif, dans lesquelles les étudiants produisent eux-mêmes des connaissances, peuvent mieux aider les étudiants à
améliorer leurs résultats aux examens. Nous avons conçu cette activité pour qu’elle soit à la fois intéressante et
facilement reproductible par d’autres enseignants. Dans cet article, deux expériences évaluent son efficacité, l’une
utilisant un protocole prétest-posttest et l’autre comparant l’activité à un cours magistral traditionnel traitant du
même sujet.
Expérience 1
Lors de cette première expérience quasi expérimentale, les participants ont dû lire quatre déclarations
erronées, indiquer à quel point ils étaient d’accord avec ces affirmations et évaluer la valeur des preuves avancées
pour chacune d’entre elles. Nous avons fait l’hypothèse qu’après cette activité, les participants (a) seraient moins
souvent d’accord avec les affirmations erronées et (b) en identifieraient correctement les erreurs.
Méthode
Participants
Soixante-six étudiants, dont 40 femmes, se sont inscrits dans l’un des deux cours d’introduction à la
psychologie enseignés par les auteurs de cette étude. La majorité d’entre eux étaient blancs.
Mesure
Nous avons effectué nos mesures en nous basant sur le travail de Lawson (1999). Nous avons mesuré la
pensée critique en utilisant un prétest et un posttest, pour lesquels les participants évaluaient une série de quatre
affirmations erronées, élaborées par les chercheurs. Chaque assertion venait d’une source différente : un parent,
un scientifique, une publicité et un enseignant. Ceci encourageait les étudiants à transférer leurs compétences en
pensée critique à des situations du quotidien (Halpern, 1998). Les affirmations sont détaillées dans l’Appendice.
Les participants devaient lire chaque déclaration et indiquaient leur degré de consensus sur une échelle allant de 1
(Pas du tout d’accord) à 7 (Tout à fait d’accord). Ils devaient ensuite lister toutes les raisons pour lesquelles les
preuves avancées n’étaient pas convaincantes, remettant en cause leur validité. Nous avons écrit ces affirmations
pour qu’elles comprennent un ou deux des défauts suivants : un appui trop important sur des preuves empiriques,
une trop grande place laissée au hasard, des échantillons trop restreints, aucun groupe de contrôle, la confusion
entre corrélation et lien de causalité, des différences entre les participants d’un même groupe, l’effet placébo,
l’effet-expérimentateur, des effets de l’ordrei et des effets de la pratiqueii. Nous avons codé le nombre d’erreurs
correctement identifiées par chaque participant, sans savoir si les données étaient issues d’un prétest ou d’un
posttest. Nous nous sommes entraînés pour ce codage de données avec les résultats d’une troisième classe, pour
discuter de nos résultats avant de coder ceux des deux classes de l’étude. Puis, nous avons calculé la fidélité intercotateurs en faisant une corrélation entre les scores, codés séparément, de nos participants lors des deux tests. La
fidélité pour le prétest était de 0.87 et de 0.90 pour le posttest. Nous avons ensuite fait la moyenne du nombre
d’erreurs identifiées correctement par chaque participant.
Protocole
Un cours de 75 minutes était prévu pour
cette activité basée sur des affirmations
pseudoscientifiques. Nous l’avons mise
en place lors des deux premières
semaines du semestre, avant que son
contenu puisse être abordé en cours.
Nous
n’avons
demandé
aucune
préparation particulière aux étudiants. Le
comité
d’examen
institutionnel
de
l’université a approuvé notre méthode et
nos outils. Les participants ont reçu une fiche explicative et ont ensuite complété le prétest. Après que les prétests
ont été ramassés, la classe a visionné une publicité de 2 minutes pour des bracelets iRenew, trouvée sur Youtube.
Cette publicité décrit les bénéfices de ce bracelet, qui donnerait plus d’énergie, de force et d’équilibre en utilisant
les fréquences naturelles du corps. Elle comportait des anecdotes de consommateurs, des témoignages
« d’experts » et des démonstrations d’équilibre effectuées dans un centre commercial. En effet, les clients
devaient tenir leurs mains serrés dans leur dos, puis l’expérimentateur exerçait une pression sur leurs mains, leur
faisant perdre l’équilibre. Les participants affirmaient avoir plus d’équilibre lorsqu’ils portaient le bracelet. Les
étudiants ont regardé cette publicité deux fois, et nous leur avons demandé leur avis concernant les affirmations et
les preuves présentées. Nous avons divisé les élèves en groupes en leur demandant (a) d’identifier les déclarations
de la publicité, (b) d’identifier les preuves apportées pour les soutenir et (c) de les évaluer. Enfin, les groupes ont
discuté d’une manière de tester eux-mêmes la validité des propos tenus. Après environ 10 minutes, les groupes
ont partagé leurs idées avec le reste de la classe. La classe a identifié et discuté des erreurs suivantes (qui sont
fréquentes en pseudoscience) : les effets de l’ordre, les effets placébos, l’utilisation abusive des preuves
anecdotiques, des échantillons trop réduits, une méconnaissance des explications alternatives et l’effetexpérimentateur. Les participants ont également dû évaluer la source dont émanaient les preuves et les assertions.
Nous avons facilité la mise en place de ces discussions en leur fournissant la terminologie précise correspondant à
leurs observations, et en leur assurant que les deux classes avaient identifié les mêmes erreurs avec succès. Après
ce dialogue, les participants ont effectué un posttest de manière individuelle. Il était constitué des quatre scénarios
vus précédemment, et nous avons demandé aux participants de réévaluer les affirmations une nouvelle fois. Ils ont
ensuite évalué l’activité qu’on leur avait proposée.
Résultats
Nous avons effectué 4 tests de Student sur échantillons appareillés pour analyser les différences
concernant le nombre d’accords pour chaque affirmation. Chacun des 4 tests avait un résultat significatif qui
confirmait notre hypothèse (voir le Tableau 2). Les participants avaient moins tendance à être d’accord avec les
déclarations erronées après l’activité en classe. En utilisant cette méthode d’analyse, nous avons comparé le
nombre total d’erreurs repérées pour les quatre affirmations du prétest et du posttest (cf. Tableau 2 pour voir les
différences concernant le nombre de défauts repérés pour chaque scénario).
Comme dans nos hypothèses, les participants ont identifié un nombre bien plus important d’erreurs après
l’activité en classe, M=5.72, ETY=2.73, comparé à leurs évaluations pré-activité, M = 4.00, ETY = 2.23, t(65) =
6.86, p < .001,d = 0.84. Après le posttest, les participants ont évalué l’activité en notant s’ils l’avaient trouvée
agréable, s’ils pensaient qu’elle avait permis de développer leurs capacités de pensée critique et si elle était
adaptée au cours. Nous leur avons proposé une échelle Likert en 5 points. Les deux tiers des participants (65%)
l’ont considérée agréable (en lui donnant en score de 4 ou 5). De la même façon, 72% d’entre eux l’ont considérée
utile dans le développement de leurs compétences en pensée critique.
Discussion
De manière générale, après l’activité
proposée, les élèves parvenaient à mieux
identifier les erreurs scientifiques des
déclarations issues de publicités, et cette
compétence constitue un des aspects
majeurs de la pensée critique. Cette étude
suggère que les interventions brèves
peuvent améliorer la pensée critique de
manière aussi efficace que les interventions plus chronophages. Cependant, une limite de cette étude est son
protocole prétest-posttest. Bien que nous ayons démontré que les étudiants ont identifié plus d’erreurs lors du
posttest, nous ne savions pas si la méthode d’apprentissage actif aurait été plus efficace qu’une autre méthode
pédagogique. Nous avons donc mis en place l’Expérience 2 pour répondre à cette question.
Expérience 2
Lors de cette deuxième étude, nous avons effectué une expérience quasi expérimentale 2 (condition :
activité basée sur des données pseudoscientifiques vs. cours magistral) X 2 (temps : prétest vs. posttest) qui
comparait les améliorations en pensée critique après la mise en place d’une activité ou d’un cours magistral
traditionnel. Nous avons à nouveau mesuré le degré d’accord pour chaque affirmation et le nombre d’erreurs
identifiées correctement. Notre hypothèse était qu’il y aurait un effet significatif important du temps sur le degré
d’accord, c’est-à-dire que les participants seraient moins d’accord avec les informations erronées lors du posttest.
Nous avions également une hypothèse selon laquelle il y aurait un effet d’interaction significatif entre le temps et
la condition. En effet, selon nous, les participants aux activités de groupe seraient moins d’accord avec ces
informations fausses. Nous pensions également qu’il y aurait un effet signicatif du temps et une interaction
importante entre le temps et la condition en rapport avec le nombre d’erreurs identifiées. Les participants des
activités de groupe identifieraient donc plus d’erreurs.
Méthode
Participants
Les étudiants inscrits dans l’un de nos quatre cours d’introduction à la psychologie ont participé à cette
expérience. Chaque auteur était l’enseignant de l’un de ces cours ; un troisième professeur donnait les deux cours
restants. Les participants avaient entre 18 et 43 ans (M=20.41, ETY=4.32). Environ la moitié d’entre eux étaient
des hommes (47%).
Mesure et Protocole
Nous avons mis en place les mêmes mesures et la même procédure que lors de l’Expérience 1, hormis
quelques exceptions. Lors de l’Expérience 2 nous avons utilisé un protocole dans lequel nous avons proposé une
activité à deux classes. Les deux classes restantes ont abordé le même contenu sous forme de cours magistral. À
nouveau, nous avons proposé l’activité durant les deux premières semaines du semestre, avant d’avoir traité le
contenu en cours. Chacun d’entre nous a visité un cours d’introduction à la psychologie enseigné par un autre
professeur pour y proposer une de ces activités basées sur des données pseudoscientifiques. Nos propres classes
constituaient donc les groupes « cours magistral ». Nous avons proposé un cours d’introduction à la psychologie
classique, sur la méthode scientifique et les protocoles expérimentaux de base. Nous y avons abordé l’importance
de la méthode scientifique dans la réponse aux questions, pour montrer que le simple appui sur l’expérience
personnelle ou des preuves anecdotiques était insuffisant. En utilisant différents exemples, nous avons abordé les
concepts principaux de l’expérimentation, les variables indépendantes potentielles et les explications alternatives
(par exemple, l’effet de l’ordre, l’effet placébo, l’effet-expérimentateur, les différences entre les groupes), ainsi
que la façon d’expliquer comment une variable peut être indépendante, ou parasite. Ce cours magistral définissait
et décrivait les mêmes erreurs que l’activité en classe. La différence majeure entre ces deux approches était que
les étudiants en groupe proposaient eux-mêmes des exemples et des descriptions, grâce à la discussion. Dans
l’Expérience 2, les participants n’ont pas complété le prétest et le posttest le même jour, car les participants
semblaient fatigués lors de l’Expérience 1 et ne répondaient plus aux dernières questions. Nous avons proposé le
prétest à tous les groupes lors de la première semaine du semestre, et nous avons mis en place l’activité, le cours
magistral et le posttest la semaine suivante. La fidélité inter-cotateurs entre les auteurs était très importante lors de
l’Expérience 1, donc nous avons chacun codé la moitié des scores sans savoir dans quelle condition le participant
se trouvait.
Résultats
Tableau 3. Changements concernant l’accord avec les affirmations de l’Étude 2
Prétest
Scénario Condition
M
1
Activité
3.62 1.56
2.64 1.45
6.92(88)
<.001 0.78
Cours
3.57 1.59
2.73 1.56
4.29(58)
<.001 0.58
Activité
3.71 1.62
2.63 1.58
5.76(88)
<.001 0.59
Cours
4.03 1.62
2.97 1.68
5.19(57)
<.001 0.63
Activité
2.21 1.50
1.52 0.77
4.33(88)
<.001 0.53
Cours
2.51 1.58
1.92 1.13
2.58(58)
.012 0.36
Activité
3.86 2.13
2.69 1.89
6.58(88)
<.001 0.67
Cours
3.70 1.91
3.03 1.94
2.81(58)
.007 0.38
2
3
4
Note. Ety = écart type.
Ety
Posttest
M
Ety
t (df)
p
d
Tableau 4. Différences concernant le nombre de défauts détectés dans l’Étude 2
Prétest
Scénario Condition M
1
2
3
4
Posttest
Ety
M
Ety
t (df)
p
Activité
0.76 0.62
1.06
0.83
3.72(88) <.001
0.42
Cours
0.81 0.78
0.78
0.70
0.32(57)
.749
0.04
Activité
0.55 0.62
1.04
0.88
5.08(88) <.001
0.55
Cours
0.65 0.79
0.84
0.70
1.85(56)
0.24
Activité
0.48 0.62
1.16
0.72
7.26(88) <.001
0.78
Cours
0.74 0.58
0.72
0.64
0.17(57)
0.03
Activité
0.55 0.60
0.76
0.69
2.82(88) <.01
0.30
Cours
0.53 0.50
0.79
0.61
3.594(57) .001
0.48
.07
.867
d
Note. Ety = écart type.
Cinquante-huit étudiants dans la condition “cours magistral” et 89 étudiants dans la condition “activité”
ont complété le prétest et le posttest. Le nombre d’accords ainsi que les comparaisons appareillées pour ces deux
tests sont présentés dans le Tableau 3. Nous avons également calculé le nombre d’accords moyen pour les quatre
scénarios. Il n’y avait aucune différence pour les moyennes des scores au prétest pour ceux ayant complété le
prétest et le posttest, N = 148, M = 3.39, ETY = 1.13, et pour ceux qui ont uniquement effectué le prétest, N = 34,
M = 3.33, ETY = 1.02, t(180) = - 0.30, p = .767. Ensuite, nous avons mis en place une analyse de variance mixte
(ANOVA) 2 (activité vs. cours magistral) x 2 (prétest vs. posttest) pour savoir si le nombre d’accords baissait plus
dans le groupe activité ou dans le groupe cours. Nous avons trouvé un effet significatif, et attendu, du temps sur le
nombre moyen d’accords. Il n’y avait pas d’effet significatif concernant la condition sur ces moyennes, F(1,
176)=1.21, p=.274, partial Z2 = .007, et aucune interaction entre la condition et le temps sur le nombre d’accords
n’a été retrouvé, F(1, 176) = 0.04, p = .837, partiel Z2=.00. Contrairement à nos hypothèses, les étudiants dans la
condition activité n’étaient pas moins souvent d’accord avec les affirmations erronées avec le temps, comparés à
ceux qui suivaient un cours magistral simple. Nous avons également étudié le nombre d’erreurs détectées pour
chaque scénario en fonction du temps et de la condition (voir le Tableau 4). Nous avons fait la somme du nombre
d’erreurs identifiées par les participants pour les quatre scénarios, ce qui nous donnait un score global pour le
prétest et le posttest pour chaque participant. Il n’y avait aucune différence dans le nombre de défauts retenus au
prétest pour les participants ayant complété les deux tests, M = 2.48, ETY = 1.65, et ceux ayant complété le
prétest seul, M = 2.64, ETY = 1.71, t(181) = 0.51, p = .614. Le nombre d’erreurs identifiées avec justesse a
augmenté pour le groupe cours magistral, prétest M = 2.72, ETY = 1.85; posttest M = 3.12, ETY = 1.88, et le
groupe activité, M =2.33, ETY =1.49; posttest M =4.02, ETY =2.17. Nous avons ensuite mis en place une
ANOVA mixte 2 (activité vs. cours magistral) x 2 (prétest vs. posttest) pour examiner l’influence de ces facteurs
sur le nombre d’erreurs identifiées. Les résultats de cette ANOVA nous permettent d’affirmer qu’il y avait un
effet signifcatif du temps sur le nombre d’erreurs détectées correctement, F(1, 145) = 48.22, p < .001, partial Z2 =
.25. Il n’y avait pas d’effet significatif de la condition en revanche, F(1, 145) = 0.83, p = .363, partiel Z2=.006,
mais nous avons trouvé un effet d’interaction significatif entre la condition et le temps sur le nombre d’erreurs
trouvées, F(1, 145) = 18.60, p < .001, partiel Z2 = .11. Ces comparaisons ont montré que les scores du prétest ne
variaient pas entre le groupe activité, M=2.33, ETY=1.49, et le groupe cours magistral, M=2.72, ETY=1.85,
t(181)=1.16, p=.249, d=0.18. En revanche, les scores de posttest étaient beaucoup plus élevés pour le groupe
activité, M = 4.02, ETY = 2.17, que pour l’autre groupe, M=3.12, ETY=1.88, t(145)=2.59, p=.011, d=0.44. De
plus, les mêmes questions attitudinales étaient posées lors de l’Expérience 1, et les réponses ont été mesurées
selon des échelles allant de 1 (Pas du tout d’accord) à 7 (Tout à fait d’accord). 59% des étudiants ont trouvé que
l’activité basée sur des informations pseudoscientifiques était agréable (lui donnant un score de 5, 6 ou 7), et 60%
des élèves estimaient que cette activité leur permettait d’améliorer leur compétences en pensée critique (avec un
score de 5, 6 ou 7).
Discussion Générale
Beaucoup d’études affirment que les interventions longues, élaborées dans le but d’améliorer les
compétences en pensée critique, peuvent être efficaces (McLean & Miller, 2010; Penningroth et al., 2007; Wesp
& Montgomery, 1998). Cet article décrit une activité courte et facile à reproduire en cours, que les enseignants
peuvent utiliser dans ce même but. La plupart des participants ont apprécié cette activité, qui permettait une
implication meilleure que celle d’un cours magistral simple. En réalité, nous pensons que les étudiants ont sousnoté leur expérience, pensant que nous voulions qu’ils évaluent le posttest en lui-même et pas l’activité (vidéo et
discussion). Quoi qu’il en soit, dans les deux expériences, nous avons constaté une augmentation significative du
nombre d’erreurs détectées dans les affirmations – ce qui fait partie des composantes essentielles de la pensée
critique – après avoir participé à l’activité. Nous avons également montré que cette tâche d’apprentissage actif
était plus efficace qu’un cours magistral traditionnel, traitant le même contenu. Ces interventions brèves sont
faciles à reproduire par d’autres enseignants. Youtube est une source de vidéos inépuisable, permettant de trouver
aisément le genre de contenu pseudoscientifique que nous cherchons. Il est donc facile d’incorporer ces vidéos au
cours. Bien que nous ayons amélioré le protocole expérimental lors de l’Expérience 2, nous n’avons pas affecté
les élèves à des groupes de manière aléatoire, ce qui peut être problématique. Cependant, les résultats du prétest
ne montraient pas de différences significatives entre les classes. De plus, une méta-analyse des recherches
empiriques existantes, abordant l’efficacité des outils pédagogiques qui visent à améliorer la pensée critique, n’a
pas trouvé de différences d’effets pour le protocole prétest-posttest, qu’il ait été expérimental ou quasi
expérimental (Abrami et al., 2008). Ceci nous laisse penser que les résultats auraient été similaires quelle que soit
l’attribution des groupes. Une limite de ces deux expériences est la conscience de la présence d’erreurs dans les
affirmations des scénarios lors du posttest. Cela a pu pousser les participants à être moins en accord avec ces
assertions, sans pour autant influencer la pensée critique. Cependant, lors de l’Expérience 2, le nombre d’erreurs
détectées dans le posttest était bien plus important pour le groupe activité que pour le groupe cours magistral, ce
qui suggère que la connaissance des consignes de l’exercice n’était pas leur seul atout. Une autre limite est
l’accent que nous avons mis sur les effets à court terme. Pour mieux répondre à ces problématiques, il faudrait que
d’autres chercheurs utilisent une série d’affirmations différentes dans le posttest, ou mettent en place un protocole
intra-groupes sans prétest pour évaluer les compétences en pensée critique à la fin du semestre.
Appendice
Scénarios proposés lors de l’activité
Scénario 1: La mère de Bill lui a dit que le fait de prendre de la vitamine C permettait de guérir le rhume.
Lorsqu’il a attrapé un rhume, il a bu trois verres de jus d’orange tous les jours pendant 5 jours. Le jus d’orange
contient de la vitamine C. À la fin du 5e jour, le rhume était guéri. Bill en a conclu que sa mère avait raison.
Scénario 2: Un scientifique connu, ayant reçu le Prix Nobel, annonce que les aimants peuvent soulager les
douleurs dorsales lorsque vous les frottez contre votre dos. Il a trouvé 10 personnes souffrant de ce mal et leur a
proposé une thérapie à l’aimant. Après cela, la plupart des participants lui ont affirmé que leurs douleurs s’étaient
apaisées. Il en a conclu que les aimants soulageaient effectivement les maux de dos.
Scénario 3: Vous voyez une nouvelle publicité pour un médicament qui augmente la capacité naturelle du corps à
se concentrer pendant la conduite. La publicité met en scène un pilote automobile connu qui découvre un circuit
qu’il ne connaît pas, avant et après la prise du médicament. Sa performance est bien meilleure la seconde fois,
après avoir pris la gélule. La publicité affirme donc que la prise de ce médicament améliore les compétences en
conduite.
Scénario 4: Une enseignante se sent mieux lorsqu’elle porte des couleurs vives. Elle pense alors que ces
vêtements peuvent aussi améliorer l’humeur des personnes autour d’elles. Elle propose donc cette expérience à
ses étudiants. Elle porte des couleurs mornes lors de son cours du matin, comportant 45 élèves, et des vêtements
très colorés lors de son cours de l’après-midi, composé du même nombre d’étudiants. Elle affirme que ceux du
cours de l’après-midi étaient plus vifs et souriaient davantage. Elle en conclut que le fait de porter des couleurs
vives améliore l’humeur des gens.
1.
Jusqu’à quel point étes-vous d’accord ou pas d’accord avec cette conclusion ?
Pas du tout d’accord 1 2 3 4 5 6 7 Tout à fait d’accord
2.
Donnez autant de raisons spécifiques que possible pour expliquer en quoi les preuves avancées vous
convainquent ou ne vous convainquent pas de la validité de cette affirmation.
Note de l’auteur
Nous remercions Robert Lipinski, Brittany Sizemore, Hannah Hatton, et Alicia Barnickle pour leur aide tout au
long de ce projet.
Déclaration de conflits d’intérets
Les auteurs affirment qu’il n’y eu aucun conflit d’intérêts concernant la recherche, l’écriture et/ou la publication
de cet article.
Financement
Les auteurs n’ont reçu aucun soutien financier pour la recherche, l’écriture, et/ou la publication de cet article.
Références
Abrami, P. C., Bernard, R. M., Borokhovski, E., Wadem, A., Surkes, M. A., Tamim, R., & Zhang, D. (2008).
Instructional interventions affecting critical thinking skills and dispositions: A stage 1 meta- analysis. Review of
Educational Research, 78, 1102–1134. doi: 10.3102/0034654308326084
Behar-Horenstein, L. S., & Niu, L. (2011).Teaching critical thinking skills in higher education: A review of the
literature. Journal of College Teaching and Learning, 8, 25–42. Bensley, D. A. (1998). Critical thinking in
psychology: A unified skills approach. Pacific Grove, CA: Brooks/Cole.
Bensley, D. A., Crowe, D. S., Bernhardt, P., Buckner, C., & Allman, A. L. (2010). Teaching and assessing critical
thinking
skills
for
argument
analysis
in
psychology.
Teaching
of
Psychology,
37,
91–96.
doi:10.1080/00986281003626656
Blessing, S. B., & Blessing, J. S. (2010). PsychBusters: A means of fostering critical thinking in the introductory
course. Teaching of Psychology, 37, 178–182. doi:10.1080/00986283.2010.488540
Halpern, D. F. (1998). Teaching critical thinking for transfer across domains. Dispositions, skills, structure
training, and metacognitive monitoring. American Psychologist, 53, 449–455. doi:10.1037/ 0003-066X.53.4.449
Lawson, T. J. (1999). Assessing psychological critical thinking as a learning outcome for psychology majors.
Teaching of Psychology, 26, 207–209. doi:10.1207/S15328023TOP260311
McLean, C. P., & Miller, N. A. (2010). Changes in critical thinking skills following a course on science and
pseudoscience:
A
quasi-
experimental
study.
Teaching
of
Psychology,
37,
85–90.
doi:10.
1080/00986281003626714
Penningroth, S. L., Despain, L. H., & Gray, M. J. (2007). A course designed to improve psychological critical
thinking. Teaching of Psychology, 34, 153–157. doi:10.1080/00986280701498509
Wesp, R., & Montgomery, K. (1998). Developing critical thinking through the study of paranormal phenomenon.
Teaching of Psy- chology, 25, 27–278. doi:10.1080/00986289809709714
Yoder, J. D., & Hochevar, C. M. (2005). Encouraging active learning can improve students’ performance on
examinations. Teaching of Psychology, 32, 91–95. doi:10.1207/s15328023top3202_2
Notifications
 Cet article a été traduit en français de sa version originale avec la permission de la
Division no 2 de l’American Psychological Association (APA). La Division no 2 ne
garantit pas la précision de la traduction française ; la traduction n’étant pas produite
par l’APA. Pour des questions concernant cet article ou tout autre publication de la
Division no 2 de l’American Psychological Association, merci de contacter
[email protected]
 Cet article a été traduit de l’anglais par Laetitia Ribeyre, Psychologue, Ecole de
Psychologues Praticiens
Ce sont des effets générés par l’ordre dans lequel les questions sont posées (Heiman, 2002). Par exemple, il
peut y avoir une grande réactivité lors des premières questions et, lorsque la liste de questions s’allonge, l’ennui
peut s’installer et avoir un impact sur les réponses.
ii
Si les participants ont pu s’entrainer avant l’expérience, ceci peut avoir un effet sur leur performance (Heiman,
2002).
i
Téléchargement