Introduction et « lecture conseillées

publicité
1/
6
LES FONDEMENTS
COGNITIFS DE
L’INTELLIGENCE
Les travaux des psychologues factorialistes dans le domaine de l’intelligence ont
permis d’édifier des représentations fournissant une description de la structure des
aptitudes intellectuelles commune à tous les individus à partir de l’information
apportée par les tests (cf. chapitre 3). Pour autant, ces approches descriptives
n’informent que très peu sur les processus intellectuels qui sous-tendent la
performance observée aux tests. Comment alors atteindre, au-delà du constat des
différences de performance, les mécanismes ayant engendré celles-ci ?
Avec l’essor, vers la fin des années 50, de la psychologie cognitive générale et le
développement de méthodes de recherche permettant une exploration fine des
processus mentaux mis en œuvre dans le fonctionnement cognitif, les psychologues
différentialistes ont progressivement pris conscience des avantages à tirer de
l’application des outils conceptuels et méthodologiques de l’approche du traitement
de l’information à l’étude des aspects cognitifs des différences individuelles. Ainsi
est né un domaine d’investigation original se proposant d’appliquer les approches
expérimentale et différentielle à l’étude de la relation entre mécanismes cognitifs et
intelligence mesurée par les tests. L’intégration de l’approche fonctionnelle de la
cognition et de l’analyse des différences individuelles offre des perspectives très
intéressantes. Elle contribue tout d’abord à l’identification des mécanismes cognitifs
qui sous-tendent les différences de performance aux tests. A ce titre, elle éclaire sous
un autre jour les théories de l’intelligence et des aptitudes humaines. Elle contribue
aussi à l’identification de variations individuelles dont le caractère systématique a
pu échapper aux théories générales de la cognition mais doit être pris en compte.
Ce chapitre illustre la diversité des points de vue et des méthodes d’investigation
mises en œuvre pour réaliser ce projet. Nous verrons qu’un premier ensemble de
travaux a échoué à « localiser » les processus élémentaires responsables des
différences d’efficience intellectuelle. Une autre direction de recherche combinant
les approches expérimentale et différentielle s’est intéressée aux ressources de
traitement du système cognitif humain en tant que composante stable et générale de
la cognition. Les résultats obtenus n’éclairent cependant que très partiellement les
différences individuelles de performance aux tests d’intelligence. On peut également
douter de la valeur d’une explication générale des différences de performance aux
tests d’intelligence tant est grande la diversité inter- et intra-individuelle des
stratégies de résolution mises en œuvre, tant est complexe le jeu des relations entre
processus de haut niveau (impliqués par exemple dans la planification et la sélection
des stratégies, la surveillance et le contrôle de l’activité cognitive, etc.) et
connaissances générales ou plus spécifiques.
L’examen d’ensemble des faits d’expérience dont certains sont présentés et discutés
dans ce chapitre suggère que le produit de l’activité cognitive doit être compris
comme le résultat d’une interaction entre différents niveaux d’intégration de la
connaissance, différents degrés de savoir-faire, différents types de processus
cognitifs, les processus de contrôle de l’activité cognitive s’alimentant pour leur part
à des connaissances situées à un niveau supérieur d’organisation. En conséquence,
les différences d’efficience intellectuelle mises en évidence par les tests sont à
comprendre comme des différences dans le fonctionnement d’un système d’unités
cognitives interdépendantes qu’il est souhaitable d’appréhender à des niveaux
d’organisation différents.
LECTURES CONSEILLÉES
Ouvrages généraux :
HUTEAU, M., & LAUTREY, J. (1999). Evaluer l’intelligence : psychométrie
cognitive. Paris : Presses Universitaires de France.
2/
6
La quatrième partie de l’ouvrage (« Les perspectives de renouvellement ») présente
un bilan des travaux sur les différences de traitement de l’information responsables
des différences de performance aux tests.
MACKINTOSH, N.J. (2004). QI et intelligence humaine. Bruxelles : DeBoeck
Université.
Texte très accessible qui aborde de manière critique la notion de QI sous forme de
synthèse bien documentée de l’approche cognitive expérimentale des aptitudes
intellectuelles.
Pour aller plus loin :
LAUTREY, J. (Ed.) (1995). Universel et différentiel en psychologie. Paris : P.U.F.
Pour avoir un aperçu général de la psychologie différentielle. Certains textes de cet
ouvrage collectif complètent plusieurs des thèmes abordés dans ce chapitre.
LAUTREY, J., & RICHARD, J.-F. (Eds.) (2005). L’intelligence. Paris : Lavoisier.
La diversité des approches qui caractérise cet ouvrage témoigne de la multitude des
points de vue qui ont été adoptés pour étudier l’intelligence. La première partie
(« L’intelligence vue comme compétence individuelle ») est en lien avec certains des
points abordés dans ce chapitre.
REUCHLIN, M. (1999). Evolution de la psychologie différentielle. Paris : PUF.
Cet ouvrage regroupe un ensemble d’articles théoriques portant par exemple sur les
relations entre psychologie générale et psychologie différentielle, la différenciation
interindividuelle, les différences individuelles dans le fonctionnement cognitif, etc.
WILHELM, O., & ENGLE, R.W. (Eds.) (2005). Handbook of understanding and
measuring intelligence. London: Sage Publications.
Le lecteur trouvera dans cet ouvrage récent des revues de question consacrées à des
points traités dans ce chapitre : le rôle de la mémoire de travail dans la cognition
(chapitres 5, 6, 22 et 23), les liens entre connaissance et intelligence (chapitres 7, 8
et 20).
3/
6
A
L’INFLUENCE DE LA
PSYCHOLOGIE COGNITIVE
La psychologie cognitive dont le développement a révolutionné les conceptions
classiques de l’intelligence humaine, s’est progressivement dessinée en psychologie
expérimentale à partir des années 60. Elle peut être présentée aujourd’hui comme
l’étude des processus mentaux mis en jeu dans l’attention, la perception, la
mémoire, le langage, le raisonnement, etc., ainsi que celle de la connaissance, de son
organisation, de son utilisation et des mécanismes par lesquels elle s’acquiert (cf.
Grand Amphi, Psychologie Cognitive). S’il existe une grande variété de modèles du
fonctionnement cognitif, les psychologues qui étudient la cognition humaine ont
tous en commun de définir un niveau de description fondamental qui est celui du
traitement de l’information et d’explorer les processus mentaux au moyen de
paradigmes permettant de tester des hypothèses sur le fonctionnement du système
cognitif humain.
La démarche qu’adopte la psychologie cognitive est la même que celle des autres
disciplines scientifiques. Elle consiste d’abord à élaborer une théorie, un ensemble
de principes explicatifs qui visent à rendre compte d’une catégorie donnée de
phénomènes cognitifs. Des prédictions vérifiables (ou hypothèses) déduites de cette
théorie sont ensuite soumises à l’épreuve des faits. Pour cela, on imagine des
situations contrôlées visant à provoquer des conduites. Ces situations
expérimentales permettent de recueillir aussi rigoureusement que possible des
données d’observation, grâce auxquelles le caractère de vraisemblance des
hypothèses peut être empiriquement testé et évalué statistiquement. La réplication
des résultats obtenus permettra d’étayer la formulation de nouvelles hypothèses
susceptibles d’enrichir la théorie.
1. Un schéma minimal d’architecture cognitive
Pour des raisons qui tiennent à la démarche adoptée, les modèles de la psychologie
cognitive évoluent et l’interprétation d’un phénomène cognitif donné peut être
rapidement remise en question par de nouvelles données empiriques non
compatibles avec les prédictions du modèle. On peut néanmoins tenter de dégager
quelques propositions fonctionnelles minimales susceptibles d’être appliquées à une
large variété de phénomènes cognitifs.
Le schéma d‘architecture cognitive présenté ci-après met l’accent sur plusieurs
catégories de processus en relation avec différentes étapes du traitement de
l’information. L’information sensorielle doit d’abord être transformée en une
information de nature symbolique (par exemple, la perception d’un stimulus visuel
donnera lieu à la construction d’une image mentale). Des processus cognitifs
opèrent alors pour sélectionner l’information pertinente (fonctions attentionnelles),
organiser, interpréter et maintenir active cette information en mémoire temporaire
(fonction mémoire de travail). L’action de ces processus, y compris les plus
précoces, est guidée par les connaissances stockées en mémoire à long terme
(arrière-plan de connaissances).
Schéma d’architecture cognitive
4/
6
mémoire sensorielle
Evénements
externes
processus attentionnels
sélection
activation, coordination
encodage
Réponse
Mémoire de travail
récupération, intégration,
organisation
Mémoire à long terme
arrière-plan de connaissances structurées par domaines
Le psychologue qui étudie les différences individuelles dans le fonctionnement
intellectuel peut s’appuyer sur ce cadre théorique très général pour chercher à
identifier les mécanismes cognitifs susceptibles d’expliquer les différences de
performance aux tests d’aptitudes et d’intelligence.
2. L’interprétation cognitive des différences de performance aux tests
L’approche différentielle du fonctionnement intellectuel, prédominante en
psychologie de l’intelligence jusqu’à la fin des années 50, a progressivement suscité
des critiques de plus en plus vigoureuses. Les critiques d’ordre théorique remettaient
en question la conception, à la fois dispositionnelle et statique, que certains
différentialistes de l’époque avaient largement contribué à valider et diffuser. On
reprochait aussi à ces derniers d’utiliser une méthode essentiellement descriptive ne
permettant pas la confrontation d’explications psychologiques rivales des
différences de performance aux tests d’aptitudes (cf. chapitre 2, l’analyse factorielle
confirmatoire). Pour beaucoup de psychologues différentialistes pourtant, les
résultats des analyses factorielles pouvaient être interprétés en termes de processus
psychologiques sous-jacents. Ceux-ci ont donc été de plus en plus nombreux à
réaliser les possibilités offertes par les concepts de la psychologie cognitive pour
décrire et expliquer les différences individuelles dans le fonctionnement intellectuel.
Au milieu des années 70, Carroll, un psychologue spécialiste de l’analyse
factorielle, suggère de faire appel aux concepts de la psychologie cognitive pour
« interpréter » les sources de variation de la performance aux tests. Pour mener à
bien cette première spécification, Carroll s’appuie sur un modèle de fonctionnement
cognitif très influent à l’époque, le modèle en systèmes de production de Newell et
Simon (1972) pour préciser comment et dans quelle mesure les différences liées aux
structures, aux processus et à leur organisation pourraient contribuer aux différences
révélées par l’analyse factorielle.
Note marginale *******************************************************
Le modèle en systèmes de production est défini comme un ensemble ordonné de
séquences de production (condition-action : si...alors) impliquées dans la sélection
de l’information, le traitement et le stockage de l’information en mémoire à court
terme, le stockage et la récupération en mémoire à long terme, etc.
************************************************ fin de la note marginale
Prenons pour exemple le facteur primaire de vitesse perceptive dont un des
meilleurs indicateurs est le test des Figures Identiques. L’analyse cognitive qu’en
propose Carroll fait référence à la nature des stimuli, aux contenus mentaux
correspondants, aux opérations sur ces contenus et aux produits qui en résultent.
Elle se traduit par les hypothèses suivantes: 1) les processus sous-jacents sont des
processus de recherche visuelle ; 2) les différences individuelles sont principalement
associées à des paramètres temporels (vitesse d’encodage, vitesse de comparaison);
3) la structure impliquée est la mémoire à court terme (stockage temporaire d’une
information visuo-spatiale).
Encadré*************************************************************
Test des Figures Identiques : test papier-crayon de la batterie des Aptitudes
Mentales Primaires de Thurstone. Pour chaque item, le sujet a pour consigne de
retrouver dans une série de formes simples celles qui sont identiques à une figure de
référence (les bonnes réponses sont en noir dans l’exemple ci-dessous). Le score au
test est le nombre d’items auxquels le sujet a répondu correctement en un temps
donné (2 planches d’items à résoudre en 3 mn).
5/
6
Les tests de ce type saturent le facteur de vitesse perceptive décrit comme la rapidité
avec laquelle un individu peut comparer des figures et les retrouver au sein d’un
ensemble d’autres figures (cf. chapitre 3).
******************************************************Fin de l’encadré
Mais cette description a posteriori des variables latentes dont l’analyse factorielle
révèle l’existence n’est que peu satisfaisante si les conclusions tirées ne sont pas
ultérieurement mises à l’épreuve. Cette prise de conscience va conduire au
développement d’une approche dans laquelle les différences individuelles dans le
fonctionnement cognitif sont étudiées à partir de données d’observation recueillies
dans des situations expérimentales.
3. L’étude expérimentale des bases cognitives de l’intelligence
Les premiers travaux réalisés dans ce domaine reposent sur l’hypothèse qu’un
nombre réduit de mécanismes cognitifs généraux joue un rôle fondamental dans la
performance aux tests. Certains chercheurs ont ainsi étudié les corrélations entre la
vitesse d'exécution et/ou l'efficacité de processus élémentaires mesurés dans un
cadre expérimental spécifié et la performance aux tests d’intelligence ou d’aptitudes.
D’autres ont proposé de décomposer l'activité mentale mise en jeu lors de la
résolution d’items de tests d’intelligence en modélisant les étapes du traitement de
l’information. Quelle que soit l’approche privilégiée, on admet que les valeurs des
paramètres de traitement de l’information ainsi mesurés sont fonction de l’efficacité
de processus cognitifs de base qu’il s’agit d’identifier (section B). L’interprétation
de ces paramètres est souvent réductionniste.
Note marginale*******************************************************
Réductionnisme : réduction systématique d’un niveau de description et
d’explication à un autre niveau de description et d’explication ; réduire par exemple
le psychologique au biologique (les différences d’intelligence sont principalement
dues à des différences dans la vitesse de transmission de l’influx nerveux), le
psychologique au social (les différences dans le développement cognitif sont
essentiellement dues à des facteurs sociaux).
************************************************Fin de la note marginale
Un autre courant de recherches, plus soucieux que les précédents de références
théoriques explicites et validées par la psychologie cognitive, s’est ensuite tourné
vers les notions d’allocation des ressources attentionnelles et de capacité de la
mémoire de travail pour expliquer les différences de performance aux tests
d’intelligence. L’objectif des travaux effectués dans cette perspective est d’élucider
le rôle des ressources de traitement de l’information dans la performance aux tests
tout en considérant que les processus sous-jacents opèrent de manière relativement
indépendante des contenus symboliques (section C).
Les postulats qui fondent ces approches générales se sont cependant révélés parfois
peu compatibles avec les faits. L’approche élémentariste de l'activité mentale s’est
par exemple heurtée à la diversité des procédures mises en jeu pour résoudre une
tâche donnée. L’approche des ressources de traitement n’apporte de son côté qu’un
éclairage limité au rôle des connaissances dans la perception et la compréhension de
l’information à traiter. Si l’individu face aux demandes de la tâche peut en effet ne
pas allouer les ressources de traitement suffisantes pour mettre en œuvre une
stratégie de résolution adaptée, il peut aussi ne pas disposer des connaissances
nécessaires lui permettant la sélection de la stratégie la plus adaptée. On conçoit
donc, sur les bases de ce qui précède, l’intérêt à adopter un point de vue qui tienne à
la fois compte des contraintes imposées par la tâche et des connaissances et
ressources de l’individu. Plusieurs voies de recherche ont été empruntées.
L’une d’entre-elles a consisté à décrire les stratégies individuelles utilisées lors de la
résolution d’items de tests d’intelligence et à étudier l’évolution des choix
stratégiques avec l’apprentissage. Quantitative jusqu’alors, l’approche des bases
cognitives de l’intelligence s’est intéressée à des aspects plus qualitatifs du
traitement de l’information en tentant de mieux comprendre le rôle des choix
stratégiques et celui de la flexibilité de ces choix dans les différences de
performance aux tests (section D).
L’idée que les différences de performance aux tests d’intelligence renvoient, au
6/
6
moins en partie, à la structure, l’accessibilité et la disponibilité de certaines
connaissances acquises nécessaires à la résolution de ce type d’épreuves a servi de
guide à un autre grand courant de recherche. L’accent a été mis cette fois sur la
spécificité, liée à l’arrière-plan de connaissance, des processus mis en œuvre dans
les tests d’aptitudes. L’expertise est devenue un objet d’étude privilégié en tant
qu’affectant la manière avec laquelle les individus organisent, représentent et
interprètent l’information. En résumé, les processus étudiés sont des processus de
haut niveau impliqués dans l’utilisation et l’acquisition des connaissances
stratégiques (section E).
Les chercheurs ont fait appel à diverses méthodes, le plus souvent corrélationnelles,
pour identifier et préciser le rôle des divers médiateurs cognitifs potentiels de la
performance aux tests d’intelligence. Le simple constat d’une corrélation entre deux
variables n’étant pas suffisant (cf. chapitre 5), certaines formes de contrôle ont donc
été employées. On sait que lorsque l’objectif est d’établir l’existence d’une relation
de causalité entre deux variables, une première forme de contrôle consiste à
neutraliser expérimentalement l’impact d’un mécanisme cognitif sur la performance
aux tests pour explorer plus précisément le rôle d’un autre mécanisme. Mais
beaucoup de situations dans ce domaine de recherche ne permettent pas de contrôle
purement expérimental. On parle de contrôle quasi-expérimental quand on distingue
plusieurs groupes de sujets par rapport à une variable invoquée (par exemple,
l’étendue des connaissances des sujets, leur expertise dans un domaine particulier)
pour comparer les observations effectuées sur chaque groupe et tenter de mieux
comprendre les mécanismes cognitifs qui sous-tendent les différences de
performance entre groupes. Le contrôle statistique est une autre forme de contrôle
qui permet d’estimer, toutes choses restant égales par ailleurs, les relations entre des
unités cognitives impliquées dans la performance aux tests d’intelligence (par
exemple, la relation entre deux variables en ne tenant pas compte des relations que
l’une et l’autre entretiennent avec une troisième). Nous verrons à plusieurs reprises
que le contrôle statistique offre aussi la possibilité de modéliser dans le cadre de ce
que l’on appelle les « modèles structuraux » les relations d’ensemble de ces unités
(cf. chapitre 2).
7/
6
B
LES DIFFERENCES DANS LES
PROCESSUS ÉLÉMENTAIRES
1. La recherche de preuves corrélationnelles
Au début des années 70, Hunt, Lunneborg et Lewis (1975) cherchent à unifier les
théories de l’intelligence et de la cognition en tentant d’identifier des mesures
absolues de certains aspects de la capacité de traitement de l’information plutôt que
des mesures relatives à la performance moyenne d’une population de référence.
Hunt estime que la performance intellectuelle dépend de l’efficacité de la
« mécanique mentale » qui permet la manipulation de l’information symbolique
représentée en mémoire indépendamment de la signification qui y est attachée. Son
point de vue est élémentariste en ce sens qu’il postule que les caractéristiques de
certaines fonctions élémentaires peuvent expliquer les différences observées à un
niveau supérieur d’activité. La démarche qu’il adopte est corrélationnelle ; elle
consiste à étudier la relation entre la performance à une tâche expérimentale de
calibrage mesurant un processus cognitif fondamental et la performance à un test
d’intelligence dans lequel on suppose que ce processus intervient.
Encadré ************************************************************
Une tâche expérimentale de calibrage est une procédure élaborée pour permettre
l’identification et la mesure d’un processus élémentaire de traitement de
l’information. Le paradigme dit de « balayage en mémoire visuelle » de Saul
Sternberg est une tâche de calibrage qui a été fréquemment employée dans les
recherches corrélationnelles. Le sujet est face à un écran d’ordinateur sur lequel
apparaissent des chiffres présentés un à un. Chaque séquence à mémoriser comprend
un nombre variable de chiffres (de 1 à 5). Quelques dixièmes de seconde après la
présentation du dernier chiffre de la séquence, un chiffre-cible est présenté au sujet.
Ce dernier doit indiquer aussi rapidement et précisément que possible si le chiffre
appartenait ou non à la séquence initiale. On mesure le TR en millisecondes (ms) et
la précision - généralement très élevée - à la tâche.
Temps de réponse moyen (msec.)
Jugements d ’appartenance
Sujet 1
TR=344+47n
550
500
Sujet 2
TR=331+31n
450
400
350
1
2
3
4
5
Nombre d ’éléments de la séquence (n)
On constate classiquement une augmentation linéaire du TR en fonction du nombre
d’éléments à maintenir en mémoire à court terme (MCT). Cette relation linéaire
permet de calculer individu par individu la régression des TR sur le nombre
8/
6
d’éléments de la séquence. Deux estimations (ou paramètres de traitement de
l’information) peuvent ainsi être obtenues. La pente de la régression est
généralement interprétée comme une mesure du temps nécessaire à la récupération
d’un élément en MCT. Sur l’exemple ci-dessus correspondant à des données
recueillies chez des étudiants, le sujet 2 récupère plus rapidement l’information que
le sujet 1 (31 vs 47). Quant à l’ordonnée à l’origine (ici, 344 ms pour le sujet 1), elle
mesurerait la durée des processus d’encodage et de réponse motrice.
D’après Sternberg, S. (1969)
******************************************************Fin de l’encadré
Hunt et ses collègues s’intéressent au processus d’accès lexical qui relie
l’information visuelle et auditive du mot à sa signification. Ils constatent que les
sujets les plus rapides à une tâche dans laquelle il faut décider le plus vite possible si
une série de lettres est un mot (LOIN) ou pas (LONI) tendent à avoir un niveau de
performance plus élevé que les autres à des épreuves verbales de compréhension de
textes. Cette corrélation se révèle modérée chez des adultes normaux (de l’ordre de
0,35). Elle est plus importante chez des individus déficients intellectuels moyens.
Ces premiers travaux ont été suivis par de nombreux autres dans les domaines verbal
ou spatial. Ils se sont généralement traduits par le constat d’une corrélation modeste
- ce que Hunt a appelé la « barrière des .30 » - entre la performance à des tâches de
calibrage et celle à des tests d’aptitudes supposés activer les processus élémentaires
mesurés (cf. document 4B1). Une revue des études employant le paradigme de
balayage en mémoire visuelle aboutit ainsi à des corrélations moyennes de –0,27
entre le TR moyen et le Quotient Intellectuel (QI), de –0,35 entre la variabilité intraindividuelle des TR et le QI, de –0,11 entre la pente des TR ou « vitesse de
récupération d’un élément en mémoire à court terme » et le QI, de –0,30 entre
l’ordonnée à l’origine (la durée des processus d’encodage et de réponse motrice) et
le QI.
Note marginale*******************************************************
Accès lexical : entrée dans le lexique (dictionnaire mental). Cf. Grand Amphi,
Psychologie cognitive.
************************************************ fin de la note marginale
De nombreuses études utilisant la méthodologie décrite ci-dessus ont cherché à
dépasser les différences spécifiques liées à des processus élémentaires précis pour
tenter de démontrer l’existence de différences générales dans la vitesse de traitement
de l’information ou « vitesse mentale ». Deux paradigmes ont été principalement
appliqués dans cette perspective à l’étude des différences individuelles : le
paradigme de Hick et celui de temps d’inspection.
Encadré ************************************************************
Paradigme de Hick. Dans ce paradigme classique de temps de réaction, le sujet doit
éteindre une lumière dès qu’elle s’allume en appuyant le plus vite possible sur le
bouton correspondant. On parle de tâche de TR « simple » quand une seule lampe
est présentée. Dans ce cas il n’y a pas de choix à effectuer et la quantité
d’information à traiter est nulle. On parle de tâche de TR « avec choix » quand la
série dans laquelle il faut éteindre la lampe comporte plusieurs alternatives. La
présence de deux lampes nécessite une décision binaire (21, soit 1 bit
d’information), celle de 4 lampes en nécessite deux (22, soient 2 bits d’information),
celle de 8 lampes en nécessite trois (23, soient 3 bits d’information), etc. On constate
classiquement une augmentation linéaire du TR avec la quantité d’information. La
pente de la droite de régression du TR sur la quantité d’information est considérée
par certains auteurs comme un indicateur de la vitesse mentale ou vitesse de
traitement de l’information des sujets, les plus rapides étant supposés avoir besoin
de moins de temps pour traiter chaque bit d’information.
Paradigme de temps d’inspection. Il s’agit d’une tâche de discrimination visuelle
ou auditive. En modalité visuelle par exemple, il faut indiquer, entre deux lignes de
longueurs peu différentes, laquelle est la plus longue. Les stimuli sont présentés
pendant différentes durées d’exposition et sont immédiatement suivis d’un masque
visuel. Le temps d’inspection (TI) est la durée de présentation nécessaire pour
parvenir à un niveau donné de précision (par ex. 95% ou 97,5%). Le TI varie en
moyenne de 40 ms à 130 ms chez l’adulte sain. Son interprétation en termes de
vitesse de traitement de l’information est discutée (cf. exercices 4B2).
****************************************************** fin de l’encadré
9/
6
Le paradigme de Hick a été utilisé à de multiples reprises, notamment par Jensen
(pour revue, 1998) qui a défendu avec beaucoup vigueur l’hypothèse de la vitesse
mentale. Selon Jensen, la corrélation moyenne observée entre la pente des TR et
l’intelligence mesurée par les tests serait de l’ordre de -0,20 (données recueillies
chez 1195 sujets). Celle observée entre la variabilité des TR en cours de tâche
(variabilité intra-individuelle) et l’efficience intellectuelle mesurée par des tests
d’intelligence générale serait légèrement supérieure (de l’ordre de –0,25). Des
résultats sensiblement comparables ont été retrouvés dans les études employant le
paradigme de temps d’inspection (de l’ordre de -0,30 entre TI et QI).
Que penser de cette corrélation faible mais répétable entre vitesse mentale et
performance aux tests d’intelligence ? Pour Jensen ou Eysenck, l’importance de la
vitesse mentale résulterait avant tout du fait qu’elle est essentielle à l’acquisition
d’une information nouvelle en temps limité. L’explication proposée est la suivante;
plus l’information à traiter est complexe, plus les processus mis en jeu sont
nombreux, plus l’importance de la vitesse d’exécution de ces processus se fait sentir.
L’avantage apporté par une vitesse d’exécution élevée serait de réduire d’autant les
risques de perte d’information en cours de traitement. Le point final de
l’argumentaire est que ces différences de vitesse mentale seraient causées par des
différences d’efficience de l’activité neuronale et du fonctionnement cortical. Jensen
et Eysenck considèrent ainsi que les résultats exposés plus haut, le constat de
corrélations entre vitesse mentale et performance aux tests d’autant plus élevées que
les tests sont plus fortement saturés en facteur d’intelligence générale et celui plus
discutable de corrélations entre la vitesse mentale et certains indicateurs
physiologiques et métaboliques du fonctionnement cérébral plaident en faveur de
l’hypothèse de la vitesse de traitement de l’information comme base fondamentale
des différences d’intelligence générale révélées par les tests.
Les raisons qui conduisent à rejeter cette « explication » réduisant les différences
individuelles observées à un niveau comportemental à des différences de niveau
inférieur, psychologique ou même neurobiologique, sont multiples (par exemple,
Juhel, 1995). Le constat tout d’abord d’une corrélation entre la mesure d’un
processus cognitif élémentaire et la mesure d’une aptitude intellectuelle complexe
n’implique en aucun cas que l’efficacité du processus conditionne le niveau
d’aptitude. Même si l’on dispose a priori d’un modèle explicitant le rôle du
processus dans le fonctionnement cognitif, il n’est en fait possible de conclure avec
certitude que lorsque aucune corrélation n’est observée, l’hypothèse d’une relation
de causalité entre processus et aptitude devant alors être rejetée.
L’interprétation d’une corrélation entre vitesse mentale et performance aux tests
d’intelligence est par ailleurs d’autant plus fragile que la signification psychologique
des procédures expérimentales utilisées est incertaine. La vitesse mentale en effet est
évaluée par des tâches qui malgré leur simplicité apparente mesurent aussi des
aspects perceptifs et pré-attentionnels du traitement de l’information, engagent des
processus attentionnels de haut niveau ou permettent la mise en œuvre de plusieurs
stratégies de résolution (cf. exercices 4B2). Le lien avec la perception, l’attention ou
la cognition est donc très étroit. L’idée qui consiste à penser qu’une tâche
expérimentale élémentaire nécessite la mise en œuvre d’un simple processus cognitif
de base, d’exécution plus ou moins rapide selon les individus, est loin d’aller de soi.
La faiblesse des corrélations observées entre des mesures différentes (mais
théoriquement identiques) de la vitesse mentale comme la vitesse de décision
lexicale ou la pente des TR en fonction de la quantité d’information renforce
d’ailleurs ce doute. On devrait même s’attendre à ce que les corrélations entre les
tâches les plus simples (c’est-à-dire, celles où la vitesse prime) soient les plus
élevées. Or on observe exactement le contraire; les tâches cognitives élémentaires
qui nécessitent le plus de temps (c’est-à-dire, les moins « simples ») sont plus
corrélées à la fois entre elles et à la performance aux tests d’intelligence. Il faut aussi
signaler que ce sont les mesures les plus globales et les moins comprises d’un point
de vue théorique qui présentent les corrélations les plus fortes avec l’intelligence
générale. C’est le cas par exemple de la variabilité intra-individuelle des TR qui est
un indicateur de la stabilité des TR de l’individu. On voit alors mal l’intérêt à mettre
en œuvre une analyse expérimentale fine pour mesurer la vitesse mentale quand un
simple TR global se révèle plus prédictif des différences de performance aux tests
d’intelligence.
Les critiques précédentes conduisent donc à préférer une explication plus intégrée
dans laquelle plusieurs processus contribueraient par leur fonctionnement
d’ensemble et à des degrés divers à rendre compte des différences de performance
aux tâches élémentaires dites - trop rapidement sans doute – de vitesse de traitement
de l’information. La vitesse de traitement de l’information et l’efficience mesurée
1
0/
par les tests d’intelligence seraient alors deux indicateurs distincts mais se
recouvrant partiellement du fonctionnement d’un même système cognitif.
2. La décomposition de l’activité cognitive
D’autres auteurs ont préféré chercher à identifier les composantes de base de
l’intelligence en analysant expérimentalement la performance de sujets à des tâches
complexes comme celles que l’on peut trouver dans les tests d’intelligence. Robert
Sternberg présente ainsi dans un ouvrage publié en 1977 un ensemble de méthodes
qui visent à décomposer l’activité de traitement de l’information (cf. document
4B3). Le principe général de ces méthodes dites d’analyse composantielle est
d’identifier les composantes du traitement de l’information en influençant
sélectivement celles-ci par une manipulation systématique des caractéristiques de
l’information à traiter (cf. exercices 4B4).
Note marginale *******************************************************
Composantes : le terme recouvre pour Sternberg les processus mentaux et les
stratégies utilisés par les sujets comme le processus d’encodage d’une information
sensorielle en une information symbolique, celui de transformation d’une
représentation mentale en une autre, la comparaison globale d’une forme à une
autre, etc.
************************************************ fin de la note marginale
L’analyse composantielle repose sur trois hypothèses principales :
- l’activité de traitement de l’information peut être décomposée en une succession
d’opérations cognitives ;
- la durée et l’efficacité des opérations spécifiées dans le modèle cognitif de la tâche
varient selon les caractéristiques de l’information à traiter ;
- le temps de résolution total d'un item (resp. la précision à l’item) est égal(e) à la
somme des temps d'exécution (resp. au produit des précisions) de chacune des
différentes opérations spécifiées.
L’analyse composantielle a été appliquée à des adaptations informatisées de tests de
raisonnement afin de mesurer la vitesse et la précision des réponses à des tâches de
raisonnement analogique (chaussure est à pied comme gant est à ?), de résolution de
syllogismes (tous les chiens sont des mammifères ; tous les teckels sont des chiens:
tous les teckels sont-ils des mammifères ?), de raisonnement visuo-spatial (plier une
feuille carrée en deux puis en quatre; faire un trou près d’un coin; imaginer ce que
l’on voit une fois le papier déplié), etc. L’analyse composantielle a été aussi utilisée
pour décomposer l’activité mentale lors de la résolution de tâches moins complexes,
peu échouées et comportant un grand nombre d’items. En voici un exemple.
Il s’agit d’une épreuve informatisée de rotation mentale dans laquelle on présente
une forme géométrique (la figure-cible). Lorsque le sujet estime avoir mémorisé
cette information, il appuie sur une touche du clavier, faisant ainsi disparaître la
figure-cible et apparaître une figure présentée dans une orientation différente (le
test). Le sujet doit indiquer aussi vite que possible si le test est superposable à la
cible. On mesure le TR et la précision de la réponse fournie à chaque item.
Encadré*************************************************************
L’analyse des processus engagés dans la résolution d’une tâche de rotation
mentale. L’activité cognitive est ici décomposée en trois processus (ou
composantes) successifs :
- encodage ou élaboration d’une représentation mentale de la figure-test ;
- rotation mentale de la représentation de la figure-test pour la superposer à la
représentation mentale de la figure-cible ;
- comparaison entre les deux représentations puis décision et réponse.
1
1/
Réponse
chronométrée
Figure-test
Figure-cible
Processus
Encodage
Rotation
Comparaison
Manipulations
expérimentales
degré de
complexité de
la figure
degré de
différenciation
angulaire
type de
jugement
= ou ≠
Divers aspects de la situation sont manipulés expérimentalement. On s’attend ainsi à
ce que l’augmentation du nombre de sommets de la figure augmente la durée de
l’étape d’encodage. On fait aussi l’hypothèse que l’augmentation de l’angle de la
rotation à effectuer mentalement pour superposer les deux formes (par exemple de
30 à 90°) accroît la durée de l’étape de rotation. Enfin, la durée de l’étape de
comparaison peut varier selon que les formes sont identiques ou pas. Le matériel est
construit en croisant ces facteurs (cf. Grand Amphi, Les méthodes en psychologie,
chapitre 4).
****************************************************** fin de l’encadré
Une fois les composantes et leur ordre d’intervention spécifiés, l’étape suivante
consiste à tester l’adéquation du modèle cognitif aux données recueillies. 0n évalue
pour cela l’écart entre les prédictions du modèle (les estimations de la précision et
du TR pour chaque type d’item) et la précision et les TR observés. Si cet écart est
jugé suffisamment faible, on dit que le modèle décrit correctement les observations.
Il est alors possible de quantifier individuellement l’efficacité des différentes
composantes dont le modèle fait l’hypothèse. Ces scores théoriques ou
composantiels ne sont pas des scores observés mais des scores estimés à partir des
TR et de la précision dans le cadre d’un modèle cognitif de la tâche dont on a
antérieurement évalué l’adéquation aux données recueillies (cf. documents 4B3).
L’analyse composantielle a conduit au développement de modèles moyens qui se
sont révélés généralement aptes à décrire l’organisation des étapes du traitement de
l’information. Elle a ainsi contribué à éclairer la relation entre vitesse de réponse et
niveau de performance. Par exemple, on a pu observer à des tâches de raisonnement
analogique que les sujets les plus efficients consacraient plus de temps à l’encodage
des termes du problème qu’ils n’en consacraient à effectuer des opérations sur les
représentations venant d’être élaborées. Sternberg a également remarqué que ces
mêmes sujets consacraient proportionnellement plus de temps à la planification
globale de la tâche qu’à sa planification locale. L’observation répétée de
corrélations médiocres entre les scores composantiels et la performance aux tests
d’intelligence (le plus souvent aux environs de 0,40) reste cependant, comme le
reconnaît Sternberg, « une des surprises les moins agréables de l’analyse
composantielle ». En cela, ces résultats ne sont guère différents de ceux des
recherches corrélationnelles. L’analyse composantielle est donc d’un intérêt limité si
les différences d’efficience à des tâches complexes ne sont comprises qu’en termes
de différences dans la vitesse et/ou l’efficacité de processus de plus bas niveau.
C’est d’ailleurs ce qu’a très bien perçu Sternberg qui a proposé de distinguer
plusieurs catégories de composantes hiérarchiquement organisées en attribuant aux
composantes de niveau supérieur un rôle essentiel dans l’efficience intellectuelle.
Note marginale*******************************************************
Planification globale, planification locale : la planification globale recouvre la
compréhension de la nature du problème et la mise au point d’une stratégie générale
de résolution. La planification locale correspond à la formation et l’exécution de
procédures plus spécifiques de traitement de l’information.
************************************************ fin de la note marginale
Note marginale*******************************************************
Processus ou composantes de niveau supérieur : on dit aussi processus exécutifs
ou métacognitifs. Ces composantes d’un niveau élevé d’intégration seraient
impliquées dans la sélection, la coordination et le contrôle des composantes de plus
1
2/
bas-niveau.
************************************************ fin de la note marginale
L’analyse composantielle n’a cependant pas permis de comprendre comment
l’information est traitée par l’individu et cela pour plusieurs raisons. Le principe qui
consiste à localiser une composante suspectée d’être impliquée dans une tâche
cognitive donnée à une place précise dans une séquence déterminée d’étapes de
traitement de l’information est sans doute erroné. Beaucoup d’éléments permettent
aujourd’hui de penser que c’est au contraire le système formé par les composantes
impliquées dans l’activité cognitive qui joue un rôle déterminant. C’est donc le
fonctionnement de ce système qu’il faut tenter de comprendre plutôt que d’attribuer
la responsabilité des différences de performance à l’une ou l’autre, prises isolément,
des composantes impliquées dans l’activité mentale.
Une autre critique faite à l’analyse composantielle porte sur la nature des
composantes, souvent insuffisamment spécifiée. Dans la tâche de rotation mentale
par exemple, l’encodage peut porter sur certains traits spécifiques ou sur des sousensembles plus globaux de traits. Il en est de même pour la comparaison qui peut
s’appuyer sur un élément jugé discriminant, sur l’ensemble de la figure lorsqu’elle
est simple ou sur quelques traits spécifiques lorsque la figure est complexe. Parler
d’étape d’encodage ou de comparaison n’est donc que peu informatif du point de
vue des processus engagés. De nombreux résultats d’études expérimentales
montrent aussi qu’un seul modèle de décomposition de la tâche est en général
insuffisant pour rendre compte de l’activité cognitive de sujets différents. Le fait que
des sujets différents puissent activer différentes opérations mentales ou qu’un même
sujet puisse faire appel à plusieurs procédures de résolution pour résoudre une
même tâche fait donc souhaiter une analyse plus fine des stratégies individuelles.
Les raisons pour lesquelles telle procédure plutôt que telle autre puisse être préférée
par un individu donné amène aussi à poser la question des contraintes internes (par
exemple, les ressources de traitement) qui conditionnent certains de ces choix.
1
3/
C
LES DIFFÉRENCES DANS LES
RESSOURCES DE TRAITEMENT
La capacité limitée de traitement de l’information est un aspect central des modèles
du fonctionnement cognitif de l’être humain (cf. Grand Amphi, Psychologie
cognitive, chapitres 3 et 5). Il n’est donc pas étonnant que l’on ait cherché à
expliquer les différences individuelles de performance aux tests d’intelligence par
des différences dans les limites de traitement associées aux capacités restreintes de
l’attention et de la mémoire à court terme. Nous évoquerons ici deux catégories
d’études différentielles dont les conclusions soulignent l’importance des limites de
traitement dans la cognition de haut niveau. La première explique les différences de
performance aux tests par des différences dans la capacité attentionnelle, dans
d’allocation et dans le contrôle des ressources de traitement. La seconde les explique
par des différences dans la capacité de la mémoire de travail définie à l’origine
comme un espace de travail dans lequel opèrent simultanément les fonctions de
maintien temporaire et de traitement concurrent de l’information.
1. Différences individuelles dans l’attention
On pense intuitivement que lorsque des individus doivent résoudre un test
d’intelligence, l’attention considérée comme une ressource générale a un effet sur le
niveau de performance au test. Mais les conclusions sur ce point ne sont pas
unanimes d’autant que l’attention est un concept controversé et que les tâches
utilisées pour mesurer les fonctions attentionnelles reposent sur des rationnels
parfois différents.
L’attention et l’intelligence mesurée par les tests paraissent entretenir une certaine
relation lorsque les tâches employées sont d’un degré modéré de complexité, sont
peu coûteuses en ressources de traitement et nécessitent de rester concentré sur un
stimulus spécifique pendant une assez longue période. La forme d’attention ainsi
mesurée est dite soutenue. Schweizer et Moosbrugger (2004) utilisent par exemple
une tâche d’une durée de 6 minutes dans laquelle le sujet doit appuyer sur la touche
« 1 » d’un clavier d’ordinateur quand apparaît une configuration cible (« 2 points
dans un carré » ou « 3 points dans un cercle ») et sur la touche « 0 » quand il s’agit
d’une configuration distractrice (« 3 points dans un carré » ou « 2 points dans un
cercle »). Le niveau de performance à cette tâche se révèle assez fortement corrélé à
la performance à deux tests d’intelligence non verbale administrés aux 120
participants de l’étude (de l’ordre de 0,50). Des corrélations substantielles avec
l’intelligence ont été également observées avec des tâches dites de commutation qui
imposent des changements rapides entre diverses opérations cognitives. Les sujets
les moins performants aux tests d’intelligence auraient donc plus de difficultés que
les sujets plus performants à allouer « en continu » les ressources attentionnelles
suffisantes à ce type de tâches.
Les résultats sont plus incertains pour d’autres formes d’attention, par exemple
l’attention sélective définie comme la capacité à sélectionner, amplifier les
informations pertinentes et à inhiber les informations non pertinentes pouvant
perturber l’activité cognitive (cf. Grand Amphi, Psychologie cognitive, chapitre 3).
Mesurée avec des tâches de discrimination perceptive, l’attention sélective ne
semble pas être en relation avec la performance aux tests d’intelligence. Mais
l’attention sélective peut aussi être mesurée avec des tâches de résistance à
l’interférence qui nécessitent un niveau de contrôle plus élevé, par exemple
dénommer le plus vite possible une figure (par exemple, un cercle) à l’intérieur de
laquelle est écrit le nom d’une autre forme (par exemple, « triangle »). Dans ce cas,
1
4/
la capacité à résister à l’interférence est un prédicteur significatif des différences
d’intelligence générale.
Des constats similaires ont été faits pour l’attention divisée ou capacité à partager
l’attention, habituellement mesurée à l’aide de paradigmes de concurrence
cognitive dans lesquels le sujet doit réaliser conjointement deux tâches, la charge
cognitive de l’une d’entre elles étant éventuellement manipulée expérimentalement.
S’il est bien établi qu’une tâche dont la charge cognitive n’est pas trop élevée est
plus corrélée à l’efficience générale quand elle est administrée en concurrence ou en
coordination avec une autre que lorsqu’elle est administrée seule (cf. documents
4C1,1), l’hypothèse d’une relation entre la performance aux tâches d’attention
divisée et celle aux tests d’intelligence reste fragile. L’étude de Ben-Shahar et
Sheffer (2001) montre cependant qu’une relation modeste peut être observée lors de
l’administration initiale de la tâche d’attention divisée mais que celle-ci disparaît
avec l’automatisation du traitement et la diminution du niveau de contrôle. Ces
résultats sont en accord avec les conclusions d’Ackerman (1988) qui a montré que
lors de l’apprentissage d’une habileté cognitive spécifique (par exemple, apprendre
à réagir aussi rapidement que possible en réponse à diverses combinaisons de
signaux lumineux), la réduction du coût attentionnel de la tâche tend à atténuer
fortement la relation entre performance à la tâche et efficience intellectuelle
générale. Cette observation a conduit Ackerman à proposer une théorie des relations
entre fonctions attentionnelles et efficience intellectuelle dans laquelle le niveau de
fonctionnement attentionnel (la disponibilité en ressources de traitement contrôlé)
est identifié au niveau de fonctionnement intellectuel.
Encadré*************************************************************
Concurrence cognitive ou double tâche. Hunt utilise par exemple un paradigme
comportant une tâche principale et une tâche secondaire de surveillance. La tâche
principale est une tâche d’apprentissage dans laquelle le sujet doit mémoriser des
associations lettre-chiffre. La tâche secondaire consiste à appuyer sur une touche dès
l’apparition d’un signal visuel. L’épreuve suit le déroulement suivant: A=7 (3s);
B=3 (3 s); B=? (réponse verbale du sujet); B=4 (3 s); signal visuel (réponse motrice
pour la tâche secondaire) A=? (réponse verbale); A=5 (3 s); etc.
La charge cognitive représente la quantité de ressources de traitement nécessaires à
la réalisation d’une tâche donnée. Dans cet exemple, la charge cognitive de la tâche
principale est manipulée en augmentant le nombre de paires à mémoriser. La charge
cognitive dépend des caractéristiques de la tâche mais aussi d’aspects liés à
l’individu (ses connaissances, les stratégies employées, etc.).
****************************************************** fin de l’encadré
Encadré*************************************************************
La théorie des relations entre fonctions attentionnelles et efficience intellectuelle
proposée par Ackerman est basée sur une interprétation de l’intelligence générale en
termes d’effort attentionnel ou quantité de ressources allouées au traitement non
automatique de l’information. Cette théorie est née d’observations effectuées dans
des situations d’exercice intensif (i.e. durant plusieurs dizaines d’heures) au cours
desquelles les sujets doivent apprendre à discriminer rapidement un signal visuel ou
à suivre au plus près le déplacement circulaire d’une cible sur un écran. Les sujets
sont soumis à deux conditions expérimentales: 1/ la pratique consistante dans
laquelle, par exemple, la même réponse convient toujours au même signal; 2/ la
pratique variable (ou inconsistante) dans laquelle le couplage entre signal et réponse
varie en cours de tâche.
L’expérience montre que lorsque la pratique est consistante, la performance
s’améliore sensiblement avec l’exercice alors qu’elle reste de même niveau lorsque
la pratique est inconsistante. Ackerman explique l’amélioration de la performance
en pratique consistante par l’automatisation du traitement qui entraînerait une
réduction du coût attentionnel de la tâche. Quant à la performance en condition
inconsistante, elle resterait limitée par la disponibilité en ressources de traitement
contrôlé. Par ailleurs, plusieurs recherches différentielles montrent que: 1/ les
différences individuelles dans les ressources attentionnelles allouées lors des
premières phases d’une situation d’exercice intensif sont en relation avec celles
identifiées par les facteurs intellectuels d’un haut niveau de généralité; 2/ la
réduction du coût attentionnel de la tâche (en augmentant sa consistance, en
diminuant la charge en mémoire, etc.) tend à atténuer fortement l’amplitude de cette
relation. L’efficience intellectuelle apparaîtrait ainsi directement associée à la
disponibilité en ressources attentionnelles de traitement contrôlé.
1
5/
****************************************************** fin de l’encadré
Une vision assez globale de la relation entre différences de performance aux tâches
d’attention et différences de performance aux tests d’intelligence est fournie par une
étude récente de Schweizer, Moosbrugger et Goldhammer (2005) qui administrent à
197 participants une quinzaine de tâches expérimentales et de tests papier-crayon
mesurant divers types d’attention (soutenue, sélective, divisée, etc.) ainsi que 2
épreuves d’intelligence fluide (Gf). Les auteurs adoptent une démarche de
modélisation structurale (cf. chapitre 2) qui consiste à mesurer avec un modèle
d’analyse en facteurs communs les variables latentes (VL) « attention » et
« intelligence ». Des techniques statistiques permettent de choisir parmi différents
modèles de mesure de l’attention celui qui reproduit le mieux les corrélations
observées entre les mesures effectuées. Le modèle retenu comporte deux VL
« attention » et une VL « intelligence ». La première VL d’attention correspond au
traitement perceptif ; elle est mesurée principalement par des tâches d’alerte,
d’attention spatiale et d’attention sélective. La seconde VL d’attention correspond
au traitement de niveau supérieur et au contrôle exécutif ; elle est mesurée par des
tâches d’interférence, d’attention divisée ou d’attention soutenue. Bien que
distinctes, ces deux VL sont très corrélées (environ 0,80) ce qui signifie que les
mêmes ressources -ou des ressources fortement reliées- sont allouées à l’une et
l’autre de ces deux étapes de traitement. La part de variance commune à ces deux
VL « attention » permet enfin de prédire un tiers environ de la variance de la VL
intelligence. Ainsi opérationnalisées, les ressources de traitement renvoient à une
dimension de contrôle de l’attention qui contribuerait de manière plus ou moins
spécifique aux différences de performance aux tests.
2. Différences individuelles dans la capacité de la mémoire de travail
En 1974, Baddeley et Hitch font appel au concept de mémoire de travail (MT) pour
replacer les processus cognitifs impliqués dans le maintien temporaire de
l’information dans le contexte de mécanismes cognitifs plus généraux (cf. Grand
Amphi Psychologie Cognitive, chapitre 5). Ils proposent de dissocier la structure de
la MT en un exécutif central et deux sous-systèmes asservis, la boucle phonologique
(registre phonologique de stockage passif et mécanisme d’autorépétition
articulatoire) et le calepin visuo-spatial (formation, maintien et manipulation de
l’information sous forme imagée). L’exécutif central est conçu comme un système
attentionnel aux ressources limitées qui contrôle, supervise et coordonne les
fonctions de maintien actif et de traitement de l’information. La capacité de la MT
est définie opérationnellement par la quantité maximale d’unités d’information que
le sujet est capable de maintenir en un état actif lors d’un traitement concurrent. Par
exemple, dans peut-être la forme la plus courante de tâche de MT, les sujets doivent
lire à haute voix des listes de 2 à 6 phrases tout en mémorisant le dernier mot de
chaque phrase. La capacité de la MT mesurée par cette tâche dite d’empan de lecture
(Daneman et Carpenter, 1980) est le nombre de mots parfaitement rappelés
(généralement entre 2 et 5 chez des sujets tout-venant).
De nombreuses épreuves ont été construites pour mesurer la capacité de la MT et il
est difficile aujourd’hui de dire précisément ce qu’est un « bon » indicateur de la
capacité de la MT. Trois grandes fonctions au moins paraissent pouvoir être
distinguées : a) le maintien temporaire d’une information brièvement présentée en
contexte de traitement concurrent ; b) la coordination définie comme la formation de
nouvelles relations et structures (avec ou sans contraintes mnésiques, avec ou sans
manipulation de l’information) ; c) la supervision définie comme le contrôle dans
des conditions d’interférence et de compétition des processus cognitifs guidés par
les buts poursuivis (Oberauer, Süβ, Wilhelm et Wittmann, 2003). Malgré le
caractère pluriel du concept de capacité de la MT et la diversité des taches
employées, les résultats des investigations menées maintenant depuis plus de 25 ans
permettent de penser qu’une relation assez étroite existe entre la capacité de la MT
et les différences de performance aux tests d’intelligence, notamment à ceux qui
mesurent la composante fluide de l’efficience intellectuelle.
Daneman et Carpenter (1980) ont été les premiers à signaler que la capacité de la
MT mesurée par la tâche d’empan de lecture était un bon prédicteur du niveau de
compréhension du langage et de vocabulaire (de l’ordre de 0,40) (cf. documents
4C1,2). De nombreuses études ont observé depuis une relation significative entre la
capacité de la MT et Gf mesurée le plus souvent par le test des Matrices Progressives
de Raven. L’amplitude de cette relation reste cependant débattue. Quelques auteurs
pensent que la capacité de la MT peut être assimilée au facteur g de Spearman en
raison de la corrélation parfois très élevée observée au niveau latent entre la capacité
de la MT et Gf (entre 0,85 et 0,95) mais ce point de vue est minoritaire. On admet
1
6/
généralement que la capacité de la MT et Gf sont des constructions différentes ayant
un pourcentage relativement important de variance en commun. Ackerman, Beier et
Boyle (2005) qui ont récemment analysé les résultats d’une soixantaine de
recherches consacrées à cette question estiment que le pourcentage de variance
commune à ces deux constructions est de l’ordre de 25% mais d’autres recherches le
situent entre 50% et 75%. Ces résultats permettent donc d’affirmer sans équivoque
que la capacité de la MT déduite des modèles de la cognition humaine est un bon
prédicteur, sinon le meilleur, de la performance aux tests d’intelligence fluide.
Carpenter, Just et Shell (1990) ont proposé que la capacité à maintenir active de
l’information (par exemple, des résultats partiels devant être appliqués
ultérieurement) tout en manipulant temporairement une autre information était
particulièrement critique dans la relation entre l’empan de lecture et la performance
aux Matrices Progressives de Raven. L’efficacité de la seule composante de
traitement de la MT (par exemple, la disponibilité de stratégies spécifiques et
d’heuristiques de traitement) jouerait donc un rôle moindre qu’on l’a longtemps
pensé. Les études structurales conduites par Engle, Tuholski, Laughlin et Conway
(1999) ont aussi démontré que lorsque des tâches de MT, de mémoire à court terme
(MCT) et des tests d’intelligence fluide sont administrés à un même ensemble de
sujets, la capacité de la MT permet de prédire Gf indépendamment de la MCT (de 25
à 35% de variance commune) alors que la variance commune à la capacité de la MT
et à la MCT (la composante de stockage) ne permet de prédire que 10% de la
variance de Gf . Ni les différences d’efficacité de traitement (qui contraignent la
capacité de la MT), ni celles de capacité de stockage (qui contraignent aussi la
capacité de la MT) ne paraissent donc pouvoir expliquer à elles seules la relation
observée entre la capacité de la MT et Gf.
Une explication compatible avec les observations effectuées repose sur le rôle du
contrôle exécutif exercé par la MT, rôle qui émergerait de la nécessité de maintenir
active de l’information en contexte de traitement. C’est l’hypothèse que testent chez
de jeunes adultes Friedman, Miyake, Corley et al. (2006) dans une étude sur les
relations entre les fonctions exécutives d’inhibition des réponses dominantes, de
mise à jour des contenus de la MT et de commutation attentionnelle entre opérations
mentales d’une part, les composantes fluide (Gf) et cristallisée (Gc) de l’intelligence
d’autre part. Ils observent que la fonction de mise à jour partage 50% de variance
avec Gf ainsi qu’avec Gc et en attribuent la responsabilité à l’efficacité des
mécanismes d’attention contrôlée responsables de l’activation des représentations
pertinentes, de leur maintien actif face à la distraction et de l’inhibition de
l’information non pertinente au regard des buts poursuivis. Dans le même temps, la
performance à certains tests de raisonnement (par exemple, verbal) semble être plus
reliée à la capacité de la MT lorsqu’elle mesurée par des tâches de MT portant sur
des contenus de même nature (par exemple, verbal) plutôt que sur des contenus de
nature différente (par exemple, spatial). L’interaction entre des mécanismes
généraux d’attention contrôlée et la nature de l’information traitée (spatiale vs
verbale ou numérique) pourrait ainsi expliquer pourquoi la MT ne semble être ni
entièrement unitaire, ni entièrement séparable en sous-systèmes spécialisés (cf.
documents 4C1,3).
L’hypothèse générale émise par Engle et Kane (2004) associe également la capacité
d’attention contrôlée aux aspects exécutifs de la MT. Les résultats en faveur de cette
hypothèse proviennent notamment d’études quasi-expérimentales dans lesquelles la
performance à diverses tâches d’attention est comparée chez des sujets à forte et à
faible capacité de la MT. Il a pu ainsi être montré que les sujets de faible capacité de
la MT étaient plus sensibles à l’interférence (par exemple, dénommer la couleur du
mot « jaune » écrit en rouge) ou plus en difficulté pour inhiber des réponses réflexes
visuelles (par exemple, orienter l’œil dans la direction opposée à celle où apparaît
un avertisseur périphérique) que les sujets à forte capacité de la MT. Signalons que
ces observations peuvent être aussi interprétées en termes de capacité à limiter la
quantité d’information en MT en rafraîchissant les contenus de la MT ou en
supprimant l’information activée non pertinente. D’autres modèles de la MT,
contrairement à celui de Baddeley, conçoivent d’ailleurs la MT comme une portion
activée de la mémoire à long terme, comme une sorte de champ associatif dans
lequel se diffuserait une activation (Grand Amphi, Psychologie Cognitive, p. 290).
La capacité de la MT y est alors synonyme de limites d’activation qui réfléchissent
de multiples demandes en ressources attentionnelles (contrôle, focalisation)
provoqués par exemple par le partage entre le maintien temporaire de l’information
et le traitement concurrent, le rafraîchissement de la trace mnésique face à la
distraction, l’établissement et le maintien temporaire de couplages entre éléments ou
la suppression de l’activation de l’information non pertinente.
1
7/
La capacité de la MT serait donc un bon prédicteur de la performance aux tests
d’intelligence fluide parce qu’elle réfléchit des différences individuelles dans la
capacité à fournir l’effort cognitif nécessaire au maintien de l’information dans un
état actif ou facilement accessible dans des contextes riches en interférences. Les
différences individuelles liées aux mécanismes qui sous-tendent l’engagement dans
la tâche (par exemple, l’attention contrôlée) pourraient être aussi en partie
responsables des différences dans l’apprentissage initial de faits nouveaux et de
procédures et dans la manière avec laquelle cette connaissance peut être ensuite à la
fois récupérée et intégrée. La capacité de la MT est donc très certainement un
facteur explicatif important des différences de performance aux tests d’intelligence
(cf. exercice 4C2). Elle n’est pas pour autant « l’explication » de ces différences.
Des aspects déclaratifs, procéduraux et conditionnalisés de la connaissance jouent
aussi un rôle central dans la performance aux tests notamment à ceux qui mesurent
les composantes de l’intelligence liées à la scolarisation et à l’expérience de
l’individu.
Encadré*************************************************************
Capacité de contrôle attentionnel et apprentissage
Woltz (1988) administre à plus de 600 adultes une tâche complexe d’apprentissage
procédural (apprendre au cours d’un exercice de plus de 700 essais à agir selon
certaines règles en appliquant une suite de consignes du type « Si... alors ») ainsi
que des tâches de contrôle attentionnel (1) trouver l’ordre de 4 lettres à l’aide de 3
propositions successives décrivant leurs positions respectives; 2) transformer
mentalement une série de lettres en appliquant une règle donnée - par exemple, série
initiale RDJ; règle –2; réponse PBH - et d’activation automatique de la MT (1)
indiquer si deux mots présentés sont synonymes ou pas ; 2) indiquer si le premier
mot appartient à la catégorie désignée par le second). Les observations effectuées
permettent de penser que les mesures d’attention contrôlée en MT sont des
prédicteurs significatifs de la performance à la tâche complexe tout au long de
l’apprentissage (de l’ordre de 0,35).
Différences individuelles
dans la capacité d’attention
contrôlée
Système de
traitement contrôlé
comportement guidé par les
représentations symboliques
et la connaissance culturelle,
stratégiquement coordonné
avec les buts (spécifiés par la
tâche, motivationnels)
Modification dynamique
du contenu et des
propriétés
fonctionnelles de la
connaissance.
******************************************************Fin de l’encadré
1
8/
D
LES DIFFERENCES
DANS LES STRATÉGIES
1. La mise en évidence de la diversité interindividuelle des stratégies
D’importantes différences entre individus dans les stratégies employées ont pu être
identifiées dans de nombreux domaines de la cognition. Les premières observations
ont été effectuées par Pask et Scott (1972) à propos de l’apprentissage d’une
classification artificielle d’animaux imaginaires. Celles-ci les ont amenés à
distinguer deux types d’individus. Les uns dits « holistes » tendraient à rechercher
l’information sur plusieurs fronts à la fois pour disposer d’une représentation
globale des relations entre éléments d’un même domaine. Les autres dits
« analytiques » tendraient au contraire à rechercher pas-à-pas l’information, à
apprendre l’une après l’autre chacune des règles de classification. Park et Scott ont
en outre constaté que malgré la présence de quelques sujets capables de changer
aisément de stratégie, le choix de l’une ou l’autre de ces deux stratégies restait
relativement stable au cours des exercices.
Cette diversité des stratégies et l’existence de préférences stratégiques relativement
stables ont été aussi signalées pour des tâches apparemment très simples (cf.
Exercices 4D1,1). Marquer (1995) utilise par exemple une version modifiée du
paradigme de Posner chez 28 participants. La méthode d’identification des
stratégies repose sur l’analyse des verbalisations des sujets et sur la vérification de la
compatibilité du pattern de TR observés avec celui des TR correspondant
théoriquement à l’emploi d’une stratégie donnée. L’auteur est amenée à distinguer 4
groupes de sujets qui emploient la même stratégie quel que soit le type de couple de
lettres : 5 sujets adoptent une stratégie d’identification physique, huit une stratégie
phonétique, 2 une règle d’imagerie visuelle et 2 une stratégie de double codage
visuel et phonétique. Dix autres sujets utilisent une stratégie différente selon le type
de couple de lettres, un dernier sujet ne pouvant être classé dans aucun groupe.
Revus un an plus tard, les deux tiers de sujets appliquent en fin d’expérience la
même stratégie que celle identifiée lors de la première expérience.
Note marginale *******************************************************
Paradigme de Posner : la tâche consiste à décider le plus vite possible si deux
lettres présentées sur un écran d’ordinateur sont identiques ou pas. Les lettres
peuvent être strictement identiques (AA, BB, etc.) ou phonétiquement identiques
(Aa, Bb, etc.). Selon Posner, le traitement reposerait sur une identification physique
dans le cas de lettres strictement identiques et sur une identification du nom dans le
cas de lettres phonétiquement identiques.
************************************************ fin de la note marginale
L’existence de différences individuelles dans l’utilisation des stratégies a
d’importantes implications sur la compréhension de l’intelligence mesurée par des
tests stratégiquement « impurs ». Nous avons brièvement évoqué dans la section B
la diversité inter-individuelle des stratégies à laquelle s’est heurtée l’analyse
composantielle de l’activité cognitive. Lohman et Kyllonen (1983) utilisent par
exemple une tâche visuo-spatiale conçue à partir d’un test de visualisation spatiale.
Le modèle cognitif sous-jacent fait l’hypothèse de diverses opérations mentales
(mémorisation, synthèse, rotation, comparaison). Le niveau de complexité des items
s’étend de la simple comparaison perceptive de polygones à la synthèse d’images
non contiguës après rotation. La diversité des stratégies de traitement mises en jeu
est frappante.
1
9/
Encadré*************************************************************
Diversité des stratégies de traitement d’une information visuo-spatiale
cible
test
mémorisation
rotation
synthèse
Lors de l’étape de synthèse par exemple, certains sujets font la synthèse des deux
formes avant de la mémoriser, d’autres mémorisent les éléments séparés, d’autres
procèdent de l’une ou l’autre façon selon le niveau de complexité des items. Un
résultat comparable est observé lors de l’étape de comparaison. Certains sujets
comparent l’ensemble de la représentation formée à la figure-test, d’autres
comparent élément par élément, d’autres enfin procèdent de l’une ou l’autre
manière. Lohman et Kyllonen observent aussi que l’emploi de certaines procédures,
apparemment lié au niveau de performance à des tests spatiaux, conduit à une
performance plus rapide et à un meilleur niveau de précision (cf. exercices 4D1,3).
****************************************************** fin de l’encadré
La signification des scores aux tests, même relativement simples, est donc ambiguë.
Par exemple, un individu peu compétent dans le domaine visuo-spatial peut l’être
parce qu’il applique correctement une stratégie peu efficace ou parce qu’il applique
mal une stratégie adaptée. Un même test peut ainsi mesurer des aptitudes différentes
selon la manière avec laquelle il a été résolu. On comprend alors l’intérêt de tests
cognitifs informatisés permettant un diagnostic automatique des stratégies de
traitement de l’information. C’est le cas par exemple du logiciel « Samuel »
développé par Rozencwajg, Corroyer et Altman (2002). La tâche, inspirée du test
des cubes de Kohs, un test d’intelligence non-verbale, consiste à reproduire un
modèle à l’aide de carrés rouges, blancs ou bicolores. La méthode employée permet
d’inférer les stratégies employées à partir d’indices comportementaux comme la
fréquence des regards vers le modèle ou l’ordre de placement des carrés par
groupements formant une figure géométrique simple (ou gestalt). Trois stratégies
peuvent ainsi être identifiées : globale (ajustement par essais et erreurs), analytique
(découpage du modèle en carrés puis reconstruction pas à pas) et synthétique
(placement des carrés suivant des gestalts invariantes à travers les modèles), cette
dernière étant plus fréquemment employée chez les sujets plus performants. Des
approches diagnostiques de ce type offrent l’avantage de dépasser le constat habituel
d’un niveau de performance pour une compréhension plus qualitative du
fonctionnement cognitif du sujet.
L’identification des stratégies de traitement mises en œuvre lors de la résolution de
tests d’intelligence éclaire aussi sous un autre jour les différences quantitatives de
performance. Vigneau, Caissie et Bors (2006) analysent les mouvements oculaires
de 55 sujets lors de la résolution des Progressive Matrices de Raven (cf. chapitre 3),
un test d’intelligence générale dans lequel il faut choisir la bonne réponse parmi
plusieurs distracteurs. Les observations effectuées témoignent d’une certaine
relation entre stratégies de traitement employées et niveau de performance au test.
Ainsi, les sujets qui utilisent préférentiellement une stratégie d’identification « par
défaut » de la réponse en éliminant celles qui leur paraissent mauvaises (temps
important consacré à l’examen des propositions de réponse) tendent à être moins
performants au test que ceux qui font appel à une stratégie de construction de la
réponse (temps important consacré à l’encodage de la matrice). Par ailleurs, les
sujets semblent poursuivre des objectifs différents lors de l’inspection de la matrice.
Certains, plus performants au test, se focalisent sur une case de la matrice alors que
d’autres, moins performants, étendent le traitement à des cases adjacentes. Ce type
de résultat pourrait signifier que les individus cherchent à utiliser au mieux leurs
ressources de traitement en choisissant les stratégies les plus en appropriées à leur
niveau d’aptitude. Pour autant, ce choix s’effectue aussi vraisemblablement sur la
base de la disponibilité stratégique, fonction de l’expérience antérieure et des
compétences acquises.
2. Les changements intra-individuels de stratégie en cours de tâche
La stabilité des préférences stratégiques individuelles n’est que relative. Celle-ci
2
0/
s’accompagne en effet de variations autour d’une tendance moyenne, ce qui rend
difficile de caractériser un individu par l’emploi d’une stratégie identique pour
chaque item. L’existence chez un même sujet de changements de stratégie en cours
de tâche a été démontrée très tôt dans le cadre de l’analyse composantielle.
Kyllonen, Lohman et Woltz (1984) testent deux types de modèles pour chaque étape
de traitement (encodage, synthèse et comparaison) lors de la résolution des items de
la tâche visuo-spatiale décrite dans l’encadré précédent : des modèles à stratégie
unique d’une part, des modèles à changement de stratégie d’autre part. Ils constatent
que les modèles à changement de stratégie présentent un ajustement très supérieur à
celui des modèles à stratégie unique. Ces changements de stratégie paraissent plus
précisément provoqués par des changements dans les caractéristiques pertinentes
des items, par exemple lors du passage d’un item facile à un item plus difficile (cf.
exercices 4D1,2). Lohman et Kyllonen ont ainsi établi qu’en comparaison aux sujets
spatialement les moins aptes, les sujets les plus aptes tendaient à plus employer des
stratégies réduisant la composante visuelle des items les plus difficiles afin d’en
diminuer le coût de traitement.
Les changements de stratégie accompagnent souvent l’apprentissage. Glück et ses
collègues (2002) entraînent un groupe de sujets à effectuer la rotation mentale
d’objets bi-dimensionnels de complexité croissante. L’identification des stratégies
individuelles a lieu avant (pré-test) et après l’entraînement (post-test). Elle est
effectuée au moyen d’un test de rotation de cubes dont les items sont conçus de
façon à pouvoir distinguer l’emploi d’une stratégie d’« appariement sur identité de
pattern » de celle d’une stratégie « authentiquement spatiale ». L’évolution des
choix stratégiques des sujets entraînés est comparée à celle de sujets n’ayant pas
bénéficié de cet entraînement (groupe contrôle). Les auteurs font état de
changements qualitatifs chez deux tiers environ des sujets entraînés mais pas chez
les sujets du groupe contrôle. Ces changements se traduisent par l’abandon d’une
stratégie d’appariement au profit d’une stratégie spatiale. Ils sont majoritairement
observés chez les sujets ayant le meilleur niveau initial de performance au test de
rotation de cubes. D’autres études montrent aussi qu’il est possible d’entraîner des
individus à utiliser plus efficacement certaines stratégies de traitement de
l’information (cf. documents 4D2).
Certains de ces changements intra-individuels de stratégie en cours de tâche
témoigneraient de la capacité variable selon les individus à s’adapter aux
changements liés à la tâche. Pour Schunn et Reder (2001) qui parlent à ce sujet
d’adaptabilité stratégique, les sujets pourraient disposer du même répertoire de
stratégies mais différer dans leur capacité à sélectionner la « meilleure » stratégie
pour une situation donnée et plus particulièrement dans leur capacité à détecter et à
utiliser le taux de réussite des stratégies employées. Schunn et Reder testent cette
hypothèse à partir d’observations recueillies dans une situation complexe qui simule
des aspects dynamiques du contrôle du trafic aérien. Leurs résultats montrent que les
individus diffèrent en termes de présence/absence, niveau et vitesse de l’adaptabilité
stratégique en fonction du taux de réussite antérieur sans que ces différences ne
puissent être attribuées à une connaissance différentielle de la tâche. Selon les
auteurs, les différences d’efficacité des processus de sélection stratégique
proviendraient de différences dans la vitesse de traitement de l’information, la
capacité de la mémoire de travail et la capacité de raisonnement inductif. Les
observations précédentes sont à rapprocher de celles, plus anciennes, de Kyllonen et
de ses collaborateurs (1984) qui faisaient la preuve d’une meilleure adaptation intratâche des choix stratégiques chez les sujets de haut niveau d’aptitude générale.
Note marginale *******************************************************
Adaptabilité stratégique : capacité de l’individu à sélectionner la stratégie la mieux
adaptée au problème et qui lui convient le mieux. L’adaptabilité stratégique
dépendrait de facteurs comme la capacité à s’adapter à de nouvelles consignes, la
capacité à changer de représentation, l’évaluation du taux antérieur de réussite de la
stratégie, etc.
************************************************ fin de la note marginale
L’importance de la capacité à changer de stratégie, de la « flexibilité » cognitive, a
été également soulignée par Richard (1993) à propos du test du Passalong analysé
comme une situation de résolution de problème. Cette importance est liée au fait que
la reconnaissance de l'analogie entre problèmes dont dépend la résolution des items
difficiles nécessite un changement d'interprétation lorsque celle adoptée jusqu’alors
n’est plus adéquate. Confronté à une impasse c’est-à-dire un point où les stratégies
employées jusqu’alors ne sont plus adaptées, le sujet doit envisager un changement,
par exemple un détour ou une réorientation. Ce changement nécessite que le sujet
2
1/
reste attentif aux propriétés pertinentes de la situation alors même que la résolution
successive de problèmes semblables contribue à la mise en œuvre de routines qui
constituent un obstacle à la prise en compte des propriétés pertinentes de la
situation. La flexibilité cognitive est donc un aspect central, en lien sans doute avec
le système de contrôle cognitif, des différences individuelles dans les situations de
tests d'intelligence.
Note marginale *******************************************************
Le test du Passalong : Il est constitué de neuf items de difficulté croissante. Le
matériel est constitué de pièces bleues (situées en haut du cadre) et rouges (situées
en bas du cadre). Le but consiste à descendre les pièces bleues et à remonter les
pièces rouges en un nombre minimum de coups.
************************************************ fin de la note marginale
L’étude de la flexibilité stratégique présente donc un très grand intérêt d’un point de
vue théorique. Mais comme précédemment quand il était postulé que les individus
différaient dans la vitesse d’exécution de processus fondamentaux ou que tous les
items d’une même tâche étaient résolus avec une même procédure, il serait erroné de
penser que les sujets peuvent être caractérisés par le seul emploi d’une stratégie
donnée ou par une manière définie de changer de stratégie. Si un niveau élevé de
performance aux tests implique une certaine capacité de flexibilité stratégique,
nombreuses sont les situations où les sujets les plus aptes ne changent que très peu
de stratégie, ce qui suggère l’existence d’une interaction entre les connaissances et
les processus de sélection des stratégies.
2
2/
E
LES DIFFÉRENCES LIEES
AUX CONNAISSANCES
Comme les premières théories de la cognition humaine, les recherches sur les bases
cognitives de l’intelligence mesurée par les tests ont été principalement guidées par
une conception du fonctionnement intellectuel mettant l’accent sur les processus
plutôt que sur le contenu symbolique sur lequel ils opèrent ou sur la finalité de leur
mise en œuvre par l’organisme. L’usage a donc été d’employer des tâches supposées
faire aussi peu appel que possible à des connaissances spécifiques. Or même dans ce
cas, la connaissance nécessaire à la résolution de ces tâches est moins triviale qu’il
n’y paraît. Comment par exemple expliquer qu’on juge en moyenne plus rapidement
l’affirmation « 103 est à peu près égal à 100 » que celle « 100 est à peu près égal à
103 » sans faire référence à l’organisation des connaissances et des savoir-faire
accumulés au cours des expériences dans le domaine de la numération par les
individus? Les variations dans l’organisation de l’arrière-plan de connaissances de
l’individu, dans ce que celui-ci (re)connaît de la situation particulière à laquelle il
est confronté, dans ce qu’il sait des procédures permettant d’atteindre les buts fixés
et de leur efficacité, jouent donc un rôle important dans les différences de
performance observées aux tests d’intelligence. Mais malgré les nombreux travaux à
ce sujet, l’articulation très complexe entre connaissance, processus et ressources
dans la détermination de la performance aux tests reste aujourd’hui encore mal
comprise.
1. Que nous apprend l’analyse de l’expertise cognitive ?
Les individus très compétents dans un domaine spécifique de connaissance et de
savoir-faire (les experts) sont par définition les plus aptes à résoudre les problèmes
de ce domaine. Il est donc intéressant d’analyser l’expertise de ces individus placés
dans des situations de raisonnement et de résolution de problème portant sur des
domaines riches en connaissances spécifiques (par exemple, les sciences physiques,
l’architecture, l’interprétation de clichés radiographiques, les échecs, etc.) afin
d’identifier ce qui les différencie de manière critique des individus n’ayant pas
d’expérience du domaine (les novices).
Les conceptualisations de la connaissance varient bien sûr selon les approches.
Certains auteurs font appel à la notion de schéma ou représentation d’une catégorie
générale de choses, situations ou phénomènes (par exemple, la notion de voiture).
D’autres s’appuient sur l’idée de modèle mental ou « analogue structural du
monde » qui réfléchirait la connaissance, l’expérience et les buts de l’individu. Une
conceptualisation assez partagée est celle de réseaux de propositions représentant la
connaissance déclarative et la connaissance procédurale et dans lesquels
l’activation se propagerait. Quelle que soit la conception théorique adoptée, les
résultats de l’analyse des performances des experts en comparaison à celle des
novices témoignent de l’importance des différences liées à la structure conceptuelle
de la connaissance.
Note marginale*******************************************************
Connaissance déclarative : reconnaissance et compréhension de l’information
factuelle sur les objets, idées, événements, etc. (par exemple, le soleil se lève à l’est;
2+2=4; si la voiture freine, elle s’arrête)
Connaissance procédurale : savoir-faire ou stratégies pouvant être activés
rapidement et sans effort (par exemple, ouvrir une porte fermée à clé, se brosser les
dents).
2
3/
************************************************Fin de la note marginale
Encadré*************************************************************
La structure de la connaissance : c’est l’organisation de la représentation mentale
de la connaissance (cf. Grand Amphi, Psychologie Cognitive: chapitre 5). La
structure de la connaissance est déterminée en partie par l’étendue de la
connaissance disponible et peut être définie en termes de cohérence et de degré de
hiérarchisation de la connaissance. La cohérence de la structure dépend du niveau
d’intégration de la connaissance, à la fois d’un point de vue local (relations entre
concepts voisins) et d’un point de vue global (relations entre sous-structures
hiérarchisées). L’organisation de la connaissance déclarative et procédurale
conditionnerait la rapidité d’accès à la connaissance et en déterminerait la bonne
utilisation.
******************************************************Fin de l’encadré
On a ainsi pu remarquer dans une des premières études sur l’expertise cognitive
qu’un même stimulus pouvait être perçu et compris différemment selon le niveau
d’expertise. Par exemple, les bons joueurs d’échecs mémorisent mieux que les
novices l’emplacement des différentes pièces sur des configurations réelles. Mais la
comparaison entre ces deux catégories d’individus ne dégage pratiquement pas de
supériorité mnésique des experts lorsque les configurations de pièces sont aléatoires.
La meilleure mémorisation des experts tiendrait donc plus à une meilleure
connaissance des configurations signifiantes leur permettant d’en réaliser les
implications stratégiques (par exemple, le déplacement d’une pièce vers un endroit
précis) qu’à l’efficacité de processus généraux de mémorisation de l’information.
Cette capacité propre à l’expert de développer dans son domaine d’expertise une
sensibilité à des patterns d’information signifiante a été retrouvée dans de nombreux
autres domaines. Elle impliquerait le développement de structures conceptuelles
organisées guidant la manière de représenter et de comprendre les problèmes.
D’importantes différences dans la manière avec laquelle la connaissance est
organisée chez les experts et les novices ont en effet été relevées dans plusieurs
domaines (cf. documents 4E1,1). En physique ou en histoire par exemple, les
novices travaillent sur la base d’unités d’analyse assez superficielles et n’ont qu’une
connaissance partielle des conditions d’application des principes et des règles
identifiés. La représentation qu’élaborent les experts du problème n’est pas
simplement une liste de faits mais s’appuie prioritairement sur des principes plus
abstraits, non immédiatement identifiables. On demande par exemple à des étudiants
en début et en fin de formation de trier des problèmes de physique en fonction de
leur ressemblance. Le niveau d’expertise détermine la manière de définir les
problèmes. Chez les novices, l’organisation des problèmes est basée sur des traits de
surface (par exemple, la chute d’un objet). Chez les experts au contraire, elle est
basée sur des similitudes structurelles et des principes abstraits (par exemple, les
principes de physique nécessaires pour résoudre les problèmes).
Ces observations attestent que la connaissance des experts est effective et
conditionnalisée en ce sens que les éléments de connaissance sont étroitement liés à
des procédures et à leurs conditions d’application. Cela explique sans doute
pourquoi l’expertise est aussi caractérisée par une récupération automatique et fluide
de la connaissance devant être mobilisée dans une tâche donnée. On comprend aussi
l’avantage d’une connaissance hautement organisée et facilement disponible du
point de vue des possibilités d’allocation à d’autres aspects de l’activité cognitive
des ressources de traitement rendues ainsi disponibles. Des différences entre
individus attribuées à l’efficacité de certains processus ou aux ressources de
traitement pourraient donc être liées à des différences dans l’organisation et la
disponibilité des connaissances spécifiques au domaine où se manifestent ces
différences.
Note marginale*******************************************************
Connaissance conditionnalisée : connaissance incluant une spécification des
contextes dans lesquels elle est utile (par exemple, les conditions temporelles et
locales d’utilisation des procédures).
**************************************************Fin de note marginale
Encadré*************************************************************Le
mécanisme de procéduralisation de la connaissance : Anderson (1983) a proposé
un modèle de l’apprentissage qui accorde une place centrale à ce mécanisme. Dans
cette théorie, la connaissance effective et conditionnalisée des procédures ne peut se
2
4/
construire qu’à partir des informations contenues en mémoire permanente. Lors de
l’apprentissage de savoir-faire cognitifs nouveaux, l’individu générerait une solution
initiale en appliquant, par analogie par exemple, la connaissance dont il dispose.
Des représentations mnésiques se développeraient alors progressivement sous forme
de composantes de production pour s’enchaîner ensuite les unes aux autres, pour se
« procéduraliser ». La procéduralisation automatique de la connaissance créerait
donc au cours de l’apprentissage une connaissance nouvelle, spécifique au domaine
et contribuerait en conséquence à améliorer la performance dans ce domaine.
******************************************************Fin de l’encadré
L’analyse de l’expertise peut aussi aider à mieux comprendre les différences
individuelles dans les mécanismes d’acquisition des informations nouvelles qui
viennent se cumuler aux connaissances actuelles de l’individu (par exemple, le
mécanisme de « procéduralisation » de la connaissance). Les résultats d’études sur
le développement de l’expertise mettent aussi en lumière l’existence d’une relation
entre l’importance de la pratique délibérée et la qualité des efforts fournis lors de
l’apprentissage de connaissances d’une part, le niveau de performance à la tâche
d’autre part (Exercices 4E2,1). Il semble aussi qu’avec l’apprentissage certains
changements qualitatifs, ici synonymes d’interconnections de plus en plus étroites
entre représentations anciennes et plus nouvelles, se produisent à la fois dans la
connaissance, dans la structure organisée de cette connaissance et dans les modes
d’utilisation de la connaissance. Ce sont de tels changements qualitatifs dans les
stratégies cognitives d’enfants apprenant l’addition (par exemple, compter sur ses
doigts, dénombrer mentalement, récupérer le résultat en mémoire) qui font penser à
Siegler (1996) que les différences dans le degré d’organisation des règles et faits
arithmétiques stockés en mémoire à long terme (4+4=8) contribuent à expliquer la
diversité inter- et intra-individuelle des procédures de résolution. Il semble donc
qu’il y ait un lien entre les différences individuelles dans l’organisation, la
disponibilité et l’utilisation de la connaissance, les différences dans les ressources de
traitement et les choix stratégiques individuels.
2. Les différences de niveau métacognitif
Les tâches les plus révélatrices de différences individuelles dans le fonctionnement
cognitif nécessitent généralement de reconnaître le type de problème, de définir les
buts, de comparer plusieurs alternatives et d’élaborer le chemin de pensée à suivre,
de sélectionner les procédures de résolution, de gérer l’allocation des ressources, de
contrôler l’activité cognitive et d’en modifier éventuellement le cours en fonction
des informations reçues en retour. Ces différences s’expriment dans des processus
exécutifs ou métacognitifs dont on pense qu’ils sont généralisés au fur et à mesure
qu’ils sont appliqués à une variété croissante de domaines de connaissances (cf.
documents 4E1,2).
Note marginale*******************************************************
Les processus exécutifs sont des processus de haut niveau impliqués dans la
planification, la surveillance, le contrôle et la régulation de l’activité cognitive.
************************************************Fin de la note marginale
Encadré*************************************************************Qu’e
st-ce que la métacognition? « La métacognition fait référence à la connaissance que
nous avons de nos propres états et processus cognitifs ainsi qu’à leur régulation.
Conceptuellement, deux composantes peuvent être distinguées: l’une est la
connaissance métacognitive, l’autre est l’expérience métacognitive. La connaissance
métacognitive, c’est ce que l’individu connaît de lui-même et des autres en tant
qu’individus traitant de l’information. Elle comprend ce que l’on connaît sur les
différences entre personnes c’est-à-dire ce que l’on connaît des variations de son
propre fonctionnement, des différences de fonctionnement entre soi et les autres, de
la cognition en général. Elle comprend également ce que l’on connaît des tâches, des
demandes qui y sont liées et des caractéristiques de l’information disponible. Elle
comprend enfin ce que l’on connaît des procédures cognitives du point de vue de
leur capacité à permettre d’atteindre des buts spécifiques. [...] L’expérience
métacognitive, parfois appelée contrôle métacognitif et stratégies d’auto-régulation,
fait référence aux expériences cognitives et affectives de l’individu. Cette expérience
métacognitive inclut les activités mentales impliquées par exemple dans la
régulation de l’apprentissage. C’est le cas des activités de planification (par
exemple, définir les buts à atteindre, survoler un texte ou se poser quelques
questions avant de le lire) qui peuvent faciliter l’activation de la connaissance,
l’organisation et la compréhension du matériel à apprendre ou de celles permettant
2
5/
la surveillance du bon déroulement de l’activité mentale (par exemple, focaliser son
attention sur un point précis, s’auto-évaluer en cours d’apprentissage). C’est aussi le
cas des processus d’évaluation du produit de l’activité cognitive (par exemple,
l’évaluation de l’efficacité des procédures employées). L’expérience métacognitive
inclut également les jugements sur la qualité de l’apprentissage ou le niveau de
confiance de l’individu. Ces expériences métacognitives, par exemple ce que l’on
apprend lors de la régulation de l’apprentissage, peuvent modifier et enrichir la
connaissance métacognitive. »
Extrait et traduit de Corkill (1996).
******************************************************Fini de l’encadré
On se souvient par exemple que Sternberg a montré que les individus les plus aptes
à des tâches de raisonnement analogique consacraient proportionnellement plus de
temps à l’étape d’encodage que ne le faisaient les moins aptes. On a également pu
remarquer que par rapport aux mauvais lecteurs, les bons lecteurs répartissent mieux
leur temps de lecture en fonction de la difficulté et du contenu des différents
passages du texte qu’ils ont à lire. Ici, l’aspect critique concerne l’encodage de
l’information pertinente en fonction de la manière dont l’activité cognitive est
planifiée. Les caractéristiques et les exigences de la tâche semblent aussi être mieux
comprises par les individus les plus efficients, ce qui pourrait entraîner une
utilisation de stratégies de résolution ou d’acquisition plus appropriées ainsi qu’une
allocation mieux adaptée des ressources disponibles. Par exemple, Borkowski et ses
collègues comparent les performances d’enfants de 7 ans doués et normaux (en
fonction de leurs résultats à une batterie d’épreuves psychométriques) à une tâche
non familière d’apprentissage de couples de lettres associées. Ils constatent qu’au
début de l’expérience, la performance est sensiblement la même pour tous les
enfants, aucun d’entre eux ne semblant disposer des connaissances spécifiques
appropriées à la tâche. Ils remarquent aussi que tous les enfants peuvent profiter
d’un entraînement à l’utilisation d’une stratégie spécifique permettant d’améliorer la
performance. Mais ils observent surtout qu’à entraînement égal, les enfants doués
transfèrent plus facilement que les autres la stratégie apprise à une situation
différente pouvant être résolue avec la même stratégie. Cette supériorité des enfants
doués dans la généralisation stratégique pourrait s’expliquer par une plus grande
efficacité des processus exécutifs qui permettrait de penser de manière analogique
des domaines nouveaux en s’appuyant sur des domaines familiers de connaissance.
Encadré*************************************************************
Différences individuelles dans la planification de l’activité cognitive. On
demande à des enfants de dernière année de primaire (efficients vs peu efficients) de
mémoriser des informations textuelles concernant deux robots hypothétiques aux
fonctions différentes. Le premier texte décrit les caractéristiques structurelles des
deux robots. Plus élaboré, le second texte précise les liens entre les caractéristiques
structurelles et les fonctions des robots. On constate que les élèves moins efficients
se rappellent mieux les caractéristiques des robots dans la seconde condition. Ce
n’est pas le cas pour les élèves plus efficients, comme s’ils fournissaient
spontanément l’effort de relier les caractéristiques structurelles aux fonctions des
robots lorsque cette information n’est pas fournie. On demande également aux
enfants d’évaluer la difficulté de chacun des textes. Pour les enfants efficients, c’est
le texte 1 qui jugé le plus difficile; ils y consacrent d’ailleurs plus de temps. Ce
résultat est en accord avec l’hypothèse que les élèves plus efficients cherchent à
relier l’information lue à d’autres éléments du texte. A l’inverse, les élèves moins
efficients consacrent plus de temps au texte 2, comme s’ils relisaient le texte pour
l’apprendre.
Extrait et traduit de Borkowski et Muthukrishna (1992).
******************************************************Fin de l’encadré
Un aspect critique du fonctionnement exécutif semble être aussi lié au contrôle, à la
surveillance de la démarche cognitive et à la capacité à maintenir activés les buts et
sous-buts à atteindre pour résoudre une tâche complexe ou lors d’un comportement
nouveau. Les résultats de plusieurs études ayant analysé les erreurs commises par
des enfants ou des adultes lors de la résolution des Progressive Matrices de Raven
montrent ainsi que dans leur très grande majorité, celles-ci sont essentiellement dues
à l’oubli d’une règle au cours de la résolution de l’item. De plus, les individus les
moins aptes tendraient plus facilement que les autres à oublier les règles les plus
complexes. Les différences dans l’efficacité des stratégies de surveillance ellesmêmes ou dans la connaissance qu’ont les individus de ces stratégies pourraient
2
6/
expliquer de tels résultats.
Encadré*************************************************************
Un modèle de l’interaction entre processus exécutifs et connaissances
métacognitives.
Les premiers travaux sur le fonctionnement métacognitif se sont focalisés sur la
connaissance dont dispose l’individu à propos de stratégies spécifiques (par
exemple, savoir quand et comment mettre en œuvre une stratégie donnée, savoir
quels avantages sont liés à son utilisation, etc.). Mais des facteurs personnels et
motivationnels (par exemple, les buts d’apprentissage, les croyances d’attribution,
etc.) alimenteraient les processus de contrôle exécutif nécessaires à la sélection des
stratégies, à leur application et à la surveillance de l’activité cognitive.
connaissances stratégiques
spécifiques
processus
exécutifs
tâche
application de la stratégie
performance
croyances d'attribution,
motivation d'accomplissement,
etc.
Le fonctionnement exécutif émerge des activités d’apprentissage associées à des
activités cognitives de bas-niveau pour être plus tard associé à des états
motivationnels positifs (cf. figure). Le déroulement peut être décrit comme suit.
L’enfant apprend d’abord à utiliser une stratégie spécifique puis avec la répétition,
acquiert des connaissances à son sujet. Ces connaissances concernent l’efficacité de
la stratégie, son champ d’application, la manière de l’utiliser correctement dans
diverses tâches. [...] L’enfant apprend ensuite d’autres stratégies et les applique à
différents contextes. Le domaine des connaissances liées à ces stratégies s’élargit et
s’enrichit. L’enfant vient alors à comprendre quand, où et comment chaque stratégie
peut être appliquée : il apprend aussi à différencier les mérites respectifs de chaque
type de stratégie. Graduellement se développe la capacité à sélectionner les
stratégies adaptées à une catégorie de tâches données ainsi que celle à superviser et
contrôler leur bonne mise en œuvre. Les processus exécutifs ou processus de
contrôle de niveau supérieur émergent alors ; le comportement s’auto-régule de plus
en plus. La fonction initiale de ces processus exécutifs (analyse de la tâche, sélection
de la stratégie la plus adaptée) évolue vers une fonction de supervision et
d’évaluation de l’activité. Au fur et à mesure que ces processus exécutifs et
stratégiques s’affinent, différentes formes de connaissance se développent (par
exemple, des croyances d’attribution causale, des buts d’apprentissage, etc.).
D’après Borkowski (1996).
******************************************************Fin de l’encadré
Note marginale*******************************************************
Croyances d’attribution : On explique généralement ce qui nous arrive ou la
conduite d’autrui en l’attribuant à des causes. Ces croyances d’attribution causale
peuvent être par exemple internes (« ce qui m’arrive dépend de mes efforts, de mes
aptitudes ») ou externes (« je n’y suis pas arrivé parce que je n’ai pas eu de
chance »). Les différences dans les croyances d’attribution peuvent ainsi conduire à
des différences dans l’intérêt à l’égard d’une tâche, l’effort qui y est alloué, etc.
Buts d’apprentissage : On peut souhaiter apprendre pour soi et pour atteindre un
certain niveau de compétence; on peut aussi le souhaiter pour obtenir un diplôme ou
par crainte d’un échec. Selon les buts d’apprentissage, les stratégies développées par
les uns ou les autres peuvent différer.
************************************************Fin de la note marginale
Il est pour l’instant difficile de fournir une explication satisfaisante du rôle sur
2
7/
l’efficience intellectuelle des différences individuelles dans les processus exécutifs
et dans les connaissances avec lesquelles ils interagissent (cf. Exercices 4E2,2).
L’idée importante est celle d’interaction: elle signifie que la mise en œuvre de ces
processus contribue à faire évoluer les connaissances - dont leur efficacité dépend vers des connaissances et des savoir-faire de mieux en mieux intégrés, de plus en
plus généralisables. Il est vraisemblable que des différences dans par exemple la
planification, la connaissance et l’utilisation des stratégies ou le contrôle de
l’activité cognitive ((cf. Exercices 4E2,3). naissent de cette interaction permanente
au cours d’actes cognitifs spécifiques, répétés sur de longues périodes de temps.
Intégrés différemment selon les individus, les produits de cette interaction
permanente pourraient donc être à l’origine de certaines des différences de
performance observées aux tests d’intelligence.
2
8/
DOCUMENT
4 B 1 – L’analyse des corrélats cognitifs des aptitudes : une illustration
1 - PRÉSENTATION
On décrit et commente ici la démarche et les principaux résultats d’une analyse des
corrélats cognitifs des aptitudes réalisée par Lansman, Donaldson, Hunt & Yantis
(1982). Le plan d’expérience de cette étude est multivarié : la performance à
plusieurs tâches « de calibrage » y est mise en relation avec la performance à des
tests choisis en référence au modèle des aptitudes de Horn et Cattell (cf. chapitre 3).
2 - PROBLEMATIQUE
L’objectif principal de cette recherche de validation est de souligner le caractère
étroit de la correspondance existant entre deux grandes distinctions. La première,
suggérée par la psychologie différentielle, concerne la différence entre les
composantes cristallisée (Gc) et spatiale (Gv) de l’intelligence. La seconde est celle
qu’effectue la psychologie expérimentale entre traitement de l’information verbale et
traitement de l’information visuo-spatiale.
Trois questions sont abordées:
- dans quelle mesure différents indicateurs d’un même processus cognitif
fournissent-ils des informations de même nature ?
- quelles relations théoriques y a-t-il entre des processus différents?
- les facteurs mesurés avec des tâches expérimentales sont-ils en relation avec ceux
mesurés avec les tests?
3 - PROCEDURE
A/ Tests psychométriques
Les auteurs utilisent plusieurs indicateurs - ici des tests papier-crayon - pour
mesurer chacune des variables latentes (ou facteurs) suivantes: intelligence
cristallisée (Gc), intelligence fluide (Gf), visualisation spatiale (Gv) et vitesse
perceptive (Vp). Le modèle de mesure appliqué est celui de l’analyse en facteurs
communs (cf. chapitre 2). Une brève description des tests administrés est donnée
dans le tableau ci-dessous dans lequel on indique quel facteur dit « associé » est
supposé être mesuré par l’indicateur.
Indicateur
Analogies
ésotériques
Vocabulaire
Information
générale:
Associations
verbales
Analogies
communes
Matrices
Séries de lettres
Figures
Cubes
Rotation de cartes
Dépliage
Surfaces
développées
Puzzle mental
Formes identiques
Barrage
Collationnement
Tâche à effectuer
analogies entre mots simples mais avec des relations complexes
Facteur associé
Gc
choisir la définition correcte d’un mot donné
répondre à une questionnaire de connaissances à choix multiples
Gc
Gc
trouver un mot relié à trois mots donnés
Gc
analogies entre mots complexes mais avec des relations simples
Gf
choisir le dessin qui complète logiquement une matrice 2x2 de dessins.
déterminer la letttre qui suit logiquement la série présentée
déterminer si deux figures sont exactement superposables
déterminer si deux images d’un cube sur les faces desquelles apparaissent des
informations différentes sont compatibles.
indiquer celles qui dans une série de formes planes présentées dans des orientations
différentes peuvent être mises en congruence avec une forme cible.
après qu’une feuille de papier ait été pliée et percée, choisir la bonne image montrant à
quoi ressemble le papier une fois déplié.
indiquer si la surface développée correspond à l’objet présenté
Gf
Gf
Gv
Gv
indiquer les formes plane qui placées de manière contiguë reproduisent le modèle
choisir l’image identique au modèle
barrer les mots contenant la lettre A
déterminer si deux nombres de 7 chiffres sont identiques
Gv
Vp
Vp
Vp
D’après Lansman, M., & collaborateurs, op.
cit.
B/ Tâches de calibrage
La mesure des paramètres élémentaires du traitement de l’information repose sur
trois paradigmes: celui de rotation mentale pour le traitement de l’information
Gv
Gv
Gv
2
9/
spatiale, ceux de comparaison de couples de lettres et de comparaison phrase-dessin
pour le traitement de l’information verbale. Chaque processus étudié est mesuré de
deux manières différentes: a) une passation « assistée par ordinateur » (AO)
permettant une mesure item par item des TR et b) une passation « papier-crayon
» (PC) fournissant une mesure plus globale (nombre d’items d’un type donné
correctement résolus en un temps donné).
Paradigme de rotation mentale
Principe : les sujets doivent décider le plus vite possible si des paires d’objets bidimensionnels ou tri-dimensionnels présentés dans une orientation différente (bi:
rotation dans le plan; tri: rotation dans un plan parallèle ou en profondeur)
correspondent à des objets de même forme ou de formes différentes (symétrique en
miroir). La manipulation expérimentale porte sur l’importance de la disparité
angulaire entre les deux objets (0°, 30°, 60°, 90°, etc.).
Résultat majeur : lorsque les formes présentées sont identiques, on observe en
moyenne une augmentation linéaire du TR avec le degré de disparité angulaire entre
les objets: plus cette disparité est grande, plus le TR est long.
Interprétation : ce résultat est interprété par les auteurs comme témoignant du
caractère analogique et séquentiel du processus de rotation mentale.
Paramètre individuel de traitement de l’information : la pente de la droite décrivant
l’augmentation du TR en fonction de la disparité angulaire mesurerait la “vitesse de
rotation mentale” de l’individu.
Paradigme de comparaison de lettres
Principe : il s’agit de juger si deux lettres apparaissant sous deux conditions
correspondant à deux consignes différentes sont identiques ou pas. La première
consigne est de juger de l’Identité Perceptive des lettres (condition IP: les couples
AA, aa sont identiques; les couples Aa, AB, Ab ne le sont pas). La seconde consigne
est de juger de l’identité des lettres du point de vue de leur dénomination ou Identité
de Nom (condition IN: les couples AA mais aussi Aa sont identiques).
Résultat majeur : Posner a été le premier à mettre en évidence que le TR dans la
condition IP est en moyenne moins long que celui observé dans la condition IN
(différence moyenne de l’ordre de 70 msec. chez l’adulte).
Interprétation : la condition IN étant plus dépendante d’associations linguistiques
que ne l’est la condition IP, l’écart IN-IP traduirait la mise en œuvre dans la
condition IN par rapport à la condition IP d’un processus de décodage, de
transformation de la représentation physique d’une lettre en un code linguistique
stocké en mémoire à long terme.
Paramètre individuel de traitement de l’information : le paramètre IN-IP mesurerait
la vitesse avec laquelle l’individu peut accéder à un code linguistique.
Paradigme de comparaison phrase-dessin
Principe : les sujets doivent comparer une information présentée sous forme
linguistique (« croix est au-dessus de étoile ») à une information imagée (le dessin
d’une croix sur ou sous une étoile). La manipulation expérimentale porte sur la
nature affirmative ou négative de la phrase et sur la compatibilité entre la phrase et
le dessin.
Résultat majeur : le TR est fonction du type de couples phrase-dessin, ce temps
étant par exemple plus court pour une proposition affirmative-vraie que pour une
proposition affirmative fausse.
Interprétation : les auteurs adoptent ici l’interprétation selon laquelle les sujets
utiliseraient une stratégie linguistique de recodage des phrases négatives en phrases
affirmatives mais l’interprétation de cette tâche est considérablement plus complexe
que Lansman et ses collègues ne semblent le penser (cf. cours 4D1). D’autres
stratégies, par exemple imagées, peuvent en effet être employées par certains sujets
(cf. Exercices 4D1).
Paramètre individuel de traitement de l’information : le paramètre vitesse de
recodage linguistique (moyenne des TR pour les phrases négatives moins moyenne
des TR pour les phrases affirmatives) mesurerait l’efficacité du traitement.
C/ Sujets et procédure
L’ensemble de ces épreuves est administré au cours de dix sessions d’une heure à 91
3
0/
étudiants (45 hommes, 46 femmes) constituant un échantillon représentatif, du point
de vue de leur niveau d’aptitude spatiale, de la population des étudiants de 1re année
de l’Université de Washington. Les consignes, l’ordre de passation des épreuves et
celui des items dans chaque épreuve sont les mêmes pour tous les sujets.
4 – ANALYSE DES RESULTATS ET DISCUSSION
A/ Corrélations entre les indicateurs des quatre aptitudes
Les tests psychométriques ayant été sélectionnés en fonction d’hypothèses précises
quant à leur association avec chacune des quatre aptitudes, il est nécessaire de
vérifier le respect de ces hypothèses sur l’échantillon expérimental. Lansman et ses
collègues appliquent l’analyse factorielle confirmatoire aux corrélations entre les
tests psychométriques.
Le principe de l’analyse factorielle confirmatoire consiste d’abord à spécifier a
priori les variables théoriques à partir des variables observées qui en constituent les
indicateurs. Des hypothèses concernant l’existence ou non de corrélations entre les
variables théoriques peuvent également être faites. Il est ensuite possible d’estimer,
pour chaque ensemble d’hypothèses, les différents coefficients (saturations,
corrélations entre facteurs) puis d’apprécier au moyen de tests d’ajustement dans
quelle mesure le ou les modèles considérés permettent de rendre compte des
corrélations observées (cf. chapitre 2).
Les auteurs aboutissent à un modèle en facteurs corrélés, très proche des hypothèses
de départ (cf. tableau précédent). Les saturations (colonnes Gc, Gf, Gv et Vp),
unicités (pourcentage de variance résiduelle) et corrélations entre facteurs
apparaissent ci-dessous.
Indicateur
Gc
Analogies ésotériques
Vocabulaire
Information générale:
Associations verbales
Analogies communes
Matrices
Séries de lettres
Figures
Cubes
Rotation de cartes
Dépliage
Surfaces développées
Puzzle mental
Formes identiques
Barrage
Collationnement
0,84
0,73
0,61
0,35
0,23
Gf
Gv
Vp
0,67
0,68
0,73
0,54
0,79
0,62
0,53
0,29
0,28
0,22
0,35
0,79
0,52
0,62
0,49
0,43
GC
Gf
Gv
Vp
1
0,20
0,19
-0,03
1
0,10
-0,14
1
-0,04
Unicit
é
0,30
0,47
0,62
0,83
0,88
0,88
0,38
0,31
0,47
0,35
0,71
0,38
0,62
0,74
0,51
0,76
1
D’après Lansman, M., & collaborateurs., op.
cit.
Explications
– Pour rendre compte de manière satisfaisante des corrélations observées, les auteurs
ont dû admettre que certains indicateurs soient saturés dans plusieurs facteurs. C’est
par exemple le cas de trois mesures de Gv (Figures, Cubes, Rotation de cartes), qui
parce qu’elles sont plus simples que les autres, impliquent plus le facteur Vp. C’est
aussi le cas de l’épreuve Barrage qui s’avère être saturée à la fois dans Vp et Gf ou
de Associations verbales saturée dans Vp et Gc. On peut remarquer que le meilleur
indicateur de Gc est Analogies ésotériques (0,84) ou que celui de Gf, assez mal
mesurée dans cette étude, est Séries de lettres (0,79).
– Les valeurs apparaissant dans la colonne Unicité sont des variances résiduelles.
Elles peuvent être interprétées comme la quantité de variance de chaque indicateur
non expliquée par l’ensemble des facteurs. Plus l’unicité d’un indicateur donné est
importante, moins le pouvoir explicatif du système de variable latentes est élevé
pour cet indicateur. Analogies communes et Matrices dont la variance résiduelle est
forte mesurent donc mal les variables théoriques.
– Enfin, les valeurs estimées des corrélations entre aptitudes montrent que ces
dernières sont bien différenciées sur l’échantillon étudié. Ces corrélations sont dites
3
1/
“désatténuées” car le modèle appliqué en permet l’estimation indépendamment des
erreurs de mesure.
B/ Corrélations entre les mesures AO et PC des tâches de calibrage
Les résultats rapportés par les auteurs mettent en évidence deux points importants:
a) Les corrélations entre mesures globales de la performance à une même tâche
présentée sous deux formats différents (AO et PC) sont, comme attendu,
relativement élevées. Pour la tâche de rotation mentale par exemple, la corrélation
entre le TR moyen sur l’ensemble des items (procédure AO) et le nombre d’items
résolus (procédure PC) est de –0,63. Les sujets globalement les plus rapides à la
tâche informatisée tendent à être aussi les plus précis à l’épreuve papier-crayon. Des
résultats semblables sont observés pour les tâches de comparaison de lettres (-0,55)
et de comparaison phrase-dessin (-0,73).
b) Les corrélations entre estimations théoriques de la vitesse d’un même processus
mesuré par les procédures AO et PC sont par contre plus faibles que les précédentes:
0,43 pour la vitesse de rotation mentale (pente), 0,29 pour la vitesse d’accès à un
code linguistique (IN-IP), 0,40 pour la vitesse de recodage linguistique
(TR_négative - TR_affirmative). Cette convergence relativement faible entre
mesures « dérivées » contraint les auteurs à ne pas retenir ces estimations pourtant
censées être les plus intéressantes d’un point de vue théorique.
La stratégie suivie pour analyser les corrélations entre les diverses mesures globales
(TR moyen pour chaque type d’items pour la procédure AO; nombre d’items de
chaque type résolus pour la procédure PC) effectuées pour les 3 tâches de calibrage
est la même que dans la section précédente. L’application de l’analyse factorielle
confirmatoire permet d’aboutir à un modèle à trois facteurs spécifiques: Le facteur
Rotation Mentale (RM) sature les mesures globales aux tâches AO et PC de rotation
mentale (médiane des saturations = 0,79). Le facteur Appariement de Lettres (AL)
sature les mesures globales aux tâches AO et PC de comparaison de lettres (médiane
des saturations = 0,70). Le facteur Vérification de phrase (VP) sature les mesures
globales aux tâches AO et PC de comparaison phrase-dessin (médiane des
saturations = 0,83). RM est faiblement corrélé à AL (0,14) et VP(0,14). La
corrélation entre ces deux facteurs est très forte (0,77).
Explications
– La plus forte convergence observée entre les mesures globales (pas d’explication
du processus) par rapport aux mesures dérivées ne peut que décevoir ceux qui
cherchent à mettre en relation l’efficacité d’un processus cognitif et la performance à
un test psychométrique. Ce résultat, répliqué dans de nombreuses études, amène
notamment à s’interroger sur la validité du modèle général qui sous-tend
l’estimation théorique, individu par individu, de la vitesse du processus étudié. Ce
modèle, en mettant l’accent uniquement sur la vitesse du processus, est
nécessairement limité. Il est aussi douteux qu’un seul modèle soit suffisant pour
expliquer les performances d’individus différents.
– Les tâches de comparaison de lettres et de comparaison phrase-dessin impliquant
toutes les deux le traitement d’une information verbale, on comprend l’observation
d’une corrélation désatténuée de forte amplitude entre AL et VP. Indépendant des
précédents, le facteur RM, résume les différences individuelles dans le traitement
d’une information spatiale. En termes de différences individuelles, la dimension de
contenu (verbal vs spatial) est donc particulièrement saillante.
C/ Analyse des relations entre facteurs expérimentaux et aptitudes
La considération simultanée à l’aide d’une analyse factorielle confirmatoire des
corrélations entre mesures globales aux tâches de calibrage et performances aux
tests d’aptitudes permet d’aboutir à l’estimation des corrélations entre facteurs (les
corrélations en gras sont significatives au seuil de .05).
Facteur
Gc: intelligence cristallisée
Gf: intelligence fluide
Gv: visualisation spatiale
Vp: vitesse perceptive
Rotation
Mentale
0,04
-0,10
0,78
0,21
Appariement
de lettres
0,07
0,02
-0,10
0,69
Vérification
de phrase
0,28
0,00
-0,07
0,38
D’après Lansman, M., & collaborateurs., op.
cit.
Explications
3
2/
L’examen des estimations montre le caractère spécifique des corrélations
désatténuées entre facteurs mesurant ici des niveaux de performance.
– Le facteur rotation mentale est très fortement corrélé au facteur visualisation
spatiale. On mesure donc bien, dans l’aptitude spatiale, la capacité à encoder,
mémoriser et surtout manipuler une image visuelle.
– La forte corrélation entre les facteurs appariement de lettres et vitesse perceptive
semble traduire le faible niveau de difficulté des tâches correspondantes, la vitesse
de réalisation différenciant alors les individus. Une analyse complémentaire montre
cependant que la corrélation partielle du TR moyen d’IN avec Gc est significative à .
05 (r=0,35; le TR moyen d’IP étant contrôlé). Ce résultat conduit à penser que
l’aptitude verbale est sans doute en partie reliée à la vitesse d’accès à des codes
verbaux contenus en mémoire à long terme. L’observation d’une corrélation de 0,28
entre le facteur vérification de phrase et Gc est d’ailleurs en accord avec cette
hypothèse.
5 – COMMENTAIRES GENERAUX
– Les analyses précédentes soulignent la correspondance entre la distinction Gc-Gv
d’une part, celle entre traitement verbal et traitement spatial d’autre part. Elles
indiquent que les tests psychométriques semblent, à un niveau assez global
d’observation, mobiliser des processus nécessaires à la résolution de tâches
expérimentales.
– L’analyse de la performance à une tâche de calibrage sous l’angle de la vitesse
et/ou l’efficacité d’un processus élémentaire montre aussi ses limites. Les
estimations théoriques correspondantes semblent instables, étroitement dépendantes
des caractéristiques spécifiques de la tâche et peu en relation avec un niveau plus
global de performance. Il est donc illusoire de vouloir rendre compte des différences
observées à un niveau global en évoquant exclusivement des différences liées à un
niveau élémentaire de traitement de l’information.
3
3/
EXERCICES
4 B 2 – Temps d’inspection et intelligence
1 - PRESENTATION
La procédure de temps d’inspection visuelle (TI) a été très largement utilisée dans
les études sur le rôle de la vitesse mentale dans l’intelligence (cf. cours 4B1). Le
principe en est très simple. Il suffit d’indiquer de quel côté est située la ligne
verticale la plus longue (cf. figure a). Pour empêcher le traitement de l’information
au-delà de la durée de présentation de la cible, on utilise une technique de masquage
visuel (cf. figure b). La discrimination devient évidemment très difficile quand le
masque succède très rapidement à la cible (intégration phénoménologique de la
cible et du masque). La mesure effectuée est une mesure de seuil ou temps minimum
dont a besoin le sujet pour effectuer « correctement » la discrimination, par exemple,
dans 95 ou 97,5% des cas.
a
b
2 - EXERCICE 1
On étudie l’effet sur le temps d’inspection visuelle d’une tâche secondaire que le
sujet doit réaliser simultanément. Dans la tâche de TI, le sujet doit appuyer sur un
bouton ou un autre pour indiquer de quel côté se situe la ligne la plus longue. Dans
la tâche secondaire, le sujet doit imaginer le déplacement d’un élément dans un carré
de 9 cases. Les instructions sur le déplacement sont auditives et le sujet indique
oralement par un chiffre de 1 à 9 la position de l’élément après le déplacement. Les
35 adultes participant à l’expérience sont placés dans la condition « TI seul » puis
dans la condition « TI + imagerie ». On détermine leur TI dans chaque condition.
Les analyses effectuées montrent que le TI moyen est de 47 msec en condition « TI
seul » et de 99 msec en condition « TI+Imagerie » [t(34)=5,46, p<0.001]. Ce résultat
est-il compatible avec une interprétation du TI en termes de vitesse de traitement de
l’information ?
3 - EXPLICATIONS
Si le TI mesurait la vitesse d’un processus automatique et extrêmement précoce de
prise d’information, on devrait observer une stabilité des mesures effectuées en
condition « TI seul » et en condition « TI+imagerie ». Or cette prédiction n’est pas
en accord avec les observations effectuées. En effet, le TI moyen augmente
significativement de la condition « TI seul » à la condition dans laquelle il est
mesuré en même temps que le sujet doit réaliser la tâche secondaire. La tâche de TI,
malgré sa simplicité apparente, est en fait psychologiquement complexe.
Le résultat observé peut d’abord s’expliquer par le rôle médiateur des ressources
attentionnelles dans le TI (amorçage et maintien du niveau de vigilance, focalisation
de l’attention sélective, contrôle du balayage de l’information ; cf. cours 4C1), ces
ressources attentionnelles étant également nécessaires à la bonne réalisation de la
tâche secondaire. Une autre interprétation possible repose sur l’implication de
capacités de visualisation et d’orientation spatiale dans la tâche de TI et dans celle
d’imagerie spatiale. Les mesures de TI sont aussi sensibles à des processus de
décision qui interviennent après la présentation de la cible et du masque. Ces
processus de nature exécutive (auto-surveillance, évaluation de la performance à
chaque essai, etc.) sont évidemment sollicités par la tâche secondaire, ce qui peut
produire des interférences avec la tâche de TI et conduire à l’observation de TI en
moyenne plus élevés.
4 - EXERCICE 2
Bors, Stokes, Forrin & Hodder (1999) mesurent chez 20 étudiants de 1ère année
d’université : a) la performance aux Matrices Progressives de Raven ; b) le TI lors
de 3 occasions (300 essais chaque jour, 3 jours de suite). Les résultats obtenus sont
résumés dans le tableau ci-dessous :
3
4/
TI (msec.)
Minimum
Maximum
Moyenne
Ecart-type
Corrélation avec les Matrices de Raven
* : p<.05
(1999)
er
1 jour
40
140
85
30
-0,43*
2
ème
jour
36
135
73
31
-0,15
3
ème
jour
37
113
66
25
-0,07
D’après Bors, D.A., & collaborateurs
1. La diminution du TI entre le 1er et le 3ème jour (p<.001) est-elle compatible avec
une interprétation de cette mesure en termes de vitesse de traitement de
l’information ?
2. Que penser de la diminution avec les occasions de mesure de la corrélation entre
le TI et l’intelligence fluide mesurée par les Matrices de Raven ?
5 – EXPLICATIONS
Question 1
Par définition, la vitesse de traitement de l’information est relativement peu sensible
à l’entraînement. Or le TI moyen dérivé des 300 premiers essais est nettement plus
important que celui mesuré le 3ème jour. Il faut ajouter que l’entraînement semble
surtout profiter aux sujets les moins performants lors de la 1ère session puisque le TI
minimum est à peu près constant d’une session à une autre. Le TI réfléchirait donc
quelque chose d’autre (ou de plus) que la vitesse de traitement de l’information, par
exemple, des processus perceptifs ou cognitifs, peut-être stratégiques, dont la vitesse
et/ou l’efficacité bénéficieraient de l’entraînement. Ce résultat est en accord avec
d’autres observations qui suggèrent que beaucoup de participants développent des
stratégies de réponse au fil des essais (par exemple, en s’appuyant sur des indices de
mouvement apparent liés à la technique de masquage employée).
Question 2
La corrélation négative observée entre le TI mesuré le 1er jour et la performance au
test des Matrices de Raven est de l’ordre de ce qui est habituellement observé: les
individus les plus aptes intellectuellement tendent à présenter des TI plus courts. Il
est ici particulièrement intéressant de noter que l’entraînement atténue la relation
entre le TI et l’intelligence, celle-ci disparaissant dès le second jour. Tout semble
donc se passer comme si les individus les plus performants au test des Matrices de
Raven présentaient un avantage initial lors de la mesure du TI. Cet avantage
disparaîtrait ensuite en raison de l’amélioration chez les individus les moins aptes
intellectuellement de leur niveau d’adaptation à la tâche de TI. L’implication de
processus autres que la vitesse de traitement de l’information semble donc pouvoir
expliquer la corrélation observée entre le TI mesuré en contexte de nouveauté et la
performance au test des Matrices de Raven.
3
5/
DOCUMENT
4 B 3 – Principes de mise en œuvre d’une analyse composantielle
1 - PRÉSENTATION
Robert Sternberg (1977) décrit une méthode visant à identifier les différentes
composantes (processus mentaux et stratégies) impliquées dans la résolution de
tâches complexes comme des analogies (gris est à nuage comme jaune est à ?), des
séries de lettres (A, C, E, ?) ou des syllogismes (aucun B n’est A, tous les C sont B:
aucun C n’est A). Cette méthode, appelée analyse composantielle, consiste à
élaborer un modèle cognitif de la tâche puis à utiliser ce modèle pour définir et
mesurer les diverses composantes mises en jeu, afin d’étudier dans quelle mesure les
différences individuelles ainsi « localisées » contribuent à expliquer celles observées
à un niveau plus global de performance.
Les extraits présentés ci-après décrivent l’ensemble des procédures à suivre pour
mettre en œuvre une analyse composantielle.
----------------------------------L’analyse composantielle----------------------------------1. La décomposition de la tâche
« La première chose à faire est de décider de ce que l’on souhaite analyser. Il est
donc nécessaire de disposer d’une théorie du domaine cognitif spécifique auquel on
s’intéresse. Celle-ci doit être suffisamment complète et applicable à un large
ensemble de problèmes pour le domaine considéré. Elle doit aussi nécessiter un
nombre suffisamment réduit de paramètres et d’hypothèses de travail. [...] La
performance à la tâche doit pouvoir être quantifiée. La tâche doit aussi posséder
certaines propriétés de mesure avant que ses propriétés psychologiques puissent être
évaluées. [...] Il faut ensuite décomposer la tâche en une série de sous-tâches, avec
l’hypothèse que les sous-tâches qui nécessitent moins de traitement sont emboîtées
dans celles qui en nécessitent plus. Plusieurs méthodes peuvent être utilisées pour
mener à bien cette décomposition. Le principe de la méthode dite de « pré-indiçage
» consiste à fournir aux individus une certaine quantité d’information concernant
l’item, avant que celui-ci ne leur soit présenté dans son intégralité. Dans la méthode
dite des « sous-tâches partielles », on présente des items impliquant soit l’ensemble
des composantes hypothétiques, soit un sous-ensemble de ces composantes. [...]
2. Le test du modèle et l’estimation de ses paramètres
Une fois les scores obtenus à des items dont les caractéristiques sont
expérimentalement manipulées, il faut quantifier le modèle composantiel. La
technique employée dépend de la tâche et de la méthode de décomposition utilisées.
Elle est conduite de manière à utiliser la régression multiple comme moyen de
prédire la variable dépendante à partir d’une série de variables indépendantes. La
variable dépendante est habituellement le TR ou le nombre d’erreurs. Les variables
indépendantes sont généralement le nombre de fois où une série donnée de
composantes de traitement est exécutée. On prédit ainsi la latence, le pourcentage
d’erreurs ou la probabilité de réponse en fonction du nombre de fois où chaque
composante du modèle est activée.
Les paramètres de latence sont des coefficients de régression qui représentent les
durées des diverses composantes. Un modèle linéaire simple permet ainsi de prédire
le TR comme une fonction additive du nombre de fois où chacune des n
composantes est exécutée (n variable indépendantes) multiplié par la durée
d’exécution de chacune de ces composantes (n paramètres de latence estimés). On
fait de la même manière l’hypothèse que le pourcentage d’erreurs est égal à la
somme des difficultés rencontrées en exécutant chaque composante. Un modèle
linéaire semblable au précédent permet de définir le pourcentage d’erreurs comme
une fonction additive du nombre de fois où chacune des n composantes est exécutée
(n variables indépendantes) multiplié par la difficulté de la composante (n
paramètres de difficulté estimés). [...]
Une fois le modèle formulé, il est nécessaire de le tester. Au cours de cette étape de
validation interne, on examine [notamment] la proportion de variance dans les
données dont le modèle est capable de rendre compte et la contribution de chacun
des paramètres. [...] Le modèle proposé doit être testé sur les données de groupe
(modèle général) mais aussi individu par individu, conduisant ainsi à l’estimation de
paramètres individuels. Il est en effet possible que le modèle rende convenablement
compte des données de groupe mais ne convienne pas pour certains sujets en raison
3
6/
de différences dans les stratégies individuelles.[...]
3. La validation externe du modèle
La validation externe nécessite de tester les paramètres du modèle proposé contre
des critères externes, avec au moins deux objectifs. Le premier objectif est de
fournir une source complémentaire de vérification du modèle. [...] Il est par exemple
important de montrer que les paramètres supposés opérer sur des représentations
spatiales entretiennent des corrélations plus élevées avec des tests spatiaux qu’avec
des tests verbaux.[...] Le second objectif est de tester le degré de généralité du
modèle. Si on ne peut trouver de critère externe en relation avec les paramètres
estimés sous hypothèse du modèle, celui-ci, ou peut-être la tâche, ne présente pas un
grand intérêt théorique. Par exemple des paramètres estimés pour une tâche de
raisonnement analogique ne sont intéressants que s’ils s’avèrent être corrélés à
divers tests de raisonnement inductif mais pas à des tests de vitesse perceptive. [...]
En pratique, le modèle n’est pas correctement formulé au départ. Il est donc souvent
nécessaire de le reformuler sur la base des données observées et de valider le modèle
révisé sur une autre série de données. [...] Il est aussi important de montrer que le
modèle proposé n’est pas spécifique à la tâche. Ma propre stratégie a été d’étendre
les modèles composantiels d’une tâche de raisonnement inductif d’un format donné,
d’un contenu donné, à des tâches de raisonnement inductif présentées dans des
formats différents, correspondant à des contenus différents.[...] Ce processus de
généralisation est nécessaire car la théorie cognitive doit l’emporter sur l’analyse de
la tâche.[...] »
Extrait et traduit de Sternberg, R.J. (1985).
2 – EXPLICATIONS
A/ La décomposition de la tâche
Voici, pour illustrer cette première étape, le modèle de décomposition proposé par
Sternberg pour la résolution d’un problème d’analogie du type « A est à B comme C
est à D» (réponse de type vrai-faux). Le sujet doit d’abord encoder les différents
éléments du problème (étape d’encodage). Il doit ensuite découvrir la relation entre
A et B (étape d’inférence) puis apparier la relation entre A et B à la relation entre C
et une solution idéale à l’analogie (étape d’appariement ou d’homologie). Il doit
enfin appliquer la relation afin de déterminer si la réponse proposée lui paraît
appropriée (étape d’application) puis répondre.
encodage
préparation
A : B :: C : D
inférence
appari ement
réponse
appli cation
La méthode dite de pré-indiçage consiste à éliminer successivement chacun des
termes de l’analogie. Quatre sous-tâches comportant deux parties peuvent ainsi être
formées. Une certaine quantité d’information est d’abord présentée sur l’écran d’un
ordinateur: cela peut être « pas d’information », « A », « A:B » ou « A:B::C ».
Lorsque le sujet estime avoir suffisamment traité l’information qui lui est présentée
(temps de préparation), il fait apparaître l’analogie complète en appuyant sur une
touche du clavier. Le modèle de décomposition fait l’hypothèse que le temps mis
par le sujet pour répondre (TR) est fonction de la quantité d’information
préalablement traitée. Il est donc d’autant plus court que la quantité d’information
présentée en pré-indiçage est importante.
B/ L’estimation des paramètres du modèle
Reprenons les hypothèses du modèle précédent appliqué à la décomposition du TR à
des analogies entre figurines pouvant être décrites par des attributs comme la taille,
la corpulence, la couleur et le genre.
Soient « a » la durée de l’étape d’encodage, « x » la durée de l’étape d’inférence,
« y » la durée de l’étape d’appariement, « z » la durée de l’étape d’application et
« c » une constante de temps correspondant aux temps de préparation et de réponse.
On définit a priori le nombre « f » d’attributs de A et de B (de C et de D) inférés
puis appliqués et le nombre « g » d’attributs appariés entre A:B et C:D.
3
7/
1. Pré-indiçage
75 items par
condition
0 indice:
1 indice:
A
2 indices: A:B
3 indices: A:B :: C
Durée du
traitement
correspondant
A
2a + fx
3a + fx + gy
2. Présentation
de l’analogie
A:B
A:B
A:B
A:B
:: C:D
:: C:D
:: C:D
:: C:D
Décomposition du TR
TR0 = 4a + fx + gy + fz + c
TR1 = 3a + fx + gy + fz + c
TR2 = 2a + gy + fz + c
TR3= a + fz + c
Estimation de la durée des
composantes (n = 16)
encodage:
inférence:
appariement:
application:
constante:
D’après Sternberg, R.J., op. cit.
La lecture du tableau précédent montre que le TR est décomposé différemment selon
le type de traitement effectué en pré-indiçage. La différence TR0-TR1 fournit une
estimation de « a ». Connaissant « a » et « f », il est alors possible d’estimer « x » à
partir de TR1-TR2 puis d’estimer « y » à partir de TR2-TR3, etc.
Sur cet exemple, le pourcentage de variance expliquée du modèle (i.e. le carré de la
corrélation entre les données reconstruites par le modèle et les données observées)
est de 0,92. De plus, les composantes dont le modèle fait l’hypothèse sont toutes des
prédicteurs significatifs des différences individuelles dans les TR. Enfin,
l’application du modèle aux données recueillies pour chaque individu montre qu’il
rend compte en moyenne de 80% de la variance observée. Ce modèle a donc une
très bonne validité interne tant par rapport aux données de groupe que par rapport
aux données individuelles.
C/ La validation externe du modèle
Le premier type de validation externe ou validation convergente (corrélation entre
les paramètres et les mesures externes avec lesquelles ils sont supposés corrélés)
doit s’accompagner d’une recherche de validation discriminante. On doit en effet
vérifier que les corrélations entre les paramètres et les mesures externes sont dues
aux mécanismes psychologiques spécifiés et non à des sources de variations
« cachées » comme par exemple une dimension plus générale.
La stratégie de recherche suggérée par Sternberg consiste à comparer des modèles
du point de vue de leur capacité à « reconstruire » les données observées. Une des
difficultés de cette approche est qu’il est souvent possible de trouver a posteriori un
modèle plus vraisemblable que les autres. On peut alors, lorsque l’effectif est de
taille suffisante, identifier le modèle reconstruisant le mieux les données sur une
partie de l’échantillon et questionner sa validité en l’appliquant ensuite à l’ensemble
des sujets restants. On pourra aussi évaluer le degré de généralité du modèle édifié
en étudiant sa capacité à reconstruire des données recueillies sur un autre
échantillon avec un matériel plus ou moins comparable.
556 msec.
134 msec.
199 msec.
94 msec.
452 msec.
3
8/
EXERCICES
4 B 4 – Que mesure le test de substitution ?
1 - PRESENTATION
Le test dit de « substitution » est une épreuve très souvent utilisée dans l’évaluation
de l’efficience intellectuelle d’enfants ou d’adultes. Dans ce test factoriellement
ambigu mais très corrélé à la performance cognitive complexe, le sujet doit coder en
un temps donné (par exemple, 2mn) un maximum de symboles en respectant
toujours les mêmes associations symbole-chiffre (cf. figure).
1
2
3
14
5
6
7
8
9
Les résultats expérimentaux présentés dans les exercices suivants proviennent d’une
étude réalisée par Gilmore, Royer, Gruhn et Esson (2004). Ces auteurs appliquent
d’abord une méthode d’analyse composantielle basée sur la manipulation de
plusieurs caractéristiques du matériel. Ils analysent ensuite le rôle des processus de
recherche visuelle dans la performance au test.
2 – EXERCICE 1
Gilmore et collaborateurs administrent différentes formes du test de substitution à
74 participants. Chaque forme de test comprend 1 série de référence présentant les 9
associations symbole-chiffre (cf. figure) et 4 lignes de 25 symboles à compléter en
90 s. Les 20 formes du test sont construites en croisant factoriellement trois types de
manipulations expérimentales des symboles présentés dans la série de référence :
- la composition de la série (COMP): les symboles de la série peuvent être tous
composés de segments horizontaux et verticaux (R) ou tous composés de
diagonales (D), que l’on sait plus difficiles à traiter ;
- le degré de confusion visuelle de la série (CONF): la série peut être composée de
symboles très différents les uns des autres (degré de confusion nul) ou très
ressemblants les uns aux autres (degré de confusion maximum) ;
- la charge en information de la série (INFO) c’est-à-dire la moyenne sur les
symboles de la série de la charge en information de chaque symbole définie comme
le nombre de symboles différents produit par les rotations de 90° et celles en miroir
(par exemple, 1 pour le symbole « + » ; 8 pour le symbole « F »).
1) De quelles composantes de traitement de l’information faire l’hypothèse sur
lesquelles les manipulations du matériel pourraient avoir un impact ?
2) Les analyses de variance effectuées montrent l’existence d’effets simples de
COMP, CONF et INFO sur le niveau de performance. L’effet le plus important est
celui de CONF. Que peut-on en conclure ?
3 - EXPLICATIONS
Question 1
On peut penser que des composantes de traitement comme l’encodage du symbole,
le maintien du symbole en mémoire à court terme et la recherche visuelle du
symbole dans la série de référence interviennent, sans doute interactivement, dans la
performance au test de substitution.
L’encodage du symbole est manipulé dans cette étude en variant la composition de
la série. Les segments horizontaux et verticaux étant identifiés plus rapidement et
qualitativement mieux traités que les segments diagonaux, on s’attend à observer un
niveau de performance supérieur aux formes de type R en comparaison aux formes
de type D. Il paraît également raisonnable de penser que la manipulation de la
charge en information de chaque symbole a un effet sur les processus d’encodage et
de maintien en mémoire du symbole. Il est donc possible de dissocier
expérimentalement ces deux catégories de processus en variant la charge en
information des séries de type R ou de type D. Les études sur les processus de
recherche visuelle ayant par ailleurs montré que la recherche d’une cible est plus
difficile lorsqu’elle est entourée de distracteurs perceptivement proches, on peut
faire l’hypothèse d’un impact négatif du degré de confusion visuelle sur la vitesse
3
9/
et/ou l’efficacité de la composante de recherche visuelle. Un degré élevé de
confusion visuelle de la série devrait donc s’accompagner d’une baisse du niveau de
performance à la forme de test correspondante.
Question 2
Ces résultats démontrent que les trois manipulations du matériel ont des influences
distinctes sur la performance au test de substitution, ce qui est une forme de
validation du modèle composantiel du test. L’effet de COMP (R vs D) constitue un
résultat intéressant qui illustre d’un point de vue général l’importance de la vitesse
d’encodage dans le niveau de performance. On ne dispose cependant pas d’éléments
qui permettent d’en juger d’un point de vue différentiel. La démonstration d’effets
séparés de INFO et de CONF est également à retenir. Un symbole à charge en
information élevée est plus difficile à encoder et plus coûteux à maintenir en
mémoire à court terme. Mais la recherche visuelle d’un symbole complexe est
rendue encore plus difficile par la présence d’autres symboles perceptivement
proches. La capacité à extraire un symbole donné d’une série où règne une forte
confusion visuelle en supprimant activement les symboles distracteurs paraît donc
jouer un rôle très important dans la performance au test de substitution.
4 – EXERCICE 2
On définit dans l’expérience précédente un score individuel de recherche visuelle
(RV) qui rend compte, toutes choses étant égales par ailleurs, de l’amélioration de la
performance avec la baisse du degré de confusion visuelle de la série. Les sujets sont
contrastés en deux groupes selon que leur performance s’améliore très sensiblement
(groupe RV+ : 10 sujets) ou pas (groupe RV- : 9 sujets) lorsque CONF diminue. Ils
participent ensuite à une tâche de recherche visuelle dans laquelle il faut décider le
plus vite possible si la lettre G est présente dans une série de 5 lettres (50% des
items). Les séries de lettres sont composées de 0 à 3 distracteurs présentant un degré
élevé de confusion visuelle avec la cible (C, D, O ou Q). Les autres distracteurs
présentent un faible degré de confusion visuelle avec la cible ; ils peuvent être des
matrices de points de la taille des lettres, des lettres faciles (E, K, X, Y ou Z) ou des
lettres plus difficiles à identifier (A, H, M, N ou W).
Les observations effectuées montrent que quand la série est composée d’une cible et
de distracteurs perceptivement éloignés, le temps de détection de la cible ne diffère
pas d’un groupe à l’autre. Un effet d’interaction (p<.05) est constaté entre le groupe
d’appartenance et le type de distracteur (cf. tableau ci-dessous : temps de détection
et écart-type, en ms) mais pas entre le groupe d’appartenance et le degré de
confusion visuelle.
Groupe
"Recherche visuelle"
RV+
RV-
Distracteurs
Matrices de points
617 (17)
647 (25)
Lettres faciles
639 (18)
695 (41)
Lettres difficiles
627 (17)
723 (38)
Quelle interprétation suggèrent ces résultats ?
5 - EXPLICATIONS
Les deux groupes se différencient sur la base de leur comportement de recherche
visuelle objectivé à l’aide de certaines des formes du test de substitution (cf.
expérience 1). Leur temps de détection est semblable lorsque le degré de confusion
visuelle est élevé mais contrairement aux sujets RV-, les sujets RV+ gagnent en
rapidité lorsque le degré de confusion visuelle est faible. Avec l’hypothèse que les
sujets procèdent de la même manière quel que soit le matériel, tout semble donc se
passer comme si les sujets RV+ survolaient des distracteurs présentant des
caractéristiques perceptives très différentes de la cible, contrairement aux sujets RVqui continueraient à les examiner de façon détaillée.
La présence d’un effet d’interaction du groupe d’appartenance avec le type de
distracteur mais pas avec le degré de confusion visuelle de la tâche de recherche
visuelle peut s’interpréter en termes de seuil d’activation lié au déclenchement de
l’analyse des lettres. Le temps de détection de la cible par les sujets RV+ reste en
effet le même quel que soit le distracteur (de 617 à 639 ms). Les sujets RV+ auraient
donc un seuil d’activation relativement élevé. Les traitements qu’ils mettent en
œuvre seraient dominés par des analyses globales et en parallèles, ce qui conduirait
au rejet plus rapide des distracteurs. Ces traitements ne sont évidemment plus
adaptés lorsque le degré de confusion visuelle est élevé. Les sujets RV- auraient au
4
0/
contraire un seuil d’activation plus bas associé à une analyse sérielle plus détaillée.
Ils ne mettraient donc pas plus de temps que les sujets RV- lorsque le degré de
confusion visuelle du test de substitution est élevé mais seraient plus lents lorsque
celui-ci est faible.
4
1/
DOCUMENTS
4 C 1 – Les ressources de traitement du système cognitif
PRESENTATION
Dans le document 1, on présente des résultats extraits d’une recherche conduite par
Hunt et ses collaborateurs sur l’aptitude à intégrer des informations en provenance
de différentes sources. L’interprétation des auteurs repose sur l’hypothèse d’une
capacité générale de contrôle attentionnel (ou ressources attentionnelle).
Les conclusions de l’étude présentée dans le document 2 soulignent l’importance de
l’exécutif central de la mémoire de travail dans la performance à une tâche de
compréhension de lecture. La méthode utilisée consiste à comparer des enfants ne
présentant pas de difficultés d’apprentissage à des enfants d’un niveau équivalent
d’intelligence (QI) mais qui présentent des difficultés d’apprentissage.
Le document 3 résume et commente les principaux résultats d’une recherche qui
montre que la capacité de la MT réfléchit une aptitude générale d’attention contrôlée
ou d’attention exécutive. On retiendra que l’attention contrôlée reste un prédicteur
important des différences de performance à diverses épreuves de raisonnement
lorsque l’on contrôle statistiquement les processus de stockage spécifiques au
domaine verbal et au domaine spatial.
DOCUMENT 1 : Capacité de contrôle attentionnel et efficience intellectuelle
« On se propose d’étudier la relation entre l’aptitude à intégrer une information
présentée dans deux modalités différentes et l’efficience intellectuelle. On
administre à des étudiants deux tâches d’attention. Dans la tâche auditive
d’attention, on présente simultanément deux séquences différentes de mots en
faisant entendre chacune d’elles à chacune des oreilles du sujet au moyen d’un
casque stéréophonique. Les mots se répartissent en deux catégories (noms de lettres,
de chiffres) dont l’une est la catégorie-cible, une oreille étant désignée comme le
canal-cible durant la première partie de l’expérience, l’autre oreille l’étant pendant
la seconde partie. Le sujet doit indiquer quels mots de la catégorie-cible ont été
entendus dans le canal-cible. La tâche d’amorçage lexical comporte deux
conditions. Dans la condition « traitement automatique », on donne un nom de
catégorie puis on présente une série de lettres. Le sujet doit indiquer si ces lettres
forment un mot (et dans ce cas il appartient à la catégorie) ou n’en forment pas un.
Dans la condition « traitement contrôlé », le mot appartient à une autre catégorie que
celle donnée en amorce. Un test d’intelligence générale, les Matrices Progressives
de Raven, est également administré aux sujets. [...]
Tâche d’amorçage Tâche d’amorçage
« automatique »
« contrôlé»
Tâche auditive d’attention
0,28
0,31
Tâche
d’amorçage
0,92
« automatique »
Tâche d’amorçage « contrôlé »
Matrices de Raven
0,46
0,56
0,59
L’examen des corrélations entre les épreuves (toutes significatives au seuil de .05)
montre que la tâche auditive d’attention est plus corrélée avec les Matrices de Raven
qu’elle ne l’est avec les tâches d’amorçage automatique ou contrôlé. [...] On
s’aperçoit encore mieux de cet effet si on compare la corrélation partielle entre la
tâche auditive d’attention et les Matrices de Raven (la variance associée aux tâches
d’amorçage étant supprimée) à celle entre la tâche auditive d’attention et les tâches
d’amorçage (la variance associée aux Matrices de Raven étant supprimée); la
première est en effet de 0,38 alors que la seconde n’est que de 0,07. Ce résultat
indique qu’une capacité générale de contrôle attentionnel est aussi associée à la
performance à une épreuve de raisonnement fluide. [...]
Considérons, pour résumer notre point de vue, une tâche abstraite aux exigences
attentionnelles élevées. On peut estimer que la variance interindividuelle stable
représente environ la moitié de la variance totale, l’autre moitié étant associée à des
fluctuations non systématiques. Ajoutons que la moitié de cette variance stable (soit
25% de la variance totale) représente des variations individuelles dans la capacité
générale de contrôle attentionnel ; les 25% qui restent représentent des variations
liées aux aspects spécifiques des tâches. »
4
2/
Extrait et traduit de Hunt, Pellegrino & Yee (1989).
Remarque
Effet d’amorçage lexical : la présentation préalable de l’amorce (ici le nom de la
catégorie à laquelle appartient le mot) diminue le temps de décision lexicale. Il
s’agit d’un phénomène d’activation lexico-sémantique accélérant le traitement
ultérieur de la séquence de lettres (cf. cours, partie B et Grand Amphi, Psychologie
cognitive).
Explications
La corrélation observée entre la tâche auditive d’attention et les Matrices de Raven
est de 0,46 ce qui correspond en première approximation à 0,46×0,46×100=21%
environ de variance commune. La corrélation partielle entre la tâche auditive
d’attention et les Matrices de Raven en contrôlant ce que celles-ci ont en commun
avec les tâches d’amorçage est de 0,38 (environ 15% de variance commune). Les
21% de variance qu’ont en commun la tâche auditive d’attention et les Matrices de
Raven se décomposent donc de la manière suivante : 15% exclusivement en
commun et 6% en commun avec les tâches d’amorçage. D’un autre côté, la
corrélation entre la tâche auditive d’attention et les tâches d’amorçage est de l’ordre
de 0,30 (9% de variance commune). La corrélation partielle entre la tâche auditive
d’attention et les tâches d’amorçage en neutralisant ce que celles-ci ont en commun
avec les Matrices de Raven est de 0,07 (soit 0,5% de variance commune). Les 9% de
variance qu’ont en commun la tâche auditive d’attention et les tâches d’amorçage se
décomposent donc ainsi : 0,5% exclusivement en commun et 8,5% en commun avec
les Matrices de Raven. Au total, les tâches d’attention utilisées par Hunt renvoient à
un ensemble de processus communs dont l’efficacité est aussi mesurée par les
Matrices de Raven, un test considéré généralement comme un très bon indicateur de
l’intelligence fluide. Les différences de performance aux tâches d’attention utilisées
dans cette étude réfléchiraient donc avant tout l’efficacité de processus de haut
niveau impliqués dans le contrôle de l’attention. La corrélation moyenne observée
par Hunt entre les Matrices de Raven et les tâches d’attention est d’environ 0,50 ce
qui correspond à 25% de variance représentant les variations individuelles dans la
capacité générale de contrôle attentionnel.
DOCUMENT 2 : capacité de la mémoire de travail et efficience en lecture
« L’objectif de l’étude est de déterminer dans quelle mesure la mémoire de travail
(MT) et la mémoire à court terme (MCT) opèrent indépendamment l’une de l’autre
dans la compréhension de lecture. [...] 31 mauvais lecteurs et 70 bons lecteurs âgés
en moyenne d’une douzaine d’années participent à l’étude. Trois tâches sont
utilisées pour mesurer ces processus mnésiques. [...] Dans la première tâche de MT,
les sujets doivent comprendre une série de phrases et retenir le dernier mot de
chacune d’entre elles. Le score d’empan de lecture est le nombre maximum de mots
que les enfants sont capables de rappeler. [...] La précédente tâche ne permettant pas
de dissocier les composantes de la MT (c’est-à-dire, l’exécutif central des systèmes
asservis), on administre une autre tâche de MT pour évaluer le fonctionnement de
l’exécutif central. Dans cette tâche dite de mémoire concurrente, on présente
oralement des séries de chiffres pendant que les sujets doivent trier des cartes. On
manipule la charge en mémoire en faisant varier le nombre de chiffres (3 ou 6) et les
demandes par rapport aux systèmes asservis en faisant varier les modalités de tri
(catégorisation sémantique d’images; tri en fonction de la forme). La variable
dépendante est le pourcentage de chiffres correctement rappelés. [...] La troisième
tâche dite de pré-charge est un indicateur de la MCT. On lit aux enfants une série de
chiffres (3 ou 6) puis une liste de mots. La consigne est de rappeler les mots puis les
chiffres dans l’ordre. Les variables dépendantes sont le pourcentage de rappel pour
les mots et pour les chiffres. [...] Un test de compréhension de lecture est également
administré aux enfants.[...]
Une analyse factorielle hiérarchique des différents scores de mémoire montre
d’abord que les mesures de MT sont fortement convergentes, tout en possédant une
part de spécificité en accord avec la dissociation suggérée par Baddeley. [...] Cette
convergence signe un aspect des tâches de MT qui paraît être la coordination
d’opérations entre composantes indépendantes. [...] On notera que le recouvrement
entre les mesures de MCT et celles de MT est par ailleurs négligeable. [...]
L’étude indique également que l’amplitude des corrélations observées entre MT et
compréhension de lecture est plus fonction des différences individuelles dans la
compétence à utiliser certaines composantes de la MT que fonction des différences
de compétence en lecture. [...] Ce n’est pas à cause de la lecture mais à cause d’une
4
3/
moindre capacité de la MT que les mauvais lecteurs ont des scores faibles aux
tâches de MT. [...] Nos résultats montrent aussi que [compréhension de] lecture et
MT sont surtout interdépendantes pour les moyens et les bons lecteurs, [...] ces
corrélations s’amplifiant avec l’augmentation du degré d’efficience en lecture. [...]
Enfin, La MCT ne joue pas un rôle aussi critique dans la compréhension de lecture
que la MT. Un tel résultat fait pencher plutôt pour des modèles « descendants » des
difficultés en lecture en suggérant que si des processus de bas niveau [comme
l’utilisation du code articulatoire dont l’efficacité est mesurée par la tâche de MCT]
ont une influence sur le traitement exécutif, leurs effets ne peuvent être qu’indirects
et minimums. [...] Les problèmes des mauvais lecteurs sont fonctionnellement reliés
à des processus de haut niveau comme le traitement exécutif central. »
Extrait et traduit de Swanson, H.L. (1993)
Explications
La tâche de mémoire concurrente employée dans cette étude est un bon exemple de
tâche double visant à mesurer la fonction d’attention contrôlée de l’exécutif central
de la MT. Les demandes en ressources sont manipulées via le niveau de difficulté (3
ou 6 chiffres) et les modalités de tri (formes non verbales, catégories sémantiques,
cartes vierges). Les résultats montrent que quelles que soient les modalités de tri, les
mauvais lecteurs sont aussi performants que les autres quand les demandes en
ressources exécutives sont faibles (3 chiffres) mais sont moins performants que leurs
homologues lorsque les demandes en ressources exécutives sont élevées (6 chiffres).
Les différences de performance de rappel n’étant pas limitées à l’une ou l’autre des
modalités de tri, les processus impliqués seraient donc généraux plutôt que
spécifiques à un système de représentation donné (figuratif vs verbal). Swanson a
établi ultérieurement qu’en comparaison aux enfants qui ne rencontrent pas de
problème d’apprentissage en lecture, les « mauvais lecteurs » présentent des
difficultés liées à certains aspects exécutifs de la MT. Ces derniers auraient
notamment plus de difficultés à supprimer ou interdire l’accès de l’information non
pertinente en MT ainsi qu’à rafraîchir les contenus de la MT. D’autres fonctions
exécutives (par exemple, la planification, l’autorégulation ou la prise de décision)
seraient par contre tout à fait préservées chez les enfants d’intelligence normale qui
présentent des difficultés d’apprentissage.
DOCUMENT 3 : MT = attention exécutive + mécanismes de stockage.
Kane, Hambrick, Tuholski et al. (2004) administrent à 250 étudiants des épreuves
de MT (3 à contenu verbal et 3 à contenu spatial) ainsi qu’une batterie de tests de
raisonnement portant sur des domaines spécifiques (5 de raisonnement verbal et 5
de raisonnement spatial) ou représentant des formes décontextualisées de
raisonnement (3 épreuves dont les Matrices Progressives de Raven). Les relations
observées entre toutes ces épreuves sont analysées à un niveau latent au moyen de
techniques de modélisation structurale.
Modèle de mesure de la capacité de la MT – Kane et ses collègues testent
successivement un modèle à une variable latente « capacité de la MT » (CMT) et un
modèle à deux variables latentes (CMT verbale : CMT-V ; CMT spatiale : CMT-S)
dans lequel la corrélation estimée entre CMT-V et CMT-S est de 0,93. Ils retiennent
donc la solution unidimensionnelle (CMT).
Modèle de mesure du raisonnement – La solution retenue comporte 3 variables
latentes : Gf, (intelligence fluide) mesurée par tous les tests de raisonnement et dont
le meilleur indicateur est le test des Matrices de Raven ; R-V mesurée par les 5 tests
de raisonnement verbal et dont le meilleur indicateur est une épreuve de
compréhension de lecture ; R-S mesurée par les 5 tests de raisonnement spatial et
dont le meilleur indicateur est une épreuve de puzzles mentaux.
Modèle de régression de Gf, R-V et R-S sur CMT – Les estimations des coefficients
de piste sont les suivantes : 0,64 de Gf sur CMT (41% de la variance de Gf sont
prédits par les variations de CMT) ; 0,31 de R-V sur CMT (9% de la variance de RV sont prédits par CMT) ; 0,24 de R-S sur CMT (4,5% de la variance de R-S sont
prédits par CMT). Ces estimations sont toutes significatives au seuil de .05.
Ces premiers résultats amènent Kane et ses collègues à la conclusion que la capacité
générale de la MT est un prédicteur important de l’intelligence fluide mais aussi un
prédicteur significatif de dimensions spécifiques du raisonnement.
Les observations effectuées avec 6 épreuves supplémentaires de mémoire à court
terme (3 à contenu verbal, 3 à contenu spatial) sont cumulées avec celles faites avec
les tâches de MT. Les auteurs retiennent un modèle de mesure de ces 12 épreuves
4
4/
mnésiques qui distingue 3 variables latentes : l’attention exécutive (AttnExec)
mesurée par toutes les épreuves de MCT et de MT et dont le meilleur indicateur est
l’empan de lecture ; le stockage verbal (Stockage-V) mesurée par les 3 tâches de
MCT à contenu verbal et dont le meilleur indicateur est l’empan de chiffres (retenir
des chiffres énoncés oralement); le stockage spatial (Stockage-S) mesurée par les 3
tâches de MCT à contenu spatial et dont le meilleur indicateur est l’empan de
matrices (retenir les positions de croix dans des tableaux).
Les estimations des coefficients de piste du modèle de régression des variables
latentes R-V, Gf et R-S sur AttnExec, Stockage-V et Stockage-S apparaissent dans
le tableau ci-dessous :
R-V
R-S
Gf
Stockage-V
0,40
0,16
ns
AttnExec
Stockage-S
0,29
ns
0,52
0,54
0,25
0,49
Note : ns pour non significatif au seuil de .05.
Explications
On voit que la variable latente d’attention contrôlée (AttnExec) qui représente la
variance commune aux tâches de MCT et de MT est un prédicteur important de
l’intelligence fluide Gf (27% de variance commune) et dans une moindre mesure des
dimensions spécifiques du raisonnement R-V (8,5%) et R-S (6,25%). On constate
aussi que les variables latentes de stockage d’un contenu spécifique (verbal ou
spatial) sont de bons prédicteurs des dimensions spécifiques du raisonnement (16%
pour R-V ; 24% pour R-S). Enfin, si la faiblesse du pourcentage de variance de Gf
prédit par Stockage-V (environ 2,5%) est en accord avec la théorie de l’attention
contrôlée, c’est loin d’être le cas des 29% de variance de Gf prédits par Stockage-S.
Ce résultat est caractéristique du domaine spatial pour lequel il a été montré que les
taches qui nécessitent le stockage « passif » de l’information ne sont pas
factoriellement distinctes des tâches qui nécessitent un traitement additionnel de
l’information (Miyake et al., 2000).
4
5/
EXERCICE
4 C 2 – Mémoire de travail, attention soutenue, raisonnement
et intelligence cristallisée
1 - PRESENTATION
Alors que les modèles de l’intelligence distinguent classiquement des dimensions de
niveau intermédiaire liées à la nature verbale, numérique ou visuo-spatiale des tests
(cf. cours chapitre 3), les recherches sur la relation entre MT et intelligence prennent
rarement en compte la composante cristallisée de l’efficience intellectuelle.
L’étroitesse de la relation entre l’exécutif central de la MT et les dimensions de
contrôle et de capacité de focalisation de l’attention rend aussi souhaitable
d’introduire dans les recherches de ce type des tâches d’attention qui impliquent un
niveau élevé de contrôle. C’est ce que font Buehner, Krumm, Ziegler et Pluecken
(2006) qui administrent à un échantillon de 121 étudiants une batterie de tests
mesurant la capacité de la MT, l’attention soutenue (ATT), le raisonnement (R) et
l’intelligence cristallisée (Gc).
2 – PROCEDURE
Trois catégories de tâches informatisées sont utilisées pour mesurer la MT. Elles
sont choisies du double point de vue de la fonction qu’elles opérationnalisent (cf.
cours 4C2) et de leur contenu, verbal, numérique ou visuo-spatial. Il s’agit : a) de
tâches doubles nécessitant de rappeler après traitement concurrent une information
brièvement présentée (fonction « stockage en contexte de traitement »); b) de tâches
de commutation (switching) qui imposent d’appliquer successivement une consigne
puis une autre selon les caractéristiques des items (fonction de « supervision ») ; c)
de tâches de monitoring dans lesquelles il faut repérer des modifications qui
surviennent de façon imprévisible dans les relations entre objets (fonction de
« coordination »). Des tâches élémentaires de traitement de l’information sont
également administrées aux sujets afin de déterminer des TR de base utiles au calcul
d’indices de coût aux tâches de commutation. L’attention soutenue est mesurée avec
une tâche de barrage (barrer certains signes, par exemple, d’ ou p" ; ne pas en barrer
d’autres, par exemple, d" ou p’) et la tâche que nous avons décrite plus haut (cf.
cours 4C1). Neuf tests de raisonnement et six tests de connaissance complètent la
batterie.
Les hypothèses testées à l’aide des modèles structuraux sont les suivantes :
a) l’attention soutenue (ATT) est corrélée à la capacité de la MT, notamment à la
fonction « coordination » (CO) de la MT ;
b) les prédicteurs les plus significatifs du raisonnement (R) sont les fonctions
« stockage en contexte de traitement » (S+T) et « coordination » (CO) ;
c) la capacité de la MT n’étant pas reliée, contrairement au raisonnement, à des
structures conceptuelles, la relation entre les fonctions de la MT et raisonnement
devrait rester stable après contrôle de l’intelligence cristallisée (Gc).
3 - RESULTATS
On a regroupé dans la figure ci-dessous les estimations standardisées (toutes
significatives au seuil de .05) obtenues dans le cadre du modèle de régression de R
sur S+T, SUP, CO et ATT ainsi que celles correspondant au modèle de régression
de R sur S+T, SUP, CO et ATT avec contrôle de Gc. L’impact de Gc dans la relation
entre R et S+T, SUP, CO et ATT est contrôlé en mesurant Gc avec les tests de
connaissances ainsi qu’avec les tests de raisonnement. Dans cette seconde partie du
modèle, les pistes supplémentaires sont en pointillés et les nouvelles estimations en
italiques. On rappelle que les variables latentes sont représentées dans des cercles,
que les flèches bidirectionnelles entre variables latentes correspondent à des
corrélations, que les flèches unidirectionnelles allant d’une variable latente à une
autre variable latente se lisent « est un prédicteur de » et que les valeurs numériques
figurant sur ces pistes sont des coefficients de régression (standardisés). Il est aussi
utile de savoir que les petites flèches qui aboutissent à une variable latente (par
exemple, R) sans partir d’une autre variable latente correspondent à de la variance
résiduelle c’est-à-dire à de la variance non prédite par les variables situées en amont
(dans ce cas S+T et CO). Enfin, l’absence de flèche entre certaines variables latentes
du modèle témoigne d’une relation de prédiction non significative au seuil de .05.
4
6/
Fonction
« Stockage et
traitement »
Après introduction de Gc
Avant introduction de Gc
Tâches de
mémoire de travail
S+T
0,41
0,53 (0,53)
Fonction
« Supervision »
SUP
R
0,51
0,23
0,60 (0,61)
Fonction
« Coordination »
CO
ATT
0,51
Gc
0,34
0,76
Tâches d’attention
soutenue
1-R2 = 0,74
1-R2 = 0,17
0,53
Tests de
raisonnement
Verbal
Numérique
Spatial
Tests de
connaissances
Histoire/Géo.
Economie
Art/culture
Maths
Sciences
Vie quotidienne
1) Préciser le statut des variables latentes S+T, SUP, CO et ATT dans ce modèle.
Quel est celui de R ? Quel est celui de Gc ?
2) Les résultats sont-ils en accord avec l’hypothèse de corrélations ente l’attention
soutenue (ATT) et les fonctions de la MT ? Pourquoi les auteurs s’attendent-ils à
une corrélation plus forte entre l’attention soutenue et la fonction « coordination »
de la MT ?
3) Quels sont les prédicteurs du raisonnement (R) ? Quel pourcentage de variance
de R permettent-ils de prédire ? Que peut-on en conclure ?
4) L’hypothèse c) est-elle validée ? Quelle explication peut-on donner de ce
résultat ?
4 - EXPLICATIONS
Question 1
La capacité de la MT et l’attention soutenue sont considérées dans le modèle comme
des prédicteurs du raisonnement R et de l’intelligence cristallisée Gc. Elles ont donc
le statut de variables exogènes (on dit aussi indépendantes, en amont). La variable
latente R est prédite par S+T, SUP, CO et ATT ; elle est donc une variable endogène
ayant le statut de variable dépendante (ou critère). Elle a aussi le statut de variable
intermédiaire en raison de son statut de prédicteur de Gc. Le statut de Gc est celui de
variable dépendante (on dit aussi ultime, en aval).
Question 2
Les corrélations estimées entre ATT et les fonctions de la MT sont de 0,76 pour la
fonction « coordination », 0,54 pour la fonction « stockage en contexte de
traitement » et 0,34 pour la fonction « supervision », ce qui valide l’hypothèse a).
Comme attendu, la corrélation la plus forte est obtenue entre les variables latentes
ATT et CO. Rappelons que l’attention soutenue est définie comme la capacité à
maintenir un niveau élevé d’attention sur un stimulus donné pendant un temps assez
long, permettant ainsi que les ressources nécessaires soient disponibles tout au long
des différentes étapes du traitement. L’observation d’une corrélation entre ATT et
CO n’est pas surprenante. Il semble en effet qu’un processus crucial dans l’attention
soutenue soit la combinaison d’opérations élémentaires en une opération de niveau
supérieur nécessaire à l’atteinte du but poursuivi. Cette idée de combinaison rejoint
celle d’intégration d’éléments ou d’opérations que l’on trouve aujourd’hui dans la
définition de la fonction de coordination de la MT (cf. cours 4C2, Oberauer et al.,
2003). L’hypothèse d’une fonction d’intégration commune pourrait donc expliquer
les 0,78×0,78×100=58% de variance que ATT et CO partagent sur cet échantillon.
Une autre hypothèse plausible est celle de la vitesse de traitement de l’information
qui pourrait jouer un rôle déterminant dans la performance aux 2 catégories de
tâches.
Question 3
Les prédicteurs significatifs du raisonnement sont CO (coefficient de régression de
0,60) et S+T (coefficient de régression de 0,53). Ils prédisent ensemble 83% de la
variance de R, ce qui est considérable. Quant à l’attention soutenue, elle ne prédit
pas de variance de R indépendamment de CO. La capacité de la MT est donc un
prédicteur d’autant plus important de l’efficience intellectuelle qu’elle est mesurée
4
7/
avec des tâches impliquant les fonctions de « stockage en contexte de traitement » et
de « coordination ».
Question 4
La relation entre les fonctions de la MT et raisonnement reste stable après contrôle
de l’intelligence cristallisée (Gc) puisque le coefficient de régression de R sur S+T
conserve la même valeur (0,53) ainsi que celui de R sur CO (0,61). La part de
variance de Gc prédite par R est de 26%. La capacité de la MT prédit donc
indépendamment de Gc un pourcentage important de la variance de R (cf. cours
4C2).
4
8/
EXERCICES
4 D 1 – Formes de variabilité des procédures de résolution
1 - PRÉSENTATION
Des individus différents confrontés à une même tâche peuvent employer des
stratégies différentes (exercice 1). Cette variabilité interindividuelle s’accompagne
de certaines formes de variabilité intra-individuelle : le niveau de difficulté des
items par exemple peut provoquer des changements de stratégie chez certains sujets
(exercice 2). D’un point de vue différentiel, la mise en évidence de différences dans
les stratégies de résolution de problème conduit à s’interroger sur les facteurs
individuels qui peuvent conduire l’individu à utiliser une stratégie plutôt qu’une
autre dans une situation donnée (exercice 3)?
******************************Exercice
1*****************************
Plusieurs recherches consacrées à l’étude des stratégies individuelles ont utilisé le
paradigme de comparaison phrase-dessin de Clark et Chase (voir par exemple,
MacLeod, Hunt et Mathews, 1978). Une phrase (affirmative ou négative: « la croix
est au-dessus de étoile ») est d’abord présentée sur l’écran de l’ordinateur. Le sujet
détermine lui-même le temps de présentation de la phrase (« temps de
compréhension ») puis appuie sur une touche du clavier, la présentation d’une
information imagée remplaçant alors celle de la phrase. Le sujet doit juger de la
conformité entre la phrase et l’information imagée en répondant « vrai » ou « faux »
par l’intermédiaire des touches correspondantes du clavier (« temps de
vérification »).
Les résultats individuels n’étant pas tous conformes aux résultats observés sur
l’ensemble du groupe, on forme deux groupes contrastés de sujets. L’un dit « bien
ajusté » est composé de 8 sujets ; l’autre dit « mal ajusté » en comporte 4. Les temps
de compréhension et de vérification correspondants sont présentés ci-après.
msec
Temps de compréhension
Temps de vérification
msec
Temps
compréhension
de
Temps de vérification
Affirmative
2343
Vrai
1237
Faux
1440
groupe 1: bien
ajusté
groupe 2: mal ajusté
groupe 1: bien
ajusté
groupe 2: mal ajusté
Négative
2740
Vrai
1547
Faux
1567
Affirmative
2887
2623
Vrai
1321
876
Négative
2825
3043
Faux
1621
1204
Vrai
1904
896
D’après Marquer, J., & Pereira, M. (1990)
2 – EXERCICE 1
1. Caractériser la stratégie « moyenne » susceptible de rendre compte du pattern des
de compréhension et de vérification recueillis ici sur un échantillon d’étudiants.
2. Comment interpréter les résultats du groupe « mal ajusté » par rapport à ceux du
groupe « bien ajusté »?
3 – EXPLICATIONS
Question 1
La comparaison des temps de compréhension montre l’existence d’un effet
significatif (<.05) du type de phrase (affirmative vs négative). On peut donc penser,
si l’on accepte l’hypothèse que le temps consacré à la lecture de la phrase est
proportionnel à la durée de l’encodage de l’information, que, par rapport à
l’encodage d’une phrase affirmative, celui d’une phrase négative comporte une ou
plusieurs étapes supplémentaires (par exemple, une étape de transformation de la
phrase négative en une phrase positive).
Le pattern des temps de vérification suggère par ailleurs que la procédure de
Faux
1839
1207
4
9/
vérification est un peu plus longue, peut-être parce que plus exhaustive, lorsqu’il y a
désaccord entre la phrase et l’image. Ce résultat moyen est conforme aux hypothèses
d’un modèle dans lequel le sujet se représente la phrase sous une forme linguistique,
recode l’information imagée sous une forme linguistique puis compare ces deux
représentations. La vérification est de plus longue durée lorsqu’elle s’effectue en
référence à la représentation linguistique d’une phrase négative que lorsqu’elle
s’effectue en référence à celle d’une phrase affirmative. La vérification, lorsqu’elle
s’effectue en référence à la représentation linguistique d’une phrase négative est de
plus longue durée pour un jugement de type faux que un jugement de type vrai.
Question 2
La stratégie linguistique précédemment décrite semble être préférentiellement
employée par les sujets du groupe 1, chez qui on constate une courbe des temps
moyens de vérification conforme à celle prédite par le modèle linguistique. Cela ne
semble cependant pas être le cas pour les sujets du groupe 2 puisque la courbe des
temps de vérification ne traduit pas d’effet du type de phrase mais bien plutôt un
effet important du type de jugement. Ce résultat indique que les sujets de ce groupe
recodent la négation pendant l’étape de compréhension, soit sous forme
linguistique, soit sous forme imagée. Le temps moyen de compréhension étant plus
long dans le groupe 2 que dans le groupe 1, la stratégie de recodage n’est
vraisemblablement pas la même. On peut par exemple faire l’hypothèse que les
sujets du groupe 2 adoptent une stratégie qui consiste à se représenter la phrase sous
une forme imagée puis à comparer cette représentation à celle du dessin. On notera
au passage que l’utilisation de cette stratégie conduit à des temps de vérification
plus courts.
******************************Exercice
2*****************************
Bethell-Fox, Lohman et Snow étudient chez 40 lycéens âgés de 14ans 6 mois à 18
ans les différences individuelles dans la performance à une tâche d’analogies
géométriques du type « A est à B comme C est à ? ». Les items dont deux exemples
sont donnés ci-dessous sont construits en faisant varier le nombre d’éléments de A
(1, 2 ou 3), le type de relation entre A et B (changement de taille, rotation,
symétrie...) et le nombre d’alternatives de réponse (2 et 4).
?
1
A
B
C
A
B
C
2 alternatives
?
2
4 alternatives
2
3
1
2
3
2
3
.12
.10
.08
.06
.04
.12
.10
.08
.06
.04
1
fréquence de réinspection de A et B après D
1
fréquence de réinspection de A et B après C
4
erreurs (%)
8
12 16
20
temps de réponse (sec.)
2
4
6
8
10
La procédure utilisée permet de mesurer le temps de réponse (en secondes) et le
pourcentage d’erreurs des sujets. Elle permet aussi de décrire le pattern des
différentes fixations oculaires lors de la résolution de chacun des items (technique
d’analyse du mouvement des yeux reposant sur la mise en correspondance entre
fixation oculaire et activité de traitement de l’information).
1
2
3
Nombre d'éléments
D’après Bethell-Fox, Lohman & Snow (1984)
Les auteurs mesurent la fréquence des réinspections de A et B « après examen de C
et avant examen des alternatives de réponse » (AB-C) et « après le premier examen
des alternatives de réponse » (AB-D). Les résultats correspondants, observés pour
les items à 2 alternatives (trait plein) et à 4 alternatives (trait pointillé) apparaissent
sur les figures ci-dessus.
4 – EXERCICE 2
1. La difficulté des items est-elle fonction du nombre d’éléments de A? Dépend-elle
5
0/
du nombre de possibilités de réponse? Y a-t-il un effet d’interaction entre les
facteurs expérimentaux « nombre d’éléments » et « nombre de possibilités de
réponse » ?
2. Peut-on dire que les caractéristiques de la tâche et la difficulté des items
induisent, au moins chez certains sujets, un changement de stratégie?
5 - EXPLICATIONS
Question 1
L’examen des TR et des erreurs met en évidence un effet du nombre d’éléments de
A sur la difficulté des items d’autant plus marqué que le nombre de possibilités de
réponse est élevé: les items à 3 éléments et à 4 possibilités de réponse conduisent à
un TR particulièrement plus long et à une précision moindre que ceux à 1 élément et
à 2 possibilités de réponses. L’analyse de variance dégage un effet d’interaction
significatif au seuil de .05. Le nombre de possibilités de réponse est donc, en soi et
en interaction avec le nombre d’éléments de A, une facette importante de la
difficulté des items. Il semble obliger les sujets à activer des composantes de
traitement supplémentaires ou à appliquer un nombre plus élevé de fois les mêmes
composantes.
Question 2
Les résultats de l’analyse du mouvement des yeux montrent qu’aux items les plus
difficiles (3 éléments, 4 possibilités de réponse) correspondent globalement plus de
retours en arrière, de réinspections de A et de B. Les allures respectives des courbes
AB-C indiquent quant à elles que les sujets se préparent d’autant plus
précautionneusement que les items sont difficiles. On peut donc faire l’hypothèse
que les sujets, avant l’examen des possibilités, cherchent à élaborer de manière
séquentielle une représentation de la solution idéale (stratégie « de construction »).
Plus l’item est difficile, plus la construction de la solution nécessite de réinspections
de A et de B. Le constat d’une faible fréquence de réinspections de A et B après
examen des alternatives (courbes AB-D) tend à prouver que cette stratégie est
efficace pour les items les plus faciles.
Pour les items les plus difficiles, on constate une augmentation de la fréquence des
réinspections de A et B après examen des possibilités de réponse. Il se peut donc
que certains sujets ne puissent apparier leur réponse à une des possibilités de
réponse, par exemple en raison d’une mauvaise mémorisation de la représentation
de la solution idéale. On peut alors se demander si la difficulté de certains items
n’oblige pas certains sujets à renoncer, éventuellement provisoirement, à une
stratégie de construction et à lui préférer une stratégie « d’élimination de réponse »
consistant à éliminer les possibilités de réponse incorrectes pour obtenir la bonne
solution par défaut.
******************************Exercice
3*****************************
On veut tester l’existence d’une relation directe entre aptitude et stratégie,
l’hypothèse étant que chaque individu utiliserait spontanément les stratégies les
mieux adaptées à ses niveaux respectifs d’aptitude dans les domaines verbal et
spatial. Pour ce faire, on administre à 40 étudiants (20 de haut niveau d’aptitude
spatiale ou S+, 20 de bas niveau d’aptitude spatiale ou S-), tous d’un niveau
d’éducation élevé, une tâche d’orientation assistée par ordinateur.
Dans cette épreuve, les sujets doivent indiquer aussi précisément et rapidement que
possible la position finale d’un mobile ayant effectué à partir d’une position initiale
6, 7 ou 8 déplacements successifs (par exemple, un pas vers l’est, un pas vers le
nord, un pas vers le nord...). Pour chaque item, la description écrite de l’ensemble
des déplacements effectués apparaît sur l’écran jusqu’à ce que le sujet indique
verbalement la position finale du mobile (une des branches, numérotées de 1 à 16,
de la rose des vents). Deux stratégies différentes semblent pouvoir être utilisées. La
stratégie spatiale repose sur l’élaboration d’une représentation spatiale du parcours
étape par étape. La stratégie de suppression repose sur la suppression, pas à pas, de
la direction opposée à chaque déplacement, la dernière direction constituant la
réponse correcte. Cette seconde stratégie ne nécessite que des savoir-faire
numériques simples.
Les variables mesurées sont le TR et la précision. La stratégie décrite par les
participants à la fin de la tâche est utilisée comme variable de classification, le TR et
la précision étant utilisés pour confirmer la validité de la verbalisation.
5
1/
Résultats des mesures et de la catégorisation (1 sujet n’a pu être classé)
TR moyen
(sec.)
Stratégie spatiale (n=19)
14.7
Stratégie de suppression (n=20)
6.8
HO: pas d’écart entre les deux
p<.01
groupes
Tableau de fréquences
Groupe S+
Groupe Stest d’indépendance
stratégie
spatiale
4
15
χ2=14.8, p<.01
Erreurs (%)
52.3
12.3
p<.01
stratégie
suppression
16
4
de
D’après Roberts, Gilmore & Wood (1997).
6 – EXERCICE 3
1. Quelle est la stratégie apparemment la plus efficace?
2. Y a-t-il une relation entre le niveau d’aptitude spatiale et le choix stratégique?
Que penser d’un tel résultat?
7 - EXPLICATIONS
Question 1
On lit dans le tableau que la stratégie de suppression est associée à des TR
significativement plus courts et à une précision significativement plus élevée. Ces
résultats sont conformes à l’hypothèse que, pour cette tâche d’orientation, la
stratégie spatiale est cognitivement plus exigeante et moins efficace que la stratégie
de suppression.
Question 2
Les auteurs constatent en effet que le niveau d’aptitude spatiale (S+ versus S-) est
un prédicteur significatif du choix stratégique. Mais cette relation est apparemment
contre-intuitive car les individus du groupe S+ utilisent préférentiellement la
stratégie de suppression, non spatiale, alors que ceux du groupe S- privilégient la
stratégie spatiale. Au contraire des sujets d’un niveau élevé d’aptitude spatiale, les
participants d’un faible niveau d’aptitude spatiale ne semblent donc pas réaliser que
la stratégie de suppression est mieux adaptée que ne l’est la stratégie spatiale. On
peut faire l’hypothèse que par rapport aux premiers, les seconds évaluent moins bien
l’inadaptation de la stratégie spatiale aux contraintes de la tâche et/ou disposent
d’un répertoire moins étendu de stratégies, éventuellement non spatiales, pour
résoudre la tâche.
Ces résultats montrent que les individus particulièrement aptes dans le domaine
spatial ne tendent pas nécessairement à utiliser au maximum des représentations
spatiales. La relation entre aptitudes et choix stratégiques est donc plus à considérer
à un niveau général plutôt que spécifique. Ils montrent aussi les difficultés liées à
l’utilisation des tests dits d’aptitudes dans l’identification du mode de
fonctionnement cognitif préférentiellement utilisé par l’individu.
5
2/
DOCUMENTS
4 D 2 – L’entraînement des stratégies cognitives
PRESENTATION
Peut-on entraîner des individus à utiliser efficacement des stratégies de traitement de
l’information afin d’améliorer leurs performances intellectuelles ? Le document 1
apporte des informations d’ordre méthodologique qui concernent l’évaluation des
effets de l’entraînement stratégique sur la performance. La question des effets
différentiels, c’est-à-dire d’effets variables selon les individus de l’entraînement
stratégique sur la performance est ensuite abordée (document 2). Enfin et puisque
depuis la fin des années 80 ont été développés de multiples programmes
d’entraînement des stratégies cognitives chez l’enfant, on s’interroge sur l’efficacité
de ces programmes et sur les mécanismes par lesquels ils pourraient opérer.
Quelques éléments de réponse sont apportés dans le document 3 à propos du
programme « Cognitive Training for Children » qui vise à accroître une capacité
centrale dans la performance aux tests d’intelligence fluide, la capacité de
raisonnement inductif.
DOCUMENT 1 : L’évaluation des effets de l’entraînement « ciblé » de certaines
stratégies
Le plan le plus simple fait appel à deux groupes équivalents dont l’un bénéficie d’un
entraînement pour utiliser une stratégie donnée (par exemple, une stratégie
d’imagerie mentale), l’autre groupe n’en bénéficiant pas (groupe témoin). On évalue
ensuite la performance à une situation-problème choisie comme critère et déjà
analysée du point de vue des processus mis en jeu. Il faut d’abord vérifier que les
stratégies utilisées dans le groupe qui a bénéficié de l’entraînement diffèrent de
celles employées par les sujets du groupe contrôle. Il s’agit surtout de savoir si la
mise en œuvre de la stratégie nouvellement apprise a conduit à une amélioration de
la performance des sujets du groupe entraîné.
Un type de plan plus complexe fait appel à deux groupes contrastés (par exemple, de
niveau intellectuel différent, d’âge différent, avec ou sans pathologie cérébrale, etc.).
On administre d’abord un pré-test afin d’établir le niveau de performance des deux
groupes et d’identifier les opérations préférentiellement mises en œuvre. Après le
pré-test, le groupe dont on cherche à améliorer la performance (par exemple, de
faible niveau intellectuel, d’âge très élevé, etc.) participe à un entraînement visant à
induire l’utilisation des stratégies préférentiellement mises en œuvre par les sujets
de l’autre groupe. Les sujets de ce second groupe participent également à un
entraînement visant à leur faire utiliser les stratégies employées par les sujets du
premier groupe. On évalue finalement la performance des sujets des deux groupes
dans une situation-problème critère. Voici ci-dessous un exemple fictif avec
plusieurs types de résultats.
Mesure
Résultats de type 1
Processus
Niveau
de
performance*
Résultats de type 2
Processus
Niveau
de
performance
Résultats de type 3
Processus
Niveau
de
performance
Niveau intellectuel faible
Pré-test
Post-test
Niveau intellectuel élevé
Pré-test
post-test
A
25%
A+B+C
75%
A+B+C
75%
A
25%
A
25%
A+B
40%
A+B+C
75%
A+C
60%
A
25%
A+B+C
40%
A+B+C
75%
A
60%
* pourcentage par rapport au niveau maximal de performance.
Explications
Si l’entraînement simule correctement les procédures utilisées par les deux groupes,
les résultats doivent être du type 1; on peut alors dire que le traitement
complémentaire B+C conduit à une amélioration de la performance et rend compte
de la différence intellectuelle entre les deux groupes. [...] Les résultats de type 2
indiquent que l’entraînement n’a pas eu les effets escomptés. Les individus de
niveau intellectuel faible n’ont pas mis en œuvre le processus C, ceux de niveau
élevé ont activé A mais aussi C. Des aspects de la situation d’entraînement doivent
5
3/
donc être changés. [...] Les résultats de type 3 correspondent à un entraînement qui
simule les processus ciblés, ces derniers ne rendant pas pleinement compte des
différences entre les deux groupes. [...]
Illustrations
Dans une première étude, on entraîne des adultes retardés mentaux à utiliser des
processus de répétition et d’attention pour mieux mémoriser l’ordre d’une
information verbale. L’étude des TR montre un effet d’entraînement mais l’examen
de la performance dégage une précision moindre que celle d’adultes sans retard
intellectuel. Ces résultats sont de type 3. [...] Dans une autre expérience, on entraîne
des enfants retardés mentaux à répéter l’information, utiliser et enchaîner des
mécanismes de récupération de la même façon que le font des adultes sans retard
intellectuel. L’étude des TR et de la précision indique que l’entraînement a induit
chez les enfants retardés l’utilisation des mêmes procédures que les adultes. Les
mesures de performance montrent de plus qu’après entraînement, les enfants
retardés tendent à être un peu plus précis que des adultes normaux non entraînés.
[...] Ces résultats de type 1 permettent de penser que des différences dans les
stratégies de répétition et de mémorisation utilisées contribuent largement à
expliquer les différences observées entre individus avec et sans retard intellectuel
dans la performance à une tâche de mémoire verbale. [...]
Extrait et traduit de Butterfield (1985)
DOCUMENT 2 : Bénéfices différentiels de l’entraînement des stratégies
Deux groupes d’enfants âgés d’environ 12 ans (32 enfants dont le quotient
intellectuel moyen est de 64; 32 enfants sans retard intellectuel) participent à
l’étude. Une batterie d’épreuves de « métamémoire » (capacité à évaluer la
difficulté, connaissance des stratégies de mémorisation possibles, capacité à répartir
le temps autorisé, capacité à prédire le niveau de performance à une tâche de
mémoire donnée) et plusieurs autres épreuves (compréhension de lecture,
catégorisation et rappel d’images, mémoire de lettres, taux d’utilisation des
stratégies de répétition et de récupération à une tâche de mémoire d’objets) sont
administrées aux enfants. Ceux-ci doivent aussi évaluer la difficulté de chaque
tâche. Enfin, on reprend la tâche précédente de mémoire d’objets après avoir
entraîné les enfants à employer une stratégie dite de répétition et d’organisation en
mémoire qui conduit à une meilleure performance. Les analyses effectuées montrent
que quel que soit le niveau de difficulté perçue, la stratégie utilisée est un prédicteur
significatif (p<.01) de la performance aussi bien chez les enfants déficients que chez
les enfants normaux. Les résultats suivants sont en outre observés.
Enfants déficients
Enfants normaux
Difficulté perçue
Mémorisation Mémorisation
d’objets
d’objets +
entraînement
stratégique
7.06
6.85
5.67
5.06
Performance
Mémorisation
d’objets
Mémorisation
d’objets +
entraînement
stratégique
pas d’amélioration
amélioration: t(33)=1.80, p<.05
D’après Rellinger et al., (1995).
Explications
L’entraînement stratégique tend à réduire la difficulté perçue de la tâche chez les
enfants sans retard intellectuel mais pas chez les enfants déficients. Il y a donc là un
premier effet différentiel de l’entraînement stratégique sur la perception de la tâche
et de son niveau de difficulté. Tout se passe comme si les enfants sans retard
intellectuel avaient mieux compris que les autres les bénéfices à tirer de l’emploi de
la stratégie de répétition et d’organisation en mémoire. Un second effet différentiel
est celui de l’entraînement stratégique sur la performance, l’entraînement stratégique
ne profitant qu’aux enfants sans retard intellectuel. Ces résultats montrent qu’il est
important pour l’enfant de bien comprendre le lien entre la stratégie employée et la
performance, ce que confirme la corrélation significative observée sur le seul groupe
d’enfants sans retard intellectuel entre la métamémoire et la performance (un score
élevé aux épreuves de métamémoire est alors associé à un meilleur rappel).
DOCUMENT 3 : Les limites de l’efficacité des programmes d’entraînement des
stratégies cognitives
Le « Cognitive Training for Children » (CTC) a été développé par Klauer pour
enseigner aux enfants des stratégies de pensée susceptibles d’améliorer leur capacité
de raisonnement inductif. On rappelle que le raisonnement inductif consiste à
5
4/
découvrir des régularités et des irrégularités en détectant des similitudes et/ou des
différences entre : a) attributs d’objets ou d’ensembles d’objets ; b) relations entre
objets ou entre ensembles d’objets. La logique du programme est donc d’enseigner
des procédures assez générales de traitement de l’information comme la
généralisation, la discrimination, la catégorisation, la reconnaissance et la
différenciation de relations ou la construction de système. Le support matériel
consiste en objets concrets, en images et en symboles abstraits. L’enseignement
individuel ou en petit groupe repose sur la découverte guidée et le retour réflexif.
L’entraînement s’effectue au cours d’une dizaine de séances de 20 mn.
Voici certains des enseignements que tirent Hager et Hasselhorn (1998) des résultats
d’une méta-analyse de 17 recherches d’évaluation de l’efficacité du CTC.
« Malgré l’apparente complexité et la diversité des résultats des études prise ici en
considération, il est possible de conclure que le CTC améliore la performance aux
tests traditionnels d’intelligence fluide. On peut néanmoins se demander si ces effets
sont dus ou pas à une augmentation de la capacité de raisonnement inductif des
enfants. La question se pose en effet de savoir pourquoi et comment le CTC
améliore la performance aux tests d’intelligence.
L’efficacité tout d’abord du CTC semble principalement provenir des tâches
d’entraînement plutôt que de la pédagogie employée pour enseigner les stratégies de
comparaison des attributs d’objets et des relations entre ces objets. Les tâches
constitueraient donc la composante procédurale centrale du CTC.
Par ailleurs, s’il n’y a pas de raison de douter que le CTC améliore la capacité des
enfants à repérer les similitudes et dissimilitudes entre objets et évènements, les
effets du CTC ne sont pas nécessairement associés à une augmentation de la
capacité de raisonnement inductif au sens de capacité à détecter (et à appliquer) des
règles ou à trouver des régularités. Ils pourraient plutôt se traduire par une
augmentation de la vitesse et de la précision de la perception visuelle des
enfants ayant pour conséquence une amélioration de la performance à ceux des tests
d’intelligence qui dépendent de la vitesse et de la précision de la perception visuelle.
Cette hypothèse est aussi plus pertinente pour expliquer les patterns spécifiques des
effets de transfert du CTC […] et notamment le constat d’une effet du CTC sur des
mesures pures de vitesse et de précision perceptive ou sur la performance à des tests
visuo-spatiaux ne sollicitant pas des processus de raisonnement inductif. »
Extrait et traduit de Hager et Hasselhorn (1998).
5
5/
DOCUMENTS
4E1 – Experts, novices et résolution de problème
PRÉSENTATION
Le document 1 présente une méthode d’analyse de l’expertise qui repose sur la
description empirique de la « pensée observée » d’experts et de novices. Les
différences dans l’organisation de la connaissance sont typiques de ce qui a pu être
observé dans d’autres domaines de connaissance. Ces différences auraient aussi une
incidence sur l’identification, la définition et la représentation de problème
(document 2).
DOCUMENT 1 : Des différences d’organisation de la connaissance…
Cinq enfants de 7 ans ayant une très bonne connaissance des dinosaures sont
comparés à 5 enfants du même âge sans connaissance particulière de ce domaine
spécifique. On demande à chacun de ces enfants de répartir 20 images de dinosaures
en différents groupes. L’analyse des commentaires des enfants pendant cette tâche
de tri montre d’abord que les experts emploient plus de conjonctions (parce que, si)
que les novices. Considérons l’extrait suivant: « Et il avait les pattes palmées, ce qui
fait qu’il pouvait nager, et son nez avait la forme d’un bec de canard, ce qui lui avait
donné son nom. » Ce résultat suggère que lorsque les experts activent un concept,
plusieurs autres attributs et concepts sont fortement activés; les propositions situées
avant les conjonctions proviennent de la description de l’image alors que celles
placées après proviennent d’une connaissance implicite associée à ces attributs. Les
productions des enfants novices consistent au contraire en une simple description
des attributs explicites apparaissant sur l’image: « Il a les dents pointues. Il a trois
doigts. Il a une grande queue. » [...] On constate aussi que les experts changent plus
facilement de thème dans leur propos. Chaque thème comme par exemple le mode
de défense du dinosaure, semble fortement relié à d’autres attributs comme son
alimentation, son habitat, son comportement social, son apparence physique. [...]
Les experts ont donc une représentation de ces associations qui leur rend difficile de
s’en tenir à un thème sans en aborder d’autres, expliquant ainsi la plus grande
fréquence de transitions observée chez ceux-ci [...]
L’utilisation beaucoup plus fréquente de conjonctions par les experts traduit l’effet
que peut avoir une structure de connaissance hautement associée et très intégrée sur
son utilisation. [...] Une autre différence essentielle dans la manière avec laquelle les
experts et les novices emploient leur connaissance réside dans le nombre de
comparaisons faites entre dinosaures. Par rapport aux novices, les experts effectuent
beaucoup plus de comparaisons et mentionnent aussi bien les différences que les
similitudes. [...] On constate aussi que les experts s’appuient principalement sur
quelques attributs pour en déduire l’alimentation du dinosaure, la présence ou
l’absence d’un de ces attributs leur permettant de dire si le dinosaure est herbivore
ou carnivore. On peut donc penser que la formation de catégories hiérarchisées est
basée sur le développement de tels contrastes. Les novices ne lisent pas les attributs
de manière aussi contrastée. Il leur faut un plus grand nombre d’attributs pour
pouvoir catégoriser. [...] Les représentations des experts sont ainsi plus différenciées
que celles des novices.
Extrait et traduit de Chi, Hutchinson et Robin (1989).
DOCUMENT 2 – … qui affectent la manière avec laquelle l’expert identifie,
définit et représente les problèmes dans son domaine d’expertise
Toute situation de résolution de problème engage des processus de haut niveau (des
métacomposantes dans la théorie triarchique de l’intelligence de Sternberg).
comme : a) reconnaître l’existence du problème ; b) définir sa nature ; c) allouer les
ressources mentales et physiques nécessaires à sa résolution ; d) décider comment
représenter l’information à son sujet ; e) planifier le traitement c’est-à-dire générer
l’ensemble des étapes nécessaires pour le résoudre ; f) combiner ces étapes en une
stratégie de résolution opérante ; g) surveiller le déroulement du processus de
résolution ; h) évaluer la solution. Les experts ont des représentations plus
efficientes de leur domaine que les novices : les détails non pertinents en sont
« gommés » et elles sont structurées plus en profondeur en raison notamment du
regroupement de certaines unités d’analyse. Ces différences dans la structure de
connaissance ont une influence sur la manière avec laquelle l’expert identifie, définit
et représente le problème. En voici une illustration.
Les recherches sur la résolution de problème ont montré que la pensée analytique est
5
6/
plus puissante et moins vulnérable aux heuristiques et aux biais que la pensée
implicite, globale ou intuitive. Il semble cependant que le caractère approprié de
l’analyse ou de l’intuition dépende de la complexité perçue et de la logique du
problème mais aussi du niveau d’expérience dans le domaine de l’individu.
L’analyse serait une stratégie appropriée pour les individus disposant de
connaissances du domaine car leur expertise les aiderait à reconnaître l’information
clé et à mieux définir le problème. Les novices au contraire, parce qu’ils repèrent
moins bien l’information pertinente et perçoivent moins bien la structure du
problème, se focaliseraient sur l’information non pertinente dont ils tireraient des
conclusions erronées. Dans une étude récente, nous avons examiné l’impact de la
stratégie utilisée, celui de la complexité du problème et du niveau d’expertise en
résolution de problème chez des adolescents et des jeunes adultes. Les problèmes
sont « bien définis » c’est-à-dire que les buts, la voie à suivre et les obstacles à
contourner sont clairs au regard de l’information fournie ; ils sont regroupés selon
leur niveau de complexité. Le niveau d’expertise est opérationnalisé par le niveau de
scolarisation. L’utilisation stratégique est manipulée par des consignes. La stratégie
analytique est basée sur un modèle commun du cycle de résolution de
problème (définir le problème, identifier l’information pertinente, allouer les
ressources, évaluer les résultats). Dans la stratégie intuitive, il faut imaginer la
situation avec le plus de vivacité possible, appréhender le problème globalement et
suivre son intuition. Les résultats montrent que la stratégie intuitive aide les novices
(elle accroît leurs chances de prendre en compte l’information pertinente) alors que
la stratégie analytique bénéficie aux experts.
Extrait et traduit de Pretz, Naples et Sternberg (2003).
5
7/
EXERCICES
4E2 – Connaissances spécifiques et cognition de haut niveau
1 - PRÉSENTATION
On considère aujourd’hui en psychologie cognitive que les différences individuelles
dans l’organisation, la disponibilité et l’utilisation de la connaissance jouent un rôle
très important dans les différences cognitives. Le premier exercice porte sur la
relation entre les connaissances antérieures et l’apprentissage de connaissances
nouvelles. Dans le second exercice, on s’intéresse à la relation entre le niveau de
connaissance dans un domaine donné et le niveau de compréhension d’un texte
portant sur des aspects précis de ce domaine. Dans le troisième exercice enfin, on
présente des résultats qui suggèrent que la capacité de la mémoire de travail et les
connaissances dans un domaine donné pourraient contribuer indépendamment à
l’efficience dans ce domaine.
******************************Exercice 1*****************************
Dans un travail consacré à l’étude de la relation entre connaissance générale acquise
et apprentissage d’une connaissance nouvelle, Kyllonen, Tirre et Christal (1991)
évaluent chez 400 jeunes adultes leur capacité d’apprentissage associatif, leur
rapidité à décider si deux mots sont synonymes ou pas (même type de paradigme
que celui de comparaison de lettres; cf. cours 4D1) et leur niveau de connaissance
en vocabulaire.
Pour chacun des 20 items de la tâche d’apprentissage associatif, il s’agit d’étudier
une série de 10 paires « mot cible :: mot sonde » (par exemple, camion :: bonté)
présentées successivement. Selon les items, la durée de présentation ou « temps
d’examen » de chaque paire est de ½, 1, 2, 4 ou 8 secondes. Les sujets doivent
ensuite retrouver l’une de ces paires dans laquelle le mot sonde a été remplacé par
un synonyme (par exemple, camion :: bienveillance) parmi cinq propositions. Les
distracteurs utilisés sont des synonymes de certains des mots-sondes présentés dans
la série étudiée pour lesquels on a vérifié dans une étude préparatoire qu’ils étaient
parfaitement connus en tant que tels. On mesure le pourcentage de bonnes réponses.
Voici les pourcentages de bonnes réponses à la tâche d’apprentissage associatif pour
les quatre groupes constitués en contrastant les sujets à la fois par rapport au niveau
de connaissance (voc+ vs voc-) et à leur rapidité de décision à la tâche de
comparaison de synonymes (lent vs rapide).
Groupe
Connaissance Vitesse
Voc lent
Voc rapide
Voc +
lent
Voc +
rapide
1/2
20
27.5
28
35
Temps d’examen (sec)
1
2
28
31
35
45
38
46
46
59
4
36
49
54
67
8
43
52
62
71
2 – EXERCICE 1
Ces résultats paraissent-ils en accord avec l’hypothèse d’un effet du niveau de
connaissance sur l’efficacité de l’apprentissage associatif ? Il est conseillé de
représenter graphiquement l’évolution de la précision moyenne (en ordonnée) en
fonction de l’augmentation du temps d’examen (en abscisse).
3 - EXPLICATION
La consultation du tableau ci-dessus permet de constater que le niveau de
connaissance mesuré par la quantité de vocabulaire a, quel que soit le temps
d’examen, un effet sur la probabilité d’apprentissage. Testé par les auteurs, cet effet
du niveau de connaissance sur le pourcentage de bonnes réponses est significatif à
p<.001. Les résultats d’analyses plus précises non rapportés dans ce document
indiquent également l’existence d’un effet significatif (p<.001) de la rapidité de
comparaison de synonymes sur l’apprentissage associatif.
On voit que si l’on privilégie une interprétation qualitative du temps mis pour
comparer deux synonymes en termes de disponibilité et d’organisation de la
connaissance (la comparaison serait d’autant plus rapide que la connaissance est
plus disponible, plus cohérente, mieux organisée), ces deux résultats témoignent de
l’importance des connaissances, du double point de vue de leur étendue et de leur
facilité d’activation, dans l’apprentissage d’une connaissance nouvelle.
5
8/
*******************************Exercice 2****************************
Alexander, Kulikowich et Schulze (1994) étudient l’influence de la connaissance
sur la compréhension d’un texte scientifique chez 209 étudiants se destinant à la
carrière d’enseignant. La connaissance est considérée à un niveau général (par
exemple, en biologie) ainsi qu’à un niveau plus spécifique (par exemple, la division
cellulaire).
Les auteurs évaluent l’étendue de la connaissance générale en sciences physiques
(les concepts, les principes fondamentaux) au moyen d’un questionnaire à choix
multiples comprenant des questions du type: « Qu’est-ce que le mouvement
Brownien ? ». Les étudiants sont ensuite répartis en 3 groupes en fonction de leurs
scores standardisés ou scores z: 1/ le groupe « faible » (score z < -1); 2/ le groupe
« moyen » (-1≤ score z ≤ +1); 3/ le groupe « fort » (score z > +1).
L’épreuve de compréhension est composée de deux textes: l’un sur la théorie des
quarks, l’autre sur la contribution du physicien Stephen Hawking au rapprochement
entre théorie de la relativité et mécanique quantique. Le niveau de connaissance
spécifique est préalablement évalué en fonction du contenu de ces deux textes.
Quant au niveau de compréhension des textes, il est mesuré par plusieurs questions
de rappel comme : « Un quark contient ... leptons ». On demande enfin aux
étudiants d’évaluer de 1 (peu intéressant) à 10 (très intéressant) l’intérêt éprouvé
pour chacun des textes.
Variable
Prédicteurs
Connaissance générale du
domaine
Connaissance spécifique
- Texte « Quarks »
- Texte « Hawking »
Critères
Compréhension
- « Quarks »
- « Hawking »
Intérêt
- « Quarks »
- « Hawking »
Score maximum
“faible”
“moyen”
“fort”
Possible
n=32
n=130
n=47
25
7.78 (1.31)
12.76 (1.96)
19.53 (2.22)
12
12
.12 (0.33)
1.12 (1.13)
.25 (0.76)
2.08 (1.55)
1.53 (1.65)
3.57 (2.21)
13
13
3 (2.76)
3.31 (3.10)
4.53 (2.76)
4.95 (2.41)
7.06 (2.85)
7.92 (2.81)
10
10
4 (2.12)
5.63 (2.07)
4.25 (2.28)
5.98 (2.08)
5.70 (2.25)
7.30 (2.38)
On présente ci-dessus les scores moyens et écarts-types (entre parenthèses)
observés. Une série d’analyses de régression est ensuite effectuée sur les données
correspondant à chacun des deux textes. Les résultats obtenus montrent que :
- pour le texte « Quarks »: le pourcentage de la variance expliquée du score de
compréhension (resp. du score d’intérêt) par le score de connaissance générale est
de 21%, p<.001(resp. 8%, p<.01);
- pour le texte « Hawking »: le pourcentage de la variance expliquée du score de
compréhension par les scores de connaissance générale et de connaissance
spécifique est de 32%, p<.001. Pour le score d’intérêt, 13% de la variance
s’explique par les scores de connaissance générale et de connaissance spécifique
(p<.01).
4 – EXERCICE 2
1. Au vu des données de groupe, que peut-on dire de la relation entre le niveau de
connaissance générale du domaine et le niveau de connaissance spécifique des
étudiants?
2. Le niveau de connaissance a-t-il une influence sur la compréhension des textes
présentés? Que penser de la relation entre niveau de connaissance et intérêt?
5 - EXPLICATION
Question 1
Il faut d’abord noter le faible niveau de connaissance spécifique des étudiants et
plus particulièrement la très faible connaissance des notions abordées dans le texte «
Quarks ». Cette remarque faite, on peut voir que le niveau de connaissance des
notions spécifiques du texte « Hawking » est plus élevé chez les étudiants du groupe
« fort » qu’il ne l’est chez ceux du groupe « faible ». Malgré le peu de connaissances
spécifiques dont disposent les étudiants, ce résultat suggère l’existence d’une liaison
5
9/
positive entre ces deux niveaux de connaissance; les étudiants d’un niveau élevé de
connaissance générale du domaine semblent aussi en connaître certains aspects plus
spécifiques.
Question 2
Pour le texte « Quarks », la connaissance du domaine est le seul prédicteur
significatif du score de compréhension. La variabilité interindividuelle du niveau de
connaissance spécifique étant extrêmement faible, il n’est pas étonnant que cette
variable n’apporte aucune explication. Pour le texte « Hawking », la connaissance
du domaine et celle de notions plus précises rendent compte environ du tiers de la
variance du score de compréhension. On peut donc conclure à l’existence d’une
relation entre le niveau de connaissance dans un domaine donné et le niveau de
compréhension d’un texte portant sur des aspects précis de ce domaine.
Il est enfin intéressant de remarquer que l’intérêt éprouvé pour la tâche semble aller
de pair avec le niveau de connaissance d’autant que d’autres résultats, non rapportés
ici, montrent que plus l’individu se déclare intéressé, plus grande est l’attention
qu’il porte à la situation. La connaissance, l’intérêt et la compréhension semblent
donc bien entretenir des relations fonctionnelles.
*******************************Exercice 3****************************
L’influence de la capacité de la mémoire de travail (CMT) sur la performance
cognitive varie-t-elle selon le niveau de connaissances ? En d’autres termes, la
connaissance est-elle un modérateur de la relation entre CMT et performance
cognitive ? Cette question est abordée empiriquement par Hambrick et Oswald
(2005) dans une étude qui confronte trois hypothèses. La première hypothèse dite de
compensation prédit que le niveau de connaissance atténue l’influence de la CMT
sur la performance. La seconde hypothèse dite du « riche qui s’enrichit » postule
que la CMT facilite l’utilisation de la connaissance. Enfin, l’hypothèse d’influences
indépendantes énonce que les effets de la connaissance et de la CMT sur la
cognition de haut niveau sont indépendants et se cumulent.
La performance cognitive est mesurée chez les 318 jeunes adultes qui participent à
l’étude à l’aide d’une tâche de navigation spatiale et d’une tâche de base-ball
construites exactement de la même manière (items identiques dans deux contextes
distincts). La consigne est la même pour chaque tâche. Il faut suivre le déroulement
à l’écran d’une mission spatiale (d’un match de base-ball) pour indiquer ensuite : a)
quelle planète (ou quelle base) est occupée après chaque déplacement de vaisseau
(ou de joueur) ; b) quels vaisseaux retournent à la planète E (quelles bases sont
occupées après chaque lancer) ; c) quels vaisseaux quittent la planète E (quels
joueurs sont à l’extérieur des bases). On mesure également la connaissance qu’ont
les participants du base-ball (règles, terminologie, etc.), la CMT (tâches d’empan
complexe) et la vitesse perceptive.
On observe les corrélations (toutes significatives à p<.01) suivantes entre les 3
prédicteurs et les 2 critères :
1. Capacité de la mémoire de travail (CMT)
2. Vitesse perceptive (VP)
3. Connaissance spécifique du base-ball (CS_BB)
4. Performance mnésique à la tâche de navigation spatiale (PM_NS)
5. Performance mnésique à la tâche de base-ball (PM_BB)
1
1,00
0,52
0,17
0,37
0,47
2
3
4
5
1,00
0,15 1,00
0,27 0,22 1,00
0,35 0,43 0,54 1,00
Les analyses effectuées conduisent à retenir parmi les modèles correspondant aux
hypothèses testées le modèle ci-dessous :
6
0/
1-R2 = 0,84
CMT
0,41
VP
0,31
PM_NS
0,34
0,16
0,17
1-R2 = 0,65
PM_BB
0,36
CS_BB
1-R2 = 0,97
Note : Les variables représentées ici dans des rectangles sont observées. Les
estimations des coefficients de piste sont toutes significatives à .05 (voir les
commentaires de l’exercice 4C2).
6 – EXERCICE 3
Quelle est l’hypothèse dont les prédictions sont les plus en accord avec la
modélisation ci-dessus ?
7 – EXPLICATION
Ces résultats ne sont pas en accord avec l’hypothèse de compensation selon laquelle
le niveau de connaissance atténuerait l’influence de la CMT sur la performance. En
effet, la relation directe entre CMT et PM_BB est positive et forte alors que la
relation indirecte via CS_BB est de plus faible amplitude. La seconde hypothèse qui
postule que la CMT facilite l’utilisation de la connaissance ne peut être
véritablement évaluée avec ce modèle. Tout au plus peut-on noter l’effet significatif
positif de la CMT sur la connaissance du base-ball, ce qui montre que les tâches de
mémoire de travail mesurent des aspects fondamentaux de la cognition et de
l’apprentissage (cf. cours 4C). Les résultats sont plutôt en accord avec l’hypothèse
d’influences indépendantes de la CMT et de la connaissance spécifique (domaine du
base-ball). En effet, la relation entre la CMT et la performance mnésique évolue peu
quand les participants passent de la tâche de navigation spatiale à celle de base-ball
(on pourrait vérifier que la différence entre les deux coefficients de piste 0,34 et
0,41 n’est pas significative). La connaissance spécifique par contre semble être un
meilleur prédicteur de la performance mnésique à la tâche de base-ball que de celle
à la tâche de navigation spatiale (on pourrait vérifier que la différence entre 0,16 et
0,36 est significative). La CMT et la connaissance spécifique du base-ball opèrent
donc de manière indépendante dans la cognition de haut niveau.
6
1/
Bibliographie
Ackerman, P.L. (1988). Determinants of individual differences during skill
acquisition: Cognitive abilities and information processing. Journal of Experimental
Psychology: General, 117, 288-318.
Ackerman, P.L., Baier, M.E., & Boyle, M.O. (2005). Working Memory and
Intelligence: The Same or Different Constructs? Psychological Bulletin, 131, 30–60.
Alexander, P.A., Kulikowich, J.M., & Schulze, S.K. (1994). How subject-matter
knowledge affects recall and interest. American Educational Research Journal, 31,
313-337.
Anderson, J. (1983). The architecture of cognition. Cambridge, MA: Harvard
University Press.
Baddeley, A. D., & Hitch, G. (1974). Working memory. In G. H. Bower (Ed.), The
psychology of learning and motivation: Vol. 8. Advances in research and theory (pp.
47–89). New York: Academic Press.
Ben-shahar, G., & Scheffer, L. (2001). The relationship between the ability to divide
attention and standard measures of cognitive ability. Intelligence, 29, 293-306.
Bethell-Fox, C.E., Lohman, D.F., & Snow, R.E. (1984). Adaptive reasoning:
Componential and eye movement analysis of geometric analogy performance.
Intelligence, 8, 205-238.
Borkowski, J.G. (1996). Metacognition: theory or chapter heading? Learning and
Individual Differences, 8, 391-402.
Borkowski, J.G. & Muthukrishna, N. (1992). Moving metacognition into the
classroom: “Working models” and effective strategy teaching. In M. Pressley, K.
Harris et J. Guthrie (Eds.), Promoting academic literacy: Cognitive research and
instructional innovation (pp. 477-501). Orlando, FL: Academic Press.
Bors, D.A., Stokes, T.L., Forrin, B., & Hodder, S.L. (1999). Inspection Time and
Intelligence: Practice, Strategies, and Attention. Intelligence, 21, 111-129.
Buehner, M., Krumm, S., Ziegler, M., & Pluecken, T. (2006) Cognitive abilities and
their interplay: Reasoning, crystallized intelligence, working memory components,
and sustained attention. Journal of Individual Differences, 27, 57–72.
Butterfield, E.C. (1985). Instructional methods of studying the ontogeny of human
intelligence. In D.K. Detterman (Ed.). Current topics in human intelligence (Vol. 1,
pp. 202-222). Norwood, N.J.: Ablex.
Carpenter, P.A., Just, M.A., & Shell, P. (1990). What one intelligence test measures:
A theoretical account of the processing in the Raven Progressive Matrices Test.
Psychological Review, 97, 404–431.
Chi, M.T., Hutchinson, J.E., & Robin, A.F. (1989). How inferences about novel
domain-related concepts can be constrained by structured knowledge. MerrillPalmer Quarterly, 35, 27-62.
Corkill, A.J. (1996). Individual differences in metacognition. Learning and
Individual Differences, 8, 275-279.
Daneman, M., & Carpenter, P.A. (1980). Individual differences in working memory
and reading. Journal of Verbal Learning and Verbal Behavior, 19, 450–466.
Engle, R.W., & Kane, M.J. (2004). Executive attention, working memory capacity,
and a two-factor theory of cognitive control. In B. Ross (Ed.), The psychology of
learning and motivation (pp. 145–199). New York: Academic Press.
Engle, R.W., Tuholski, S.W., Laughlin, J.E., & Conway, A.R.A. (1999). Working
memory, short-term memory, and general fluid intelligence: a latent-variable
approach. Journal of Experimental Psychology: General, 128, 309–331.
Friedman, N.P., Miyake, A., Corley, R.P., Young, S.E., DeFries, J.C., & Hewitt,
J.K. (2006). Not all executive functions are related to intelligence. Psychological
Science, 17, 172-179.
Gilmore, G.C., Royer, F.L., Gruhn, J.J., & Esson, M.J. (2004). Symbol-digit
substitution and individual differences in visual search ability. Intelligence, 32, 4764.
Glück, J., Machatb, R., Jiraskob, M., & Rollettb, B. (2002). Training-related
6
2/
changes in solution strategy in a spatial test: An application of item response
models. Learning and Individual Differences, 13, 1–22.
Hager, W., & Hasselhorn, M. (1998). The effectiveness of the cognitive training for
children from a differential perspective: a meta-evaluation. Learning and Instruction,
8, 411-438.
Hambrick, D.Z., & Oswald, F.L. (2005). Does domain knowledge moderate
involvment of working memory capacity in higher-level cognition? A test of three
models. Journal of Memory and Language, 52, 377-397.
Hunt, E., Lunneborg, C.E., & Lewis, J. (1975). What does it mean to be high
verbal? Cognitive Psychology, 7, 194-227.
Hunt, E., Pellegrino, J.W., & Yee, P.L. (1989). Individual differences in attention.
The Psychology of Learning and Motivation, 24, 285-310.
Jensen, A. R. (1998). The g factor: The science of mental ability. Westport, CT:
Praeger.
Juhel, J. (1995). L'étude des bases biologiques de l'intelligence. In J. Lautrey (Dir.),
L'universel et le différentiel en psychologie (pp. 449-477). Paris : P.U.F.
Kane, M.J., & Engle, R.W. (2002). The role of prefrontal cortex in working-memory
capacity, executive attention, and general fluid intelligence: An individualdifferences perspective. Psychonomic Bulletin & Review, 9, 637–671.
Kane, M.J., Hambrick, D.Z., Tuholski, S.W., Wilhelm, O., Payne, T.W., & Engle,
R.W. (2004). The generality of working-memory capacity: A latent-variable
approach to verbal and visuo-spatial memory span and reasoning. Journal of
Experimental Psychology: General, 133, 189–217.
Kyllonen, P.C., Lohman, D.F. & Woltz, D.J. (1984). Componential modelling of
alternative strategies for performing spatial tasks. Journal of Educational
Psychology, 76, 1325-1345.
Kyllonen, P.C., Tirre, W.C., & Christal, R.E. (1991). Knowledge and processing
speed as determinants of associative learning. Journal of Experimental Psychology:
General, 120, 57-79.
Lansman, M., Donaldson, G., Hunt, E, & Yantis, S. (1982). Ability factors and
cognitive processes. Intelligence, 6, 347-386.
MacLeod, C.M., Hunt, E.B. & Mathews, N.N. (1978). Individual differences in the
verifcation of sentence picture relationships. Journal of Verbal¸ Learning and Verbal
Behavior, 17, 493-507.
Marquer, J. (1995). Variabilité intra- et interindividuelle dans les stratégies
cognitives : l’exemple du traitement de couples de lettres. In J. Lautrey (Dir.),
L'universel et le différentiel en psychologie (pp. 107-130). Paris : P.U.F.
Marquer, J., & Pereira, M. (1990). Les stratégies dans la vérification phrase-dessin
In M. Reuchlin, F. Longeot, C. Marendaz et T. Ohlmann (Eds.), Connaître
différemment (pp. 243-260). Nancy: P.U.N.
Miyake, A., Friedman, N.P., Emerson, M.J., Witzki, A.H., & Howerter, A. (2000).
The unity and diversity of executive functions and their contributions to complex
“frontal lobe” tasks: A latent variable analysis. Cognitive Psychology, 41, 49–100.
Oberauer, K., Süß, H.-M., Wilhelm, O., & Wittmann, W.W. (2003). The multiple
faces of working memory: Storage, processing, supervision, and coordination.
Intelligence, 31, 167–193.
Pask, G. & Scott, B.C.E. (1972). Learning strategies and individual competence.
International Journal of Man-Machine Studies, 4, 217-253.
Pretz, J.E., Naples, A.J., & Sternberg, R.J. (2003). Recognizing, defining and
representing problems. In J.E. Davidson and R.J. Sternberg (Eds.), The psychology
of problem solving (pp. 3-30). Cambridge: Cambridge University Press.
Rellinger, E., Borkowski, J.G., Turner, L.A., & Hale, C.A. (1995). Perceived task
difficulty and intelligence: determinants of strategy use and recall. Intelligence, 20,
125-143.
Richard, J.-F., & Zamani, M. (1997). L’analyse des stratégies dans les tests à l’aide
des modèles de résolution de problème. In J. Juhel, T. Marivain & G. Rouxel (Eds.),
6
3/
Psychologie et différences individuelles: questions actuelles (pp. 83-86). Rennes :
PUR.
Roberts, M.J., Gilmore, D.J., & Wood, D.J. (1997). Individual differences and
strategy selection in reasoning. British Journal of Psychology, 88, 473-492.
Rozencwajg, P., Corroyer, D. & Altman, P. (2002). SAMUEL : diagnostic du
fonctionnement cognitif. Manuel d’instructions. Delta Expert, Cergy.
Schunn, C.D., & Reder, L.M. (2001) Another source of individual differences:
Strategy adaptivity to changing rates of success. Journal of Experimental
Psychology: General, 130, 59-76.
Schweizer, K., & Moosbrugger, H. (2004). Attention and working memory as
predictors of intelligence. Intelligence, 32, 329–347.
Schweizer, K., Moosbrugger, H., & Goldhammer, F. (2005). The structure of the
relationship between attention and intelligence. Intelligence, 33, 589–611.
Siegler, R.S. (1996, 2000 pour l’édition française). Intelligences et développement
de l’enfant : variations, évolution, modalités. Bruxelles : DeBoeck Université.
Sternberg, R.J. (1977). Intelligence, information processing and analogical
reasoning: The componential analysis of human abilities. Hillsdale, NJ: Erlbaum.
Sternberg, R.J. (1985). Componential analysis: A recipe. In D.K. Detterman (Ed.),
Current topics in human intelligence (Vol. 1, pp. 179-201). Norwood, N.J.: Ablex.
Sternberg, S. (1969). Memory-Scanning: mental processes revealed by reaction-time
experiments. American Scientist, 57, 421-457.
Swanson, H.L. (1993). Individual differences in working memory. Intelligence, 17,
285-332.
Vigneau, F., Caissie, A.F., & Bors, D.A. (2006). Eye-movement analysis
demonstrates strategic influences on intelligence. Intelligence, 34, 261–272.
Woltz, D.J. (1988). An investigation of the role of working memory in procedural
skill acquisition. Journal of Experimental Psychology: General, 117, 319–331.
Téléchargement