1/ 6 LES FONDEMENTS COGNITIFS DE L’INTELLIGENCE Les travaux des psychologues factorialistes dans le domaine de l’intelligence ont permis d’édifier des représentations fournissant une description de la structure des aptitudes intellectuelles commune à tous les individus à partir de l’information apportée par les tests (cf. chapitre 3). Pour autant, ces approches descriptives n’informent que très peu sur les processus intellectuels qui sous-tendent la performance observée aux tests. Comment alors atteindre, au-delà du constat des différences de performance, les mécanismes ayant engendré celles-ci ? Avec l’essor, vers la fin des années 50, de la psychologie cognitive générale et le développement de méthodes de recherche permettant une exploration fine des processus mentaux mis en œuvre dans le fonctionnement cognitif, les psychologues différentialistes ont progressivement pris conscience des avantages à tirer de l’application des outils conceptuels et méthodologiques de l’approche du traitement de l’information à l’étude des aspects cognitifs des différences individuelles. Ainsi est né un domaine d’investigation original se proposant d’appliquer les approches expérimentale et différentielle à l’étude de la relation entre mécanismes cognitifs et intelligence mesurée par les tests. L’intégration de l’approche fonctionnelle de la cognition et de l’analyse des différences individuelles offre des perspectives très intéressantes. Elle contribue tout d’abord à l’identification des mécanismes cognitifs qui sous-tendent les différences de performance aux tests. A ce titre, elle éclaire sous un autre jour les théories de l’intelligence et des aptitudes humaines. Elle contribue aussi à l’identification de variations individuelles dont le caractère systématique a pu échapper aux théories générales de la cognition mais doit être pris en compte. Ce chapitre illustre la diversité des points de vue et des méthodes d’investigation mises en œuvre pour réaliser ce projet. Nous verrons qu’un premier ensemble de travaux a échoué à « localiser » les processus élémentaires responsables des différences d’efficience intellectuelle. Une autre direction de recherche combinant les approches expérimentale et différentielle s’est intéressée aux ressources de traitement du système cognitif humain en tant que composante stable et générale de la cognition. Les résultats obtenus n’éclairent cependant que très partiellement les différences individuelles de performance aux tests d’intelligence. On peut également douter de la valeur d’une explication générale des différences de performance aux tests d’intelligence tant est grande la diversité inter- et intra-individuelle des stratégies de résolution mises en œuvre, tant est complexe le jeu des relations entre processus de haut niveau (impliqués par exemple dans la planification et la sélection des stratégies, la surveillance et le contrôle de l’activité cognitive, etc.) et connaissances générales ou plus spécifiques. L’examen d’ensemble des faits d’expérience dont certains sont présentés et discutés dans ce chapitre suggère que le produit de l’activité cognitive doit être compris comme le résultat d’une interaction entre différents niveaux d’intégration de la connaissance, différents degrés de savoir-faire, différents types de processus cognitifs, les processus de contrôle de l’activité cognitive s’alimentant pour leur part à des connaissances situées à un niveau supérieur d’organisation. En conséquence, les différences d’efficience intellectuelle mises en évidence par les tests sont à comprendre comme des différences dans le fonctionnement d’un système d’unités cognitives interdépendantes qu’il est souhaitable d’appréhender à des niveaux d’organisation différents. LECTURES CONSEILLÉES Ouvrages généraux : HUTEAU, M., & LAUTREY, J. (1999). Evaluer l’intelligence : psychométrie cognitive. Paris : Presses Universitaires de France. 2/ 6 La quatrième partie de l’ouvrage (« Les perspectives de renouvellement ») présente un bilan des travaux sur les différences de traitement de l’information responsables des différences de performance aux tests. MACKINTOSH, N.J. (2004). QI et intelligence humaine. Bruxelles : DeBoeck Université. Texte très accessible qui aborde de manière critique la notion de QI sous forme de synthèse bien documentée de l’approche cognitive expérimentale des aptitudes intellectuelles. Pour aller plus loin : LAUTREY, J. (Ed.) (1995). Universel et différentiel en psychologie. Paris : P.U.F. Pour avoir un aperçu général de la psychologie différentielle. Certains textes de cet ouvrage collectif complètent plusieurs des thèmes abordés dans ce chapitre. LAUTREY, J., & RICHARD, J.-F. (Eds.) (2005). L’intelligence. Paris : Lavoisier. La diversité des approches qui caractérise cet ouvrage témoigne de la multitude des points de vue qui ont été adoptés pour étudier l’intelligence. La première partie (« L’intelligence vue comme compétence individuelle ») est en lien avec certains des points abordés dans ce chapitre. REUCHLIN, M. (1999). Evolution de la psychologie différentielle. Paris : PUF. Cet ouvrage regroupe un ensemble d’articles théoriques portant par exemple sur les relations entre psychologie générale et psychologie différentielle, la différenciation interindividuelle, les différences individuelles dans le fonctionnement cognitif, etc. WILHELM, O., & ENGLE, R.W. (Eds.) (2005). Handbook of understanding and measuring intelligence. London: Sage Publications. Le lecteur trouvera dans cet ouvrage récent des revues de question consacrées à des points traités dans ce chapitre : le rôle de la mémoire de travail dans la cognition (chapitres 5, 6, 22 et 23), les liens entre connaissance et intelligence (chapitres 7, 8 et 20). 3/ 6 A L’INFLUENCE DE LA PSYCHOLOGIE COGNITIVE La psychologie cognitive dont le développement a révolutionné les conceptions classiques de l’intelligence humaine, s’est progressivement dessinée en psychologie expérimentale à partir des années 60. Elle peut être présentée aujourd’hui comme l’étude des processus mentaux mis en jeu dans l’attention, la perception, la mémoire, le langage, le raisonnement, etc., ainsi que celle de la connaissance, de son organisation, de son utilisation et des mécanismes par lesquels elle s’acquiert (cf. Grand Amphi, Psychologie Cognitive). S’il existe une grande variété de modèles du fonctionnement cognitif, les psychologues qui étudient la cognition humaine ont tous en commun de définir un niveau de description fondamental qui est celui du traitement de l’information et d’explorer les processus mentaux au moyen de paradigmes permettant de tester des hypothèses sur le fonctionnement du système cognitif humain. La démarche qu’adopte la psychologie cognitive est la même que celle des autres disciplines scientifiques. Elle consiste d’abord à élaborer une théorie, un ensemble de principes explicatifs qui visent à rendre compte d’une catégorie donnée de phénomènes cognitifs. Des prédictions vérifiables (ou hypothèses) déduites de cette théorie sont ensuite soumises à l’épreuve des faits. Pour cela, on imagine des situations contrôlées visant à provoquer des conduites. Ces situations expérimentales permettent de recueillir aussi rigoureusement que possible des données d’observation, grâce auxquelles le caractère de vraisemblance des hypothèses peut être empiriquement testé et évalué statistiquement. La réplication des résultats obtenus permettra d’étayer la formulation de nouvelles hypothèses susceptibles d’enrichir la théorie. 1. Un schéma minimal d’architecture cognitive Pour des raisons qui tiennent à la démarche adoptée, les modèles de la psychologie cognitive évoluent et l’interprétation d’un phénomène cognitif donné peut être rapidement remise en question par de nouvelles données empiriques non compatibles avec les prédictions du modèle. On peut néanmoins tenter de dégager quelques propositions fonctionnelles minimales susceptibles d’être appliquées à une large variété de phénomènes cognitifs. Le schéma d‘architecture cognitive présenté ci-après met l’accent sur plusieurs catégories de processus en relation avec différentes étapes du traitement de l’information. L’information sensorielle doit d’abord être transformée en une information de nature symbolique (par exemple, la perception d’un stimulus visuel donnera lieu à la construction d’une image mentale). Des processus cognitifs opèrent alors pour sélectionner l’information pertinente (fonctions attentionnelles), organiser, interpréter et maintenir active cette information en mémoire temporaire (fonction mémoire de travail). L’action de ces processus, y compris les plus précoces, est guidée par les connaissances stockées en mémoire à long terme (arrière-plan de connaissances). Schéma d’architecture cognitive 4/ 6 mémoire sensorielle Evénements externes processus attentionnels sélection activation, coordination encodage Réponse Mémoire de travail récupération, intégration, organisation Mémoire à long terme arrière-plan de connaissances structurées par domaines Le psychologue qui étudie les différences individuelles dans le fonctionnement intellectuel peut s’appuyer sur ce cadre théorique très général pour chercher à identifier les mécanismes cognitifs susceptibles d’expliquer les différences de performance aux tests d’aptitudes et d’intelligence. 2. L’interprétation cognitive des différences de performance aux tests L’approche différentielle du fonctionnement intellectuel, prédominante en psychologie de l’intelligence jusqu’à la fin des années 50, a progressivement suscité des critiques de plus en plus vigoureuses. Les critiques d’ordre théorique remettaient en question la conception, à la fois dispositionnelle et statique, que certains différentialistes de l’époque avaient largement contribué à valider et diffuser. On reprochait aussi à ces derniers d’utiliser une méthode essentiellement descriptive ne permettant pas la confrontation d’explications psychologiques rivales des différences de performance aux tests d’aptitudes (cf. chapitre 2, l’analyse factorielle confirmatoire). Pour beaucoup de psychologues différentialistes pourtant, les résultats des analyses factorielles pouvaient être interprétés en termes de processus psychologiques sous-jacents. Ceux-ci ont donc été de plus en plus nombreux à réaliser les possibilités offertes par les concepts de la psychologie cognitive pour décrire et expliquer les différences individuelles dans le fonctionnement intellectuel. Au milieu des années 70, Carroll, un psychologue spécialiste de l’analyse factorielle, suggère de faire appel aux concepts de la psychologie cognitive pour « interpréter » les sources de variation de la performance aux tests. Pour mener à bien cette première spécification, Carroll s’appuie sur un modèle de fonctionnement cognitif très influent à l’époque, le modèle en systèmes de production de Newell et Simon (1972) pour préciser comment et dans quelle mesure les différences liées aux structures, aux processus et à leur organisation pourraient contribuer aux différences révélées par l’analyse factorielle. Note marginale ******************************************************* Le modèle en systèmes de production est défini comme un ensemble ordonné de séquences de production (condition-action : si...alors) impliquées dans la sélection de l’information, le traitement et le stockage de l’information en mémoire à court terme, le stockage et la récupération en mémoire à long terme, etc. ************************************************ fin de la note marginale Prenons pour exemple le facteur primaire de vitesse perceptive dont un des meilleurs indicateurs est le test des Figures Identiques. L’analyse cognitive qu’en propose Carroll fait référence à la nature des stimuli, aux contenus mentaux correspondants, aux opérations sur ces contenus et aux produits qui en résultent. Elle se traduit par les hypothèses suivantes: 1) les processus sous-jacents sont des processus de recherche visuelle ; 2) les différences individuelles sont principalement associées à des paramètres temporels (vitesse d’encodage, vitesse de comparaison); 3) la structure impliquée est la mémoire à court terme (stockage temporaire d’une information visuo-spatiale). Encadré************************************************************* Test des Figures Identiques : test papier-crayon de la batterie des Aptitudes Mentales Primaires de Thurstone. Pour chaque item, le sujet a pour consigne de retrouver dans une série de formes simples celles qui sont identiques à une figure de référence (les bonnes réponses sont en noir dans l’exemple ci-dessous). Le score au test est le nombre d’items auxquels le sujet a répondu correctement en un temps donné (2 planches d’items à résoudre en 3 mn). 5/ 6 Les tests de ce type saturent le facteur de vitesse perceptive décrit comme la rapidité avec laquelle un individu peut comparer des figures et les retrouver au sein d’un ensemble d’autres figures (cf. chapitre 3). ******************************************************Fin de l’encadré Mais cette description a posteriori des variables latentes dont l’analyse factorielle révèle l’existence n’est que peu satisfaisante si les conclusions tirées ne sont pas ultérieurement mises à l’épreuve. Cette prise de conscience va conduire au développement d’une approche dans laquelle les différences individuelles dans le fonctionnement cognitif sont étudiées à partir de données d’observation recueillies dans des situations expérimentales. 3. L’étude expérimentale des bases cognitives de l’intelligence Les premiers travaux réalisés dans ce domaine reposent sur l’hypothèse qu’un nombre réduit de mécanismes cognitifs généraux joue un rôle fondamental dans la performance aux tests. Certains chercheurs ont ainsi étudié les corrélations entre la vitesse d'exécution et/ou l'efficacité de processus élémentaires mesurés dans un cadre expérimental spécifié et la performance aux tests d’intelligence ou d’aptitudes. D’autres ont proposé de décomposer l'activité mentale mise en jeu lors de la résolution d’items de tests d’intelligence en modélisant les étapes du traitement de l’information. Quelle que soit l’approche privilégiée, on admet que les valeurs des paramètres de traitement de l’information ainsi mesurés sont fonction de l’efficacité de processus cognitifs de base qu’il s’agit d’identifier (section B). L’interprétation de ces paramètres est souvent réductionniste. Note marginale******************************************************* Réductionnisme : réduction systématique d’un niveau de description et d’explication à un autre niveau de description et d’explication ; réduire par exemple le psychologique au biologique (les différences d’intelligence sont principalement dues à des différences dans la vitesse de transmission de l’influx nerveux), le psychologique au social (les différences dans le développement cognitif sont essentiellement dues à des facteurs sociaux). ************************************************Fin de la note marginale Un autre courant de recherches, plus soucieux que les précédents de références théoriques explicites et validées par la psychologie cognitive, s’est ensuite tourné vers les notions d’allocation des ressources attentionnelles et de capacité de la mémoire de travail pour expliquer les différences de performance aux tests d’intelligence. L’objectif des travaux effectués dans cette perspective est d’élucider le rôle des ressources de traitement de l’information dans la performance aux tests tout en considérant que les processus sous-jacents opèrent de manière relativement indépendante des contenus symboliques (section C). Les postulats qui fondent ces approches générales se sont cependant révélés parfois peu compatibles avec les faits. L’approche élémentariste de l'activité mentale s’est par exemple heurtée à la diversité des procédures mises en jeu pour résoudre une tâche donnée. L’approche des ressources de traitement n’apporte de son côté qu’un éclairage limité au rôle des connaissances dans la perception et la compréhension de l’information à traiter. Si l’individu face aux demandes de la tâche peut en effet ne pas allouer les ressources de traitement suffisantes pour mettre en œuvre une stratégie de résolution adaptée, il peut aussi ne pas disposer des connaissances nécessaires lui permettant la sélection de la stratégie la plus adaptée. On conçoit donc, sur les bases de ce qui précède, l’intérêt à adopter un point de vue qui tienne à la fois compte des contraintes imposées par la tâche et des connaissances et ressources de l’individu. Plusieurs voies de recherche ont été empruntées. L’une d’entre-elles a consisté à décrire les stratégies individuelles utilisées lors de la résolution d’items de tests d’intelligence et à étudier l’évolution des choix stratégiques avec l’apprentissage. Quantitative jusqu’alors, l’approche des bases cognitives de l’intelligence s’est intéressée à des aspects plus qualitatifs du traitement de l’information en tentant de mieux comprendre le rôle des choix stratégiques et celui de la flexibilité de ces choix dans les différences de performance aux tests (section D). L’idée que les différences de performance aux tests d’intelligence renvoient, au 6/ 6 moins en partie, à la structure, l’accessibilité et la disponibilité de certaines connaissances acquises nécessaires à la résolution de ce type d’épreuves a servi de guide à un autre grand courant de recherche. L’accent a été mis cette fois sur la spécificité, liée à l’arrière-plan de connaissance, des processus mis en œuvre dans les tests d’aptitudes. L’expertise est devenue un objet d’étude privilégié en tant qu’affectant la manière avec laquelle les individus organisent, représentent et interprètent l’information. En résumé, les processus étudiés sont des processus de haut niveau impliqués dans l’utilisation et l’acquisition des connaissances stratégiques (section E). Les chercheurs ont fait appel à diverses méthodes, le plus souvent corrélationnelles, pour identifier et préciser le rôle des divers médiateurs cognitifs potentiels de la performance aux tests d’intelligence. Le simple constat d’une corrélation entre deux variables n’étant pas suffisant (cf. chapitre 5), certaines formes de contrôle ont donc été employées. On sait que lorsque l’objectif est d’établir l’existence d’une relation de causalité entre deux variables, une première forme de contrôle consiste à neutraliser expérimentalement l’impact d’un mécanisme cognitif sur la performance aux tests pour explorer plus précisément le rôle d’un autre mécanisme. Mais beaucoup de situations dans ce domaine de recherche ne permettent pas de contrôle purement expérimental. On parle de contrôle quasi-expérimental quand on distingue plusieurs groupes de sujets par rapport à une variable invoquée (par exemple, l’étendue des connaissances des sujets, leur expertise dans un domaine particulier) pour comparer les observations effectuées sur chaque groupe et tenter de mieux comprendre les mécanismes cognitifs qui sous-tendent les différences de performance entre groupes. Le contrôle statistique est une autre forme de contrôle qui permet d’estimer, toutes choses restant égales par ailleurs, les relations entre des unités cognitives impliquées dans la performance aux tests d’intelligence (par exemple, la relation entre deux variables en ne tenant pas compte des relations que l’une et l’autre entretiennent avec une troisième). Nous verrons à plusieurs reprises que le contrôle statistique offre aussi la possibilité de modéliser dans le cadre de ce que l’on appelle les « modèles structuraux » les relations d’ensemble de ces unités (cf. chapitre 2). 7/ 6 B LES DIFFERENCES DANS LES PROCESSUS ÉLÉMENTAIRES 1. La recherche de preuves corrélationnelles Au début des années 70, Hunt, Lunneborg et Lewis (1975) cherchent à unifier les théories de l’intelligence et de la cognition en tentant d’identifier des mesures absolues de certains aspects de la capacité de traitement de l’information plutôt que des mesures relatives à la performance moyenne d’une population de référence. Hunt estime que la performance intellectuelle dépend de l’efficacité de la « mécanique mentale » qui permet la manipulation de l’information symbolique représentée en mémoire indépendamment de la signification qui y est attachée. Son point de vue est élémentariste en ce sens qu’il postule que les caractéristiques de certaines fonctions élémentaires peuvent expliquer les différences observées à un niveau supérieur d’activité. La démarche qu’il adopte est corrélationnelle ; elle consiste à étudier la relation entre la performance à une tâche expérimentale de calibrage mesurant un processus cognitif fondamental et la performance à un test d’intelligence dans lequel on suppose que ce processus intervient. Encadré ************************************************************ Une tâche expérimentale de calibrage est une procédure élaborée pour permettre l’identification et la mesure d’un processus élémentaire de traitement de l’information. Le paradigme dit de « balayage en mémoire visuelle » de Saul Sternberg est une tâche de calibrage qui a été fréquemment employée dans les recherches corrélationnelles. Le sujet est face à un écran d’ordinateur sur lequel apparaissent des chiffres présentés un à un. Chaque séquence à mémoriser comprend un nombre variable de chiffres (de 1 à 5). Quelques dixièmes de seconde après la présentation du dernier chiffre de la séquence, un chiffre-cible est présenté au sujet. Ce dernier doit indiquer aussi rapidement et précisément que possible si le chiffre appartenait ou non à la séquence initiale. On mesure le TR en millisecondes (ms) et la précision - généralement très élevée - à la tâche. Temps de réponse moyen (msec.) Jugements d ’appartenance Sujet 1 TR=344+47n 550 500 Sujet 2 TR=331+31n 450 400 350 1 2 3 4 5 Nombre d ’éléments de la séquence (n) On constate classiquement une augmentation linéaire du TR en fonction du nombre d’éléments à maintenir en mémoire à court terme (MCT). Cette relation linéaire permet de calculer individu par individu la régression des TR sur le nombre 8/ 6 d’éléments de la séquence. Deux estimations (ou paramètres de traitement de l’information) peuvent ainsi être obtenues. La pente de la régression est généralement interprétée comme une mesure du temps nécessaire à la récupération d’un élément en MCT. Sur l’exemple ci-dessus correspondant à des données recueillies chez des étudiants, le sujet 2 récupère plus rapidement l’information que le sujet 1 (31 vs 47). Quant à l’ordonnée à l’origine (ici, 344 ms pour le sujet 1), elle mesurerait la durée des processus d’encodage et de réponse motrice. D’après Sternberg, S. (1969) ******************************************************Fin de l’encadré Hunt et ses collègues s’intéressent au processus d’accès lexical qui relie l’information visuelle et auditive du mot à sa signification. Ils constatent que les sujets les plus rapides à une tâche dans laquelle il faut décider le plus vite possible si une série de lettres est un mot (LOIN) ou pas (LONI) tendent à avoir un niveau de performance plus élevé que les autres à des épreuves verbales de compréhension de textes. Cette corrélation se révèle modérée chez des adultes normaux (de l’ordre de 0,35). Elle est plus importante chez des individus déficients intellectuels moyens. Ces premiers travaux ont été suivis par de nombreux autres dans les domaines verbal ou spatial. Ils se sont généralement traduits par le constat d’une corrélation modeste - ce que Hunt a appelé la « barrière des .30 » - entre la performance à des tâches de calibrage et celle à des tests d’aptitudes supposés activer les processus élémentaires mesurés (cf. document 4B1). Une revue des études employant le paradigme de balayage en mémoire visuelle aboutit ainsi à des corrélations moyennes de –0,27 entre le TR moyen et le Quotient Intellectuel (QI), de –0,35 entre la variabilité intraindividuelle des TR et le QI, de –0,11 entre la pente des TR ou « vitesse de récupération d’un élément en mémoire à court terme » et le QI, de –0,30 entre l’ordonnée à l’origine (la durée des processus d’encodage et de réponse motrice) et le QI. Note marginale******************************************************* Accès lexical : entrée dans le lexique (dictionnaire mental). Cf. Grand Amphi, Psychologie cognitive. ************************************************ fin de la note marginale De nombreuses études utilisant la méthodologie décrite ci-dessus ont cherché à dépasser les différences spécifiques liées à des processus élémentaires précis pour tenter de démontrer l’existence de différences générales dans la vitesse de traitement de l’information ou « vitesse mentale ». Deux paradigmes ont été principalement appliqués dans cette perspective à l’étude des différences individuelles : le paradigme de Hick et celui de temps d’inspection. Encadré ************************************************************ Paradigme de Hick. Dans ce paradigme classique de temps de réaction, le sujet doit éteindre une lumière dès qu’elle s’allume en appuyant le plus vite possible sur le bouton correspondant. On parle de tâche de TR « simple » quand une seule lampe est présentée. Dans ce cas il n’y a pas de choix à effectuer et la quantité d’information à traiter est nulle. On parle de tâche de TR « avec choix » quand la série dans laquelle il faut éteindre la lampe comporte plusieurs alternatives. La présence de deux lampes nécessite une décision binaire (21, soit 1 bit d’information), celle de 4 lampes en nécessite deux (22, soient 2 bits d’information), celle de 8 lampes en nécessite trois (23, soient 3 bits d’information), etc. On constate classiquement une augmentation linéaire du TR avec la quantité d’information. La pente de la droite de régression du TR sur la quantité d’information est considérée par certains auteurs comme un indicateur de la vitesse mentale ou vitesse de traitement de l’information des sujets, les plus rapides étant supposés avoir besoin de moins de temps pour traiter chaque bit d’information. Paradigme de temps d’inspection. Il s’agit d’une tâche de discrimination visuelle ou auditive. En modalité visuelle par exemple, il faut indiquer, entre deux lignes de longueurs peu différentes, laquelle est la plus longue. Les stimuli sont présentés pendant différentes durées d’exposition et sont immédiatement suivis d’un masque visuel. Le temps d’inspection (TI) est la durée de présentation nécessaire pour parvenir à un niveau donné de précision (par ex. 95% ou 97,5%). Le TI varie en moyenne de 40 ms à 130 ms chez l’adulte sain. Son interprétation en termes de vitesse de traitement de l’information est discutée (cf. exercices 4B2). ****************************************************** fin de l’encadré 9/ 6 Le paradigme de Hick a été utilisé à de multiples reprises, notamment par Jensen (pour revue, 1998) qui a défendu avec beaucoup vigueur l’hypothèse de la vitesse mentale. Selon Jensen, la corrélation moyenne observée entre la pente des TR et l’intelligence mesurée par les tests serait de l’ordre de -0,20 (données recueillies chez 1195 sujets). Celle observée entre la variabilité des TR en cours de tâche (variabilité intra-individuelle) et l’efficience intellectuelle mesurée par des tests d’intelligence générale serait légèrement supérieure (de l’ordre de –0,25). Des résultats sensiblement comparables ont été retrouvés dans les études employant le paradigme de temps d’inspection (de l’ordre de -0,30 entre TI et QI). Que penser de cette corrélation faible mais répétable entre vitesse mentale et performance aux tests d’intelligence ? Pour Jensen ou Eysenck, l’importance de la vitesse mentale résulterait avant tout du fait qu’elle est essentielle à l’acquisition d’une information nouvelle en temps limité. L’explication proposée est la suivante; plus l’information à traiter est complexe, plus les processus mis en jeu sont nombreux, plus l’importance de la vitesse d’exécution de ces processus se fait sentir. L’avantage apporté par une vitesse d’exécution élevée serait de réduire d’autant les risques de perte d’information en cours de traitement. Le point final de l’argumentaire est que ces différences de vitesse mentale seraient causées par des différences d’efficience de l’activité neuronale et du fonctionnement cortical. Jensen et Eysenck considèrent ainsi que les résultats exposés plus haut, le constat de corrélations entre vitesse mentale et performance aux tests d’autant plus élevées que les tests sont plus fortement saturés en facteur d’intelligence générale et celui plus discutable de corrélations entre la vitesse mentale et certains indicateurs physiologiques et métaboliques du fonctionnement cérébral plaident en faveur de l’hypothèse de la vitesse de traitement de l’information comme base fondamentale des différences d’intelligence générale révélées par les tests. Les raisons qui conduisent à rejeter cette « explication » réduisant les différences individuelles observées à un niveau comportemental à des différences de niveau inférieur, psychologique ou même neurobiologique, sont multiples (par exemple, Juhel, 1995). Le constat tout d’abord d’une corrélation entre la mesure d’un processus cognitif élémentaire et la mesure d’une aptitude intellectuelle complexe n’implique en aucun cas que l’efficacité du processus conditionne le niveau d’aptitude. Même si l’on dispose a priori d’un modèle explicitant le rôle du processus dans le fonctionnement cognitif, il n’est en fait possible de conclure avec certitude que lorsque aucune corrélation n’est observée, l’hypothèse d’une relation de causalité entre processus et aptitude devant alors être rejetée. L’interprétation d’une corrélation entre vitesse mentale et performance aux tests d’intelligence est par ailleurs d’autant plus fragile que la signification psychologique des procédures expérimentales utilisées est incertaine. La vitesse mentale en effet est évaluée par des tâches qui malgré leur simplicité apparente mesurent aussi des aspects perceptifs et pré-attentionnels du traitement de l’information, engagent des processus attentionnels de haut niveau ou permettent la mise en œuvre de plusieurs stratégies de résolution (cf. exercices 4B2). Le lien avec la perception, l’attention ou la cognition est donc très étroit. L’idée qui consiste à penser qu’une tâche expérimentale élémentaire nécessite la mise en œuvre d’un simple processus cognitif de base, d’exécution plus ou moins rapide selon les individus, est loin d’aller de soi. La faiblesse des corrélations observées entre des mesures différentes (mais théoriquement identiques) de la vitesse mentale comme la vitesse de décision lexicale ou la pente des TR en fonction de la quantité d’information renforce d’ailleurs ce doute. On devrait même s’attendre à ce que les corrélations entre les tâches les plus simples (c’est-à-dire, celles où la vitesse prime) soient les plus élevées. Or on observe exactement le contraire; les tâches cognitives élémentaires qui nécessitent le plus de temps (c’est-à-dire, les moins « simples ») sont plus corrélées à la fois entre elles et à la performance aux tests d’intelligence. Il faut aussi signaler que ce sont les mesures les plus globales et les moins comprises d’un point de vue théorique qui présentent les corrélations les plus fortes avec l’intelligence générale. C’est le cas par exemple de la variabilité intra-individuelle des TR qui est un indicateur de la stabilité des TR de l’individu. On voit alors mal l’intérêt à mettre en œuvre une analyse expérimentale fine pour mesurer la vitesse mentale quand un simple TR global se révèle plus prédictif des différences de performance aux tests d’intelligence. Les critiques précédentes conduisent donc à préférer une explication plus intégrée dans laquelle plusieurs processus contribueraient par leur fonctionnement d’ensemble et à des degrés divers à rendre compte des différences de performance aux tâches élémentaires dites - trop rapidement sans doute – de vitesse de traitement de l’information. La vitesse de traitement de l’information et l’efficience mesurée 1 0/ par les tests d’intelligence seraient alors deux indicateurs distincts mais se recouvrant partiellement du fonctionnement d’un même système cognitif. 2. La décomposition de l’activité cognitive D’autres auteurs ont préféré chercher à identifier les composantes de base de l’intelligence en analysant expérimentalement la performance de sujets à des tâches complexes comme celles que l’on peut trouver dans les tests d’intelligence. Robert Sternberg présente ainsi dans un ouvrage publié en 1977 un ensemble de méthodes qui visent à décomposer l’activité de traitement de l’information (cf. document 4B3). Le principe général de ces méthodes dites d’analyse composantielle est d’identifier les composantes du traitement de l’information en influençant sélectivement celles-ci par une manipulation systématique des caractéristiques de l’information à traiter (cf. exercices 4B4). Note marginale ******************************************************* Composantes : le terme recouvre pour Sternberg les processus mentaux et les stratégies utilisés par les sujets comme le processus d’encodage d’une information sensorielle en une information symbolique, celui de transformation d’une représentation mentale en une autre, la comparaison globale d’une forme à une autre, etc. ************************************************ fin de la note marginale L’analyse composantielle repose sur trois hypothèses principales : - l’activité de traitement de l’information peut être décomposée en une succession d’opérations cognitives ; - la durée et l’efficacité des opérations spécifiées dans le modèle cognitif de la tâche varient selon les caractéristiques de l’information à traiter ; - le temps de résolution total d'un item (resp. la précision à l’item) est égal(e) à la somme des temps d'exécution (resp. au produit des précisions) de chacune des différentes opérations spécifiées. L’analyse composantielle a été appliquée à des adaptations informatisées de tests de raisonnement afin de mesurer la vitesse et la précision des réponses à des tâches de raisonnement analogique (chaussure est à pied comme gant est à ?), de résolution de syllogismes (tous les chiens sont des mammifères ; tous les teckels sont des chiens: tous les teckels sont-ils des mammifères ?), de raisonnement visuo-spatial (plier une feuille carrée en deux puis en quatre; faire un trou près d’un coin; imaginer ce que l’on voit une fois le papier déplié), etc. L’analyse composantielle a été aussi utilisée pour décomposer l’activité mentale lors de la résolution de tâches moins complexes, peu échouées et comportant un grand nombre d’items. En voici un exemple. Il s’agit d’une épreuve informatisée de rotation mentale dans laquelle on présente une forme géométrique (la figure-cible). Lorsque le sujet estime avoir mémorisé cette information, il appuie sur une touche du clavier, faisant ainsi disparaître la figure-cible et apparaître une figure présentée dans une orientation différente (le test). Le sujet doit indiquer aussi vite que possible si le test est superposable à la cible. On mesure le TR et la précision de la réponse fournie à chaque item. Encadré************************************************************* L’analyse des processus engagés dans la résolution d’une tâche de rotation mentale. L’activité cognitive est ici décomposée en trois processus (ou composantes) successifs : - encodage ou élaboration d’une représentation mentale de la figure-test ; - rotation mentale de la représentation de la figure-test pour la superposer à la représentation mentale de la figure-cible ; - comparaison entre les deux représentations puis décision et réponse. 1 1/ Réponse chronométrée Figure-test Figure-cible Processus Encodage Rotation Comparaison Manipulations expérimentales degré de complexité de la figure degré de différenciation angulaire type de jugement = ou ≠ Divers aspects de la situation sont manipulés expérimentalement. On s’attend ainsi à ce que l’augmentation du nombre de sommets de la figure augmente la durée de l’étape d’encodage. On fait aussi l’hypothèse que l’augmentation de l’angle de la rotation à effectuer mentalement pour superposer les deux formes (par exemple de 30 à 90°) accroît la durée de l’étape de rotation. Enfin, la durée de l’étape de comparaison peut varier selon que les formes sont identiques ou pas. Le matériel est construit en croisant ces facteurs (cf. Grand Amphi, Les méthodes en psychologie, chapitre 4). ****************************************************** fin de l’encadré Une fois les composantes et leur ordre d’intervention spécifiés, l’étape suivante consiste à tester l’adéquation du modèle cognitif aux données recueillies. 0n évalue pour cela l’écart entre les prédictions du modèle (les estimations de la précision et du TR pour chaque type d’item) et la précision et les TR observés. Si cet écart est jugé suffisamment faible, on dit que le modèle décrit correctement les observations. Il est alors possible de quantifier individuellement l’efficacité des différentes composantes dont le modèle fait l’hypothèse. Ces scores théoriques ou composantiels ne sont pas des scores observés mais des scores estimés à partir des TR et de la précision dans le cadre d’un modèle cognitif de la tâche dont on a antérieurement évalué l’adéquation aux données recueillies (cf. documents 4B3). L’analyse composantielle a conduit au développement de modèles moyens qui se sont révélés généralement aptes à décrire l’organisation des étapes du traitement de l’information. Elle a ainsi contribué à éclairer la relation entre vitesse de réponse et niveau de performance. Par exemple, on a pu observer à des tâches de raisonnement analogique que les sujets les plus efficients consacraient plus de temps à l’encodage des termes du problème qu’ils n’en consacraient à effectuer des opérations sur les représentations venant d’être élaborées. Sternberg a également remarqué que ces mêmes sujets consacraient proportionnellement plus de temps à la planification globale de la tâche qu’à sa planification locale. L’observation répétée de corrélations médiocres entre les scores composantiels et la performance aux tests d’intelligence (le plus souvent aux environs de 0,40) reste cependant, comme le reconnaît Sternberg, « une des surprises les moins agréables de l’analyse composantielle ». En cela, ces résultats ne sont guère différents de ceux des recherches corrélationnelles. L’analyse composantielle est donc d’un intérêt limité si les différences d’efficience à des tâches complexes ne sont comprises qu’en termes de différences dans la vitesse et/ou l’efficacité de processus de plus bas niveau. C’est d’ailleurs ce qu’a très bien perçu Sternberg qui a proposé de distinguer plusieurs catégories de composantes hiérarchiquement organisées en attribuant aux composantes de niveau supérieur un rôle essentiel dans l’efficience intellectuelle. Note marginale******************************************************* Planification globale, planification locale : la planification globale recouvre la compréhension de la nature du problème et la mise au point d’une stratégie générale de résolution. La planification locale correspond à la formation et l’exécution de procédures plus spécifiques de traitement de l’information. ************************************************ fin de la note marginale Note marginale******************************************************* Processus ou composantes de niveau supérieur : on dit aussi processus exécutifs ou métacognitifs. Ces composantes d’un niveau élevé d’intégration seraient impliquées dans la sélection, la coordination et le contrôle des composantes de plus 1 2/ bas-niveau. ************************************************ fin de la note marginale L’analyse composantielle n’a cependant pas permis de comprendre comment l’information est traitée par l’individu et cela pour plusieurs raisons. Le principe qui consiste à localiser une composante suspectée d’être impliquée dans une tâche cognitive donnée à une place précise dans une séquence déterminée d’étapes de traitement de l’information est sans doute erroné. Beaucoup d’éléments permettent aujourd’hui de penser que c’est au contraire le système formé par les composantes impliquées dans l’activité cognitive qui joue un rôle déterminant. C’est donc le fonctionnement de ce système qu’il faut tenter de comprendre plutôt que d’attribuer la responsabilité des différences de performance à l’une ou l’autre, prises isolément, des composantes impliquées dans l’activité mentale. Une autre critique faite à l’analyse composantielle porte sur la nature des composantes, souvent insuffisamment spécifiée. Dans la tâche de rotation mentale par exemple, l’encodage peut porter sur certains traits spécifiques ou sur des sousensembles plus globaux de traits. Il en est de même pour la comparaison qui peut s’appuyer sur un élément jugé discriminant, sur l’ensemble de la figure lorsqu’elle est simple ou sur quelques traits spécifiques lorsque la figure est complexe. Parler d’étape d’encodage ou de comparaison n’est donc que peu informatif du point de vue des processus engagés. De nombreux résultats d’études expérimentales montrent aussi qu’un seul modèle de décomposition de la tâche est en général insuffisant pour rendre compte de l’activité cognitive de sujets différents. Le fait que des sujets différents puissent activer différentes opérations mentales ou qu’un même sujet puisse faire appel à plusieurs procédures de résolution pour résoudre une même tâche fait donc souhaiter une analyse plus fine des stratégies individuelles. Les raisons pour lesquelles telle procédure plutôt que telle autre puisse être préférée par un individu donné amène aussi à poser la question des contraintes internes (par exemple, les ressources de traitement) qui conditionnent certains de ces choix. 1 3/ C LES DIFFÉRENCES DANS LES RESSOURCES DE TRAITEMENT La capacité limitée de traitement de l’information est un aspect central des modèles du fonctionnement cognitif de l’être humain (cf. Grand Amphi, Psychologie cognitive, chapitres 3 et 5). Il n’est donc pas étonnant que l’on ait cherché à expliquer les différences individuelles de performance aux tests d’intelligence par des différences dans les limites de traitement associées aux capacités restreintes de l’attention et de la mémoire à court terme. Nous évoquerons ici deux catégories d’études différentielles dont les conclusions soulignent l’importance des limites de traitement dans la cognition de haut niveau. La première explique les différences de performance aux tests par des différences dans la capacité attentionnelle, dans d’allocation et dans le contrôle des ressources de traitement. La seconde les explique par des différences dans la capacité de la mémoire de travail définie à l’origine comme un espace de travail dans lequel opèrent simultanément les fonctions de maintien temporaire et de traitement concurrent de l’information. 1. Différences individuelles dans l’attention On pense intuitivement que lorsque des individus doivent résoudre un test d’intelligence, l’attention considérée comme une ressource générale a un effet sur le niveau de performance au test. Mais les conclusions sur ce point ne sont pas unanimes d’autant que l’attention est un concept controversé et que les tâches utilisées pour mesurer les fonctions attentionnelles reposent sur des rationnels parfois différents. L’attention et l’intelligence mesurée par les tests paraissent entretenir une certaine relation lorsque les tâches employées sont d’un degré modéré de complexité, sont peu coûteuses en ressources de traitement et nécessitent de rester concentré sur un stimulus spécifique pendant une assez longue période. La forme d’attention ainsi mesurée est dite soutenue. Schweizer et Moosbrugger (2004) utilisent par exemple une tâche d’une durée de 6 minutes dans laquelle le sujet doit appuyer sur la touche « 1 » d’un clavier d’ordinateur quand apparaît une configuration cible (« 2 points dans un carré » ou « 3 points dans un cercle ») et sur la touche « 0 » quand il s’agit d’une configuration distractrice (« 3 points dans un carré » ou « 2 points dans un cercle »). Le niveau de performance à cette tâche se révèle assez fortement corrélé à la performance à deux tests d’intelligence non verbale administrés aux 120 participants de l’étude (de l’ordre de 0,50). Des corrélations substantielles avec l’intelligence ont été également observées avec des tâches dites de commutation qui imposent des changements rapides entre diverses opérations cognitives. Les sujets les moins performants aux tests d’intelligence auraient donc plus de difficultés que les sujets plus performants à allouer « en continu » les ressources attentionnelles suffisantes à ce type de tâches. Les résultats sont plus incertains pour d’autres formes d’attention, par exemple l’attention sélective définie comme la capacité à sélectionner, amplifier les informations pertinentes et à inhiber les informations non pertinentes pouvant perturber l’activité cognitive (cf. Grand Amphi, Psychologie cognitive, chapitre 3). Mesurée avec des tâches de discrimination perceptive, l’attention sélective ne semble pas être en relation avec la performance aux tests d’intelligence. Mais l’attention sélective peut aussi être mesurée avec des tâches de résistance à l’interférence qui nécessitent un niveau de contrôle plus élevé, par exemple dénommer le plus vite possible une figure (par exemple, un cercle) à l’intérieur de laquelle est écrit le nom d’une autre forme (par exemple, « triangle »). Dans ce cas, 1 4/ la capacité à résister à l’interférence est un prédicteur significatif des différences d’intelligence générale. Des constats similaires ont été faits pour l’attention divisée ou capacité à partager l’attention, habituellement mesurée à l’aide de paradigmes de concurrence cognitive dans lesquels le sujet doit réaliser conjointement deux tâches, la charge cognitive de l’une d’entre elles étant éventuellement manipulée expérimentalement. S’il est bien établi qu’une tâche dont la charge cognitive n’est pas trop élevée est plus corrélée à l’efficience générale quand elle est administrée en concurrence ou en coordination avec une autre que lorsqu’elle est administrée seule (cf. documents 4C1,1), l’hypothèse d’une relation entre la performance aux tâches d’attention divisée et celle aux tests d’intelligence reste fragile. L’étude de Ben-Shahar et Sheffer (2001) montre cependant qu’une relation modeste peut être observée lors de l’administration initiale de la tâche d’attention divisée mais que celle-ci disparaît avec l’automatisation du traitement et la diminution du niveau de contrôle. Ces résultats sont en accord avec les conclusions d’Ackerman (1988) qui a montré que lors de l’apprentissage d’une habileté cognitive spécifique (par exemple, apprendre à réagir aussi rapidement que possible en réponse à diverses combinaisons de signaux lumineux), la réduction du coût attentionnel de la tâche tend à atténuer fortement la relation entre performance à la tâche et efficience intellectuelle générale. Cette observation a conduit Ackerman à proposer une théorie des relations entre fonctions attentionnelles et efficience intellectuelle dans laquelle le niveau de fonctionnement attentionnel (la disponibilité en ressources de traitement contrôlé) est identifié au niveau de fonctionnement intellectuel. Encadré************************************************************* Concurrence cognitive ou double tâche. Hunt utilise par exemple un paradigme comportant une tâche principale et une tâche secondaire de surveillance. La tâche principale est une tâche d’apprentissage dans laquelle le sujet doit mémoriser des associations lettre-chiffre. La tâche secondaire consiste à appuyer sur une touche dès l’apparition d’un signal visuel. L’épreuve suit le déroulement suivant: A=7 (3s); B=3 (3 s); B=? (réponse verbale du sujet); B=4 (3 s); signal visuel (réponse motrice pour la tâche secondaire) A=? (réponse verbale); A=5 (3 s); etc. La charge cognitive représente la quantité de ressources de traitement nécessaires à la réalisation d’une tâche donnée. Dans cet exemple, la charge cognitive de la tâche principale est manipulée en augmentant le nombre de paires à mémoriser. La charge cognitive dépend des caractéristiques de la tâche mais aussi d’aspects liés à l’individu (ses connaissances, les stratégies employées, etc.). ****************************************************** fin de l’encadré Encadré************************************************************* La théorie des relations entre fonctions attentionnelles et efficience intellectuelle proposée par Ackerman est basée sur une interprétation de l’intelligence générale en termes d’effort attentionnel ou quantité de ressources allouées au traitement non automatique de l’information. Cette théorie est née d’observations effectuées dans des situations d’exercice intensif (i.e. durant plusieurs dizaines d’heures) au cours desquelles les sujets doivent apprendre à discriminer rapidement un signal visuel ou à suivre au plus près le déplacement circulaire d’une cible sur un écran. Les sujets sont soumis à deux conditions expérimentales: 1/ la pratique consistante dans laquelle, par exemple, la même réponse convient toujours au même signal; 2/ la pratique variable (ou inconsistante) dans laquelle le couplage entre signal et réponse varie en cours de tâche. L’expérience montre que lorsque la pratique est consistante, la performance s’améliore sensiblement avec l’exercice alors qu’elle reste de même niveau lorsque la pratique est inconsistante. Ackerman explique l’amélioration de la performance en pratique consistante par l’automatisation du traitement qui entraînerait une réduction du coût attentionnel de la tâche. Quant à la performance en condition inconsistante, elle resterait limitée par la disponibilité en ressources de traitement contrôlé. Par ailleurs, plusieurs recherches différentielles montrent que: 1/ les différences individuelles dans les ressources attentionnelles allouées lors des premières phases d’une situation d’exercice intensif sont en relation avec celles identifiées par les facteurs intellectuels d’un haut niveau de généralité; 2/ la réduction du coût attentionnel de la tâche (en augmentant sa consistance, en diminuant la charge en mémoire, etc.) tend à atténuer fortement l’amplitude de cette relation. L’efficience intellectuelle apparaîtrait ainsi directement associée à la disponibilité en ressources attentionnelles de traitement contrôlé. 1 5/ ****************************************************** fin de l’encadré Une vision assez globale de la relation entre différences de performance aux tâches d’attention et différences de performance aux tests d’intelligence est fournie par une étude récente de Schweizer, Moosbrugger et Goldhammer (2005) qui administrent à 197 participants une quinzaine de tâches expérimentales et de tests papier-crayon mesurant divers types d’attention (soutenue, sélective, divisée, etc.) ainsi que 2 épreuves d’intelligence fluide (Gf). Les auteurs adoptent une démarche de modélisation structurale (cf. chapitre 2) qui consiste à mesurer avec un modèle d’analyse en facteurs communs les variables latentes (VL) « attention » et « intelligence ». Des techniques statistiques permettent de choisir parmi différents modèles de mesure de l’attention celui qui reproduit le mieux les corrélations observées entre les mesures effectuées. Le modèle retenu comporte deux VL « attention » et une VL « intelligence ». La première VL d’attention correspond au traitement perceptif ; elle est mesurée principalement par des tâches d’alerte, d’attention spatiale et d’attention sélective. La seconde VL d’attention correspond au traitement de niveau supérieur et au contrôle exécutif ; elle est mesurée par des tâches d’interférence, d’attention divisée ou d’attention soutenue. Bien que distinctes, ces deux VL sont très corrélées (environ 0,80) ce qui signifie que les mêmes ressources -ou des ressources fortement reliées- sont allouées à l’une et l’autre de ces deux étapes de traitement. La part de variance commune à ces deux VL « attention » permet enfin de prédire un tiers environ de la variance de la VL intelligence. Ainsi opérationnalisées, les ressources de traitement renvoient à une dimension de contrôle de l’attention qui contribuerait de manière plus ou moins spécifique aux différences de performance aux tests. 2. Différences individuelles dans la capacité de la mémoire de travail En 1974, Baddeley et Hitch font appel au concept de mémoire de travail (MT) pour replacer les processus cognitifs impliqués dans le maintien temporaire de l’information dans le contexte de mécanismes cognitifs plus généraux (cf. Grand Amphi Psychologie Cognitive, chapitre 5). Ils proposent de dissocier la structure de la MT en un exécutif central et deux sous-systèmes asservis, la boucle phonologique (registre phonologique de stockage passif et mécanisme d’autorépétition articulatoire) et le calepin visuo-spatial (formation, maintien et manipulation de l’information sous forme imagée). L’exécutif central est conçu comme un système attentionnel aux ressources limitées qui contrôle, supervise et coordonne les fonctions de maintien actif et de traitement de l’information. La capacité de la MT est définie opérationnellement par la quantité maximale d’unités d’information que le sujet est capable de maintenir en un état actif lors d’un traitement concurrent. Par exemple, dans peut-être la forme la plus courante de tâche de MT, les sujets doivent lire à haute voix des listes de 2 à 6 phrases tout en mémorisant le dernier mot de chaque phrase. La capacité de la MT mesurée par cette tâche dite d’empan de lecture (Daneman et Carpenter, 1980) est le nombre de mots parfaitement rappelés (généralement entre 2 et 5 chez des sujets tout-venant). De nombreuses épreuves ont été construites pour mesurer la capacité de la MT et il est difficile aujourd’hui de dire précisément ce qu’est un « bon » indicateur de la capacité de la MT. Trois grandes fonctions au moins paraissent pouvoir être distinguées : a) le maintien temporaire d’une information brièvement présentée en contexte de traitement concurrent ; b) la coordination définie comme la formation de nouvelles relations et structures (avec ou sans contraintes mnésiques, avec ou sans manipulation de l’information) ; c) la supervision définie comme le contrôle dans des conditions d’interférence et de compétition des processus cognitifs guidés par les buts poursuivis (Oberauer, Süβ, Wilhelm et Wittmann, 2003). Malgré le caractère pluriel du concept de capacité de la MT et la diversité des taches employées, les résultats des investigations menées maintenant depuis plus de 25 ans permettent de penser qu’une relation assez étroite existe entre la capacité de la MT et les différences de performance aux tests d’intelligence, notamment à ceux qui mesurent la composante fluide de l’efficience intellectuelle. Daneman et Carpenter (1980) ont été les premiers à signaler que la capacité de la MT mesurée par la tâche d’empan de lecture était un bon prédicteur du niveau de compréhension du langage et de vocabulaire (de l’ordre de 0,40) (cf. documents 4C1,2). De nombreuses études ont observé depuis une relation significative entre la capacité de la MT et Gf mesurée le plus souvent par le test des Matrices Progressives de Raven. L’amplitude de cette relation reste cependant débattue. Quelques auteurs pensent que la capacité de la MT peut être assimilée au facteur g de Spearman en raison de la corrélation parfois très élevée observée au niveau latent entre la capacité de la MT et Gf (entre 0,85 et 0,95) mais ce point de vue est minoritaire. On admet 1 6/ généralement que la capacité de la MT et Gf sont des constructions différentes ayant un pourcentage relativement important de variance en commun. Ackerman, Beier et Boyle (2005) qui ont récemment analysé les résultats d’une soixantaine de recherches consacrées à cette question estiment que le pourcentage de variance commune à ces deux constructions est de l’ordre de 25% mais d’autres recherches le situent entre 50% et 75%. Ces résultats permettent donc d’affirmer sans équivoque que la capacité de la MT déduite des modèles de la cognition humaine est un bon prédicteur, sinon le meilleur, de la performance aux tests d’intelligence fluide. Carpenter, Just et Shell (1990) ont proposé que la capacité à maintenir active de l’information (par exemple, des résultats partiels devant être appliqués ultérieurement) tout en manipulant temporairement une autre information était particulièrement critique dans la relation entre l’empan de lecture et la performance aux Matrices Progressives de Raven. L’efficacité de la seule composante de traitement de la MT (par exemple, la disponibilité de stratégies spécifiques et d’heuristiques de traitement) jouerait donc un rôle moindre qu’on l’a longtemps pensé. Les études structurales conduites par Engle, Tuholski, Laughlin et Conway (1999) ont aussi démontré que lorsque des tâches de MT, de mémoire à court terme (MCT) et des tests d’intelligence fluide sont administrés à un même ensemble de sujets, la capacité de la MT permet de prédire Gf indépendamment de la MCT (de 25 à 35% de variance commune) alors que la variance commune à la capacité de la MT et à la MCT (la composante de stockage) ne permet de prédire que 10% de la variance de Gf . Ni les différences d’efficacité de traitement (qui contraignent la capacité de la MT), ni celles de capacité de stockage (qui contraignent aussi la capacité de la MT) ne paraissent donc pouvoir expliquer à elles seules la relation observée entre la capacité de la MT et Gf. Une explication compatible avec les observations effectuées repose sur le rôle du contrôle exécutif exercé par la MT, rôle qui émergerait de la nécessité de maintenir active de l’information en contexte de traitement. C’est l’hypothèse que testent chez de jeunes adultes Friedman, Miyake, Corley et al. (2006) dans une étude sur les relations entre les fonctions exécutives d’inhibition des réponses dominantes, de mise à jour des contenus de la MT et de commutation attentionnelle entre opérations mentales d’une part, les composantes fluide (Gf) et cristallisée (Gc) de l’intelligence d’autre part. Ils observent que la fonction de mise à jour partage 50% de variance avec Gf ainsi qu’avec Gc et en attribuent la responsabilité à l’efficacité des mécanismes d’attention contrôlée responsables de l’activation des représentations pertinentes, de leur maintien actif face à la distraction et de l’inhibition de l’information non pertinente au regard des buts poursuivis. Dans le même temps, la performance à certains tests de raisonnement (par exemple, verbal) semble être plus reliée à la capacité de la MT lorsqu’elle mesurée par des tâches de MT portant sur des contenus de même nature (par exemple, verbal) plutôt que sur des contenus de nature différente (par exemple, spatial). L’interaction entre des mécanismes généraux d’attention contrôlée et la nature de l’information traitée (spatiale vs verbale ou numérique) pourrait ainsi expliquer pourquoi la MT ne semble être ni entièrement unitaire, ni entièrement séparable en sous-systèmes spécialisés (cf. documents 4C1,3). L’hypothèse générale émise par Engle et Kane (2004) associe également la capacité d’attention contrôlée aux aspects exécutifs de la MT. Les résultats en faveur de cette hypothèse proviennent notamment d’études quasi-expérimentales dans lesquelles la performance à diverses tâches d’attention est comparée chez des sujets à forte et à faible capacité de la MT. Il a pu ainsi être montré que les sujets de faible capacité de la MT étaient plus sensibles à l’interférence (par exemple, dénommer la couleur du mot « jaune » écrit en rouge) ou plus en difficulté pour inhiber des réponses réflexes visuelles (par exemple, orienter l’œil dans la direction opposée à celle où apparaît un avertisseur périphérique) que les sujets à forte capacité de la MT. Signalons que ces observations peuvent être aussi interprétées en termes de capacité à limiter la quantité d’information en MT en rafraîchissant les contenus de la MT ou en supprimant l’information activée non pertinente. D’autres modèles de la MT, contrairement à celui de Baddeley, conçoivent d’ailleurs la MT comme une portion activée de la mémoire à long terme, comme une sorte de champ associatif dans lequel se diffuserait une activation (Grand Amphi, Psychologie Cognitive, p. 290). La capacité de la MT y est alors synonyme de limites d’activation qui réfléchissent de multiples demandes en ressources attentionnelles (contrôle, focalisation) provoqués par exemple par le partage entre le maintien temporaire de l’information et le traitement concurrent, le rafraîchissement de la trace mnésique face à la distraction, l’établissement et le maintien temporaire de couplages entre éléments ou la suppression de l’activation de l’information non pertinente. 1 7/ La capacité de la MT serait donc un bon prédicteur de la performance aux tests d’intelligence fluide parce qu’elle réfléchit des différences individuelles dans la capacité à fournir l’effort cognitif nécessaire au maintien de l’information dans un état actif ou facilement accessible dans des contextes riches en interférences. Les différences individuelles liées aux mécanismes qui sous-tendent l’engagement dans la tâche (par exemple, l’attention contrôlée) pourraient être aussi en partie responsables des différences dans l’apprentissage initial de faits nouveaux et de procédures et dans la manière avec laquelle cette connaissance peut être ensuite à la fois récupérée et intégrée. La capacité de la MT est donc très certainement un facteur explicatif important des différences de performance aux tests d’intelligence (cf. exercice 4C2). Elle n’est pas pour autant « l’explication » de ces différences. Des aspects déclaratifs, procéduraux et conditionnalisés de la connaissance jouent aussi un rôle central dans la performance aux tests notamment à ceux qui mesurent les composantes de l’intelligence liées à la scolarisation et à l’expérience de l’individu. Encadré************************************************************* Capacité de contrôle attentionnel et apprentissage Woltz (1988) administre à plus de 600 adultes une tâche complexe d’apprentissage procédural (apprendre au cours d’un exercice de plus de 700 essais à agir selon certaines règles en appliquant une suite de consignes du type « Si... alors ») ainsi que des tâches de contrôle attentionnel (1) trouver l’ordre de 4 lettres à l’aide de 3 propositions successives décrivant leurs positions respectives; 2) transformer mentalement une série de lettres en appliquant une règle donnée - par exemple, série initiale RDJ; règle –2; réponse PBH - et d’activation automatique de la MT (1) indiquer si deux mots présentés sont synonymes ou pas ; 2) indiquer si le premier mot appartient à la catégorie désignée par le second). Les observations effectuées permettent de penser que les mesures d’attention contrôlée en MT sont des prédicteurs significatifs de la performance à la tâche complexe tout au long de l’apprentissage (de l’ordre de 0,35). Différences individuelles dans la capacité d’attention contrôlée Système de traitement contrôlé comportement guidé par les représentations symboliques et la connaissance culturelle, stratégiquement coordonné avec les buts (spécifiés par la tâche, motivationnels) Modification dynamique du contenu et des propriétés fonctionnelles de la connaissance. ******************************************************Fin de l’encadré 1 8/ D LES DIFFERENCES DANS LES STRATÉGIES 1. La mise en évidence de la diversité interindividuelle des stratégies D’importantes différences entre individus dans les stratégies employées ont pu être identifiées dans de nombreux domaines de la cognition. Les premières observations ont été effectuées par Pask et Scott (1972) à propos de l’apprentissage d’une classification artificielle d’animaux imaginaires. Celles-ci les ont amenés à distinguer deux types d’individus. Les uns dits « holistes » tendraient à rechercher l’information sur plusieurs fronts à la fois pour disposer d’une représentation globale des relations entre éléments d’un même domaine. Les autres dits « analytiques » tendraient au contraire à rechercher pas-à-pas l’information, à apprendre l’une après l’autre chacune des règles de classification. Park et Scott ont en outre constaté que malgré la présence de quelques sujets capables de changer aisément de stratégie, le choix de l’une ou l’autre de ces deux stratégies restait relativement stable au cours des exercices. Cette diversité des stratégies et l’existence de préférences stratégiques relativement stables ont été aussi signalées pour des tâches apparemment très simples (cf. Exercices 4D1,1). Marquer (1995) utilise par exemple une version modifiée du paradigme de Posner chez 28 participants. La méthode d’identification des stratégies repose sur l’analyse des verbalisations des sujets et sur la vérification de la compatibilité du pattern de TR observés avec celui des TR correspondant théoriquement à l’emploi d’une stratégie donnée. L’auteur est amenée à distinguer 4 groupes de sujets qui emploient la même stratégie quel que soit le type de couple de lettres : 5 sujets adoptent une stratégie d’identification physique, huit une stratégie phonétique, 2 une règle d’imagerie visuelle et 2 une stratégie de double codage visuel et phonétique. Dix autres sujets utilisent une stratégie différente selon le type de couple de lettres, un dernier sujet ne pouvant être classé dans aucun groupe. Revus un an plus tard, les deux tiers de sujets appliquent en fin d’expérience la même stratégie que celle identifiée lors de la première expérience. Note marginale ******************************************************* Paradigme de Posner : la tâche consiste à décider le plus vite possible si deux lettres présentées sur un écran d’ordinateur sont identiques ou pas. Les lettres peuvent être strictement identiques (AA, BB, etc.) ou phonétiquement identiques (Aa, Bb, etc.). Selon Posner, le traitement reposerait sur une identification physique dans le cas de lettres strictement identiques et sur une identification du nom dans le cas de lettres phonétiquement identiques. ************************************************ fin de la note marginale L’existence de différences individuelles dans l’utilisation des stratégies a d’importantes implications sur la compréhension de l’intelligence mesurée par des tests stratégiquement « impurs ». Nous avons brièvement évoqué dans la section B la diversité inter-individuelle des stratégies à laquelle s’est heurtée l’analyse composantielle de l’activité cognitive. Lohman et Kyllonen (1983) utilisent par exemple une tâche visuo-spatiale conçue à partir d’un test de visualisation spatiale. Le modèle cognitif sous-jacent fait l’hypothèse de diverses opérations mentales (mémorisation, synthèse, rotation, comparaison). Le niveau de complexité des items s’étend de la simple comparaison perceptive de polygones à la synthèse d’images non contiguës après rotation. La diversité des stratégies de traitement mises en jeu est frappante. 1 9/ Encadré************************************************************* Diversité des stratégies de traitement d’une information visuo-spatiale cible test mémorisation rotation synthèse Lors de l’étape de synthèse par exemple, certains sujets font la synthèse des deux formes avant de la mémoriser, d’autres mémorisent les éléments séparés, d’autres procèdent de l’une ou l’autre façon selon le niveau de complexité des items. Un résultat comparable est observé lors de l’étape de comparaison. Certains sujets comparent l’ensemble de la représentation formée à la figure-test, d’autres comparent élément par élément, d’autres enfin procèdent de l’une ou l’autre manière. Lohman et Kyllonen observent aussi que l’emploi de certaines procédures, apparemment lié au niveau de performance à des tests spatiaux, conduit à une performance plus rapide et à un meilleur niveau de précision (cf. exercices 4D1,3). ****************************************************** fin de l’encadré La signification des scores aux tests, même relativement simples, est donc ambiguë. Par exemple, un individu peu compétent dans le domaine visuo-spatial peut l’être parce qu’il applique correctement une stratégie peu efficace ou parce qu’il applique mal une stratégie adaptée. Un même test peut ainsi mesurer des aptitudes différentes selon la manière avec laquelle il a été résolu. On comprend alors l’intérêt de tests cognitifs informatisés permettant un diagnostic automatique des stratégies de traitement de l’information. C’est le cas par exemple du logiciel « Samuel » développé par Rozencwajg, Corroyer et Altman (2002). La tâche, inspirée du test des cubes de Kohs, un test d’intelligence non-verbale, consiste à reproduire un modèle à l’aide de carrés rouges, blancs ou bicolores. La méthode employée permet d’inférer les stratégies employées à partir d’indices comportementaux comme la fréquence des regards vers le modèle ou l’ordre de placement des carrés par groupements formant une figure géométrique simple (ou gestalt). Trois stratégies peuvent ainsi être identifiées : globale (ajustement par essais et erreurs), analytique (découpage du modèle en carrés puis reconstruction pas à pas) et synthétique (placement des carrés suivant des gestalts invariantes à travers les modèles), cette dernière étant plus fréquemment employée chez les sujets plus performants. Des approches diagnostiques de ce type offrent l’avantage de dépasser le constat habituel d’un niveau de performance pour une compréhension plus qualitative du fonctionnement cognitif du sujet. L’identification des stratégies de traitement mises en œuvre lors de la résolution de tests d’intelligence éclaire aussi sous un autre jour les différences quantitatives de performance. Vigneau, Caissie et Bors (2006) analysent les mouvements oculaires de 55 sujets lors de la résolution des Progressive Matrices de Raven (cf. chapitre 3), un test d’intelligence générale dans lequel il faut choisir la bonne réponse parmi plusieurs distracteurs. Les observations effectuées témoignent d’une certaine relation entre stratégies de traitement employées et niveau de performance au test. Ainsi, les sujets qui utilisent préférentiellement une stratégie d’identification « par défaut » de la réponse en éliminant celles qui leur paraissent mauvaises (temps important consacré à l’examen des propositions de réponse) tendent à être moins performants au test que ceux qui font appel à une stratégie de construction de la réponse (temps important consacré à l’encodage de la matrice). Par ailleurs, les sujets semblent poursuivre des objectifs différents lors de l’inspection de la matrice. Certains, plus performants au test, se focalisent sur une case de la matrice alors que d’autres, moins performants, étendent le traitement à des cases adjacentes. Ce type de résultat pourrait signifier que les individus cherchent à utiliser au mieux leurs ressources de traitement en choisissant les stratégies les plus en appropriées à leur niveau d’aptitude. Pour autant, ce choix s’effectue aussi vraisemblablement sur la base de la disponibilité stratégique, fonction de l’expérience antérieure et des compétences acquises. 2. Les changements intra-individuels de stratégie en cours de tâche La stabilité des préférences stratégiques individuelles n’est que relative. Celle-ci 2 0/ s’accompagne en effet de variations autour d’une tendance moyenne, ce qui rend difficile de caractériser un individu par l’emploi d’une stratégie identique pour chaque item. L’existence chez un même sujet de changements de stratégie en cours de tâche a été démontrée très tôt dans le cadre de l’analyse composantielle. Kyllonen, Lohman et Woltz (1984) testent deux types de modèles pour chaque étape de traitement (encodage, synthèse et comparaison) lors de la résolution des items de la tâche visuo-spatiale décrite dans l’encadré précédent : des modèles à stratégie unique d’une part, des modèles à changement de stratégie d’autre part. Ils constatent que les modèles à changement de stratégie présentent un ajustement très supérieur à celui des modèles à stratégie unique. Ces changements de stratégie paraissent plus précisément provoqués par des changements dans les caractéristiques pertinentes des items, par exemple lors du passage d’un item facile à un item plus difficile (cf. exercices 4D1,2). Lohman et Kyllonen ont ainsi établi qu’en comparaison aux sujets spatialement les moins aptes, les sujets les plus aptes tendaient à plus employer des stratégies réduisant la composante visuelle des items les plus difficiles afin d’en diminuer le coût de traitement. Les changements de stratégie accompagnent souvent l’apprentissage. Glück et ses collègues (2002) entraînent un groupe de sujets à effectuer la rotation mentale d’objets bi-dimensionnels de complexité croissante. L’identification des stratégies individuelles a lieu avant (pré-test) et après l’entraînement (post-test). Elle est effectuée au moyen d’un test de rotation de cubes dont les items sont conçus de façon à pouvoir distinguer l’emploi d’une stratégie d’« appariement sur identité de pattern » de celle d’une stratégie « authentiquement spatiale ». L’évolution des choix stratégiques des sujets entraînés est comparée à celle de sujets n’ayant pas bénéficié de cet entraînement (groupe contrôle). Les auteurs font état de changements qualitatifs chez deux tiers environ des sujets entraînés mais pas chez les sujets du groupe contrôle. Ces changements se traduisent par l’abandon d’une stratégie d’appariement au profit d’une stratégie spatiale. Ils sont majoritairement observés chez les sujets ayant le meilleur niveau initial de performance au test de rotation de cubes. D’autres études montrent aussi qu’il est possible d’entraîner des individus à utiliser plus efficacement certaines stratégies de traitement de l’information (cf. documents 4D2). Certains de ces changements intra-individuels de stratégie en cours de tâche témoigneraient de la capacité variable selon les individus à s’adapter aux changements liés à la tâche. Pour Schunn et Reder (2001) qui parlent à ce sujet d’adaptabilité stratégique, les sujets pourraient disposer du même répertoire de stratégies mais différer dans leur capacité à sélectionner la « meilleure » stratégie pour une situation donnée et plus particulièrement dans leur capacité à détecter et à utiliser le taux de réussite des stratégies employées. Schunn et Reder testent cette hypothèse à partir d’observations recueillies dans une situation complexe qui simule des aspects dynamiques du contrôle du trafic aérien. Leurs résultats montrent que les individus diffèrent en termes de présence/absence, niveau et vitesse de l’adaptabilité stratégique en fonction du taux de réussite antérieur sans que ces différences ne puissent être attribuées à une connaissance différentielle de la tâche. Selon les auteurs, les différences d’efficacité des processus de sélection stratégique proviendraient de différences dans la vitesse de traitement de l’information, la capacité de la mémoire de travail et la capacité de raisonnement inductif. Les observations précédentes sont à rapprocher de celles, plus anciennes, de Kyllonen et de ses collaborateurs (1984) qui faisaient la preuve d’une meilleure adaptation intratâche des choix stratégiques chez les sujets de haut niveau d’aptitude générale. Note marginale ******************************************************* Adaptabilité stratégique : capacité de l’individu à sélectionner la stratégie la mieux adaptée au problème et qui lui convient le mieux. L’adaptabilité stratégique dépendrait de facteurs comme la capacité à s’adapter à de nouvelles consignes, la capacité à changer de représentation, l’évaluation du taux antérieur de réussite de la stratégie, etc. ************************************************ fin de la note marginale L’importance de la capacité à changer de stratégie, de la « flexibilité » cognitive, a été également soulignée par Richard (1993) à propos du test du Passalong analysé comme une situation de résolution de problème. Cette importance est liée au fait que la reconnaissance de l'analogie entre problèmes dont dépend la résolution des items difficiles nécessite un changement d'interprétation lorsque celle adoptée jusqu’alors n’est plus adéquate. Confronté à une impasse c’est-à-dire un point où les stratégies employées jusqu’alors ne sont plus adaptées, le sujet doit envisager un changement, par exemple un détour ou une réorientation. Ce changement nécessite que le sujet 2 1/ reste attentif aux propriétés pertinentes de la situation alors même que la résolution successive de problèmes semblables contribue à la mise en œuvre de routines qui constituent un obstacle à la prise en compte des propriétés pertinentes de la situation. La flexibilité cognitive est donc un aspect central, en lien sans doute avec le système de contrôle cognitif, des différences individuelles dans les situations de tests d'intelligence. Note marginale ******************************************************* Le test du Passalong : Il est constitué de neuf items de difficulté croissante. Le matériel est constitué de pièces bleues (situées en haut du cadre) et rouges (situées en bas du cadre). Le but consiste à descendre les pièces bleues et à remonter les pièces rouges en un nombre minimum de coups. ************************************************ fin de la note marginale L’étude de la flexibilité stratégique présente donc un très grand intérêt d’un point de vue théorique. Mais comme précédemment quand il était postulé que les individus différaient dans la vitesse d’exécution de processus fondamentaux ou que tous les items d’une même tâche étaient résolus avec une même procédure, il serait erroné de penser que les sujets peuvent être caractérisés par le seul emploi d’une stratégie donnée ou par une manière définie de changer de stratégie. Si un niveau élevé de performance aux tests implique une certaine capacité de flexibilité stratégique, nombreuses sont les situations où les sujets les plus aptes ne changent que très peu de stratégie, ce qui suggère l’existence d’une interaction entre les connaissances et les processus de sélection des stratégies. 2 2/ E LES DIFFÉRENCES LIEES AUX CONNAISSANCES Comme les premières théories de la cognition humaine, les recherches sur les bases cognitives de l’intelligence mesurée par les tests ont été principalement guidées par une conception du fonctionnement intellectuel mettant l’accent sur les processus plutôt que sur le contenu symbolique sur lequel ils opèrent ou sur la finalité de leur mise en œuvre par l’organisme. L’usage a donc été d’employer des tâches supposées faire aussi peu appel que possible à des connaissances spécifiques. Or même dans ce cas, la connaissance nécessaire à la résolution de ces tâches est moins triviale qu’il n’y paraît. Comment par exemple expliquer qu’on juge en moyenne plus rapidement l’affirmation « 103 est à peu près égal à 100 » que celle « 100 est à peu près égal à 103 » sans faire référence à l’organisation des connaissances et des savoir-faire accumulés au cours des expériences dans le domaine de la numération par les individus? Les variations dans l’organisation de l’arrière-plan de connaissances de l’individu, dans ce que celui-ci (re)connaît de la situation particulière à laquelle il est confronté, dans ce qu’il sait des procédures permettant d’atteindre les buts fixés et de leur efficacité, jouent donc un rôle important dans les différences de performance observées aux tests d’intelligence. Mais malgré les nombreux travaux à ce sujet, l’articulation très complexe entre connaissance, processus et ressources dans la détermination de la performance aux tests reste aujourd’hui encore mal comprise. 1. Que nous apprend l’analyse de l’expertise cognitive ? Les individus très compétents dans un domaine spécifique de connaissance et de savoir-faire (les experts) sont par définition les plus aptes à résoudre les problèmes de ce domaine. Il est donc intéressant d’analyser l’expertise de ces individus placés dans des situations de raisonnement et de résolution de problème portant sur des domaines riches en connaissances spécifiques (par exemple, les sciences physiques, l’architecture, l’interprétation de clichés radiographiques, les échecs, etc.) afin d’identifier ce qui les différencie de manière critique des individus n’ayant pas d’expérience du domaine (les novices). Les conceptualisations de la connaissance varient bien sûr selon les approches. Certains auteurs font appel à la notion de schéma ou représentation d’une catégorie générale de choses, situations ou phénomènes (par exemple, la notion de voiture). D’autres s’appuient sur l’idée de modèle mental ou « analogue structural du monde » qui réfléchirait la connaissance, l’expérience et les buts de l’individu. Une conceptualisation assez partagée est celle de réseaux de propositions représentant la connaissance déclarative et la connaissance procédurale et dans lesquels l’activation se propagerait. Quelle que soit la conception théorique adoptée, les résultats de l’analyse des performances des experts en comparaison à celle des novices témoignent de l’importance des différences liées à la structure conceptuelle de la connaissance. Note marginale******************************************************* Connaissance déclarative : reconnaissance et compréhension de l’information factuelle sur les objets, idées, événements, etc. (par exemple, le soleil se lève à l’est; 2+2=4; si la voiture freine, elle s’arrête) Connaissance procédurale : savoir-faire ou stratégies pouvant être activés rapidement et sans effort (par exemple, ouvrir une porte fermée à clé, se brosser les dents). 2 3/ ************************************************Fin de la note marginale Encadré************************************************************* La structure de la connaissance : c’est l’organisation de la représentation mentale de la connaissance (cf. Grand Amphi, Psychologie Cognitive: chapitre 5). La structure de la connaissance est déterminée en partie par l’étendue de la connaissance disponible et peut être définie en termes de cohérence et de degré de hiérarchisation de la connaissance. La cohérence de la structure dépend du niveau d’intégration de la connaissance, à la fois d’un point de vue local (relations entre concepts voisins) et d’un point de vue global (relations entre sous-structures hiérarchisées). L’organisation de la connaissance déclarative et procédurale conditionnerait la rapidité d’accès à la connaissance et en déterminerait la bonne utilisation. ******************************************************Fin de l’encadré On a ainsi pu remarquer dans une des premières études sur l’expertise cognitive qu’un même stimulus pouvait être perçu et compris différemment selon le niveau d’expertise. Par exemple, les bons joueurs d’échecs mémorisent mieux que les novices l’emplacement des différentes pièces sur des configurations réelles. Mais la comparaison entre ces deux catégories d’individus ne dégage pratiquement pas de supériorité mnésique des experts lorsque les configurations de pièces sont aléatoires. La meilleure mémorisation des experts tiendrait donc plus à une meilleure connaissance des configurations signifiantes leur permettant d’en réaliser les implications stratégiques (par exemple, le déplacement d’une pièce vers un endroit précis) qu’à l’efficacité de processus généraux de mémorisation de l’information. Cette capacité propre à l’expert de développer dans son domaine d’expertise une sensibilité à des patterns d’information signifiante a été retrouvée dans de nombreux autres domaines. Elle impliquerait le développement de structures conceptuelles organisées guidant la manière de représenter et de comprendre les problèmes. D’importantes différences dans la manière avec laquelle la connaissance est organisée chez les experts et les novices ont en effet été relevées dans plusieurs domaines (cf. documents 4E1,1). En physique ou en histoire par exemple, les novices travaillent sur la base d’unités d’analyse assez superficielles et n’ont qu’une connaissance partielle des conditions d’application des principes et des règles identifiés. La représentation qu’élaborent les experts du problème n’est pas simplement une liste de faits mais s’appuie prioritairement sur des principes plus abstraits, non immédiatement identifiables. On demande par exemple à des étudiants en début et en fin de formation de trier des problèmes de physique en fonction de leur ressemblance. Le niveau d’expertise détermine la manière de définir les problèmes. Chez les novices, l’organisation des problèmes est basée sur des traits de surface (par exemple, la chute d’un objet). Chez les experts au contraire, elle est basée sur des similitudes structurelles et des principes abstraits (par exemple, les principes de physique nécessaires pour résoudre les problèmes). Ces observations attestent que la connaissance des experts est effective et conditionnalisée en ce sens que les éléments de connaissance sont étroitement liés à des procédures et à leurs conditions d’application. Cela explique sans doute pourquoi l’expertise est aussi caractérisée par une récupération automatique et fluide de la connaissance devant être mobilisée dans une tâche donnée. On comprend aussi l’avantage d’une connaissance hautement organisée et facilement disponible du point de vue des possibilités d’allocation à d’autres aspects de l’activité cognitive des ressources de traitement rendues ainsi disponibles. Des différences entre individus attribuées à l’efficacité de certains processus ou aux ressources de traitement pourraient donc être liées à des différences dans l’organisation et la disponibilité des connaissances spécifiques au domaine où se manifestent ces différences. Note marginale******************************************************* Connaissance conditionnalisée : connaissance incluant une spécification des contextes dans lesquels elle est utile (par exemple, les conditions temporelles et locales d’utilisation des procédures). **************************************************Fin de note marginale Encadré*************************************************************Le mécanisme de procéduralisation de la connaissance : Anderson (1983) a proposé un modèle de l’apprentissage qui accorde une place centrale à ce mécanisme. Dans cette théorie, la connaissance effective et conditionnalisée des procédures ne peut se 2 4/ construire qu’à partir des informations contenues en mémoire permanente. Lors de l’apprentissage de savoir-faire cognitifs nouveaux, l’individu générerait une solution initiale en appliquant, par analogie par exemple, la connaissance dont il dispose. Des représentations mnésiques se développeraient alors progressivement sous forme de composantes de production pour s’enchaîner ensuite les unes aux autres, pour se « procéduraliser ». La procéduralisation automatique de la connaissance créerait donc au cours de l’apprentissage une connaissance nouvelle, spécifique au domaine et contribuerait en conséquence à améliorer la performance dans ce domaine. ******************************************************Fin de l’encadré L’analyse de l’expertise peut aussi aider à mieux comprendre les différences individuelles dans les mécanismes d’acquisition des informations nouvelles qui viennent se cumuler aux connaissances actuelles de l’individu (par exemple, le mécanisme de « procéduralisation » de la connaissance). Les résultats d’études sur le développement de l’expertise mettent aussi en lumière l’existence d’une relation entre l’importance de la pratique délibérée et la qualité des efforts fournis lors de l’apprentissage de connaissances d’une part, le niveau de performance à la tâche d’autre part (Exercices 4E2,1). Il semble aussi qu’avec l’apprentissage certains changements qualitatifs, ici synonymes d’interconnections de plus en plus étroites entre représentations anciennes et plus nouvelles, se produisent à la fois dans la connaissance, dans la structure organisée de cette connaissance et dans les modes d’utilisation de la connaissance. Ce sont de tels changements qualitatifs dans les stratégies cognitives d’enfants apprenant l’addition (par exemple, compter sur ses doigts, dénombrer mentalement, récupérer le résultat en mémoire) qui font penser à Siegler (1996) que les différences dans le degré d’organisation des règles et faits arithmétiques stockés en mémoire à long terme (4+4=8) contribuent à expliquer la diversité inter- et intra-individuelle des procédures de résolution. Il semble donc qu’il y ait un lien entre les différences individuelles dans l’organisation, la disponibilité et l’utilisation de la connaissance, les différences dans les ressources de traitement et les choix stratégiques individuels. 2. Les différences de niveau métacognitif Les tâches les plus révélatrices de différences individuelles dans le fonctionnement cognitif nécessitent généralement de reconnaître le type de problème, de définir les buts, de comparer plusieurs alternatives et d’élaborer le chemin de pensée à suivre, de sélectionner les procédures de résolution, de gérer l’allocation des ressources, de contrôler l’activité cognitive et d’en modifier éventuellement le cours en fonction des informations reçues en retour. Ces différences s’expriment dans des processus exécutifs ou métacognitifs dont on pense qu’ils sont généralisés au fur et à mesure qu’ils sont appliqués à une variété croissante de domaines de connaissances (cf. documents 4E1,2). Note marginale******************************************************* Les processus exécutifs sont des processus de haut niveau impliqués dans la planification, la surveillance, le contrôle et la régulation de l’activité cognitive. ************************************************Fin de la note marginale Encadré*************************************************************Qu’e st-ce que la métacognition? « La métacognition fait référence à la connaissance que nous avons de nos propres états et processus cognitifs ainsi qu’à leur régulation. Conceptuellement, deux composantes peuvent être distinguées: l’une est la connaissance métacognitive, l’autre est l’expérience métacognitive. La connaissance métacognitive, c’est ce que l’individu connaît de lui-même et des autres en tant qu’individus traitant de l’information. Elle comprend ce que l’on connaît sur les différences entre personnes c’est-à-dire ce que l’on connaît des variations de son propre fonctionnement, des différences de fonctionnement entre soi et les autres, de la cognition en général. Elle comprend également ce que l’on connaît des tâches, des demandes qui y sont liées et des caractéristiques de l’information disponible. Elle comprend enfin ce que l’on connaît des procédures cognitives du point de vue de leur capacité à permettre d’atteindre des buts spécifiques. [...] L’expérience métacognitive, parfois appelée contrôle métacognitif et stratégies d’auto-régulation, fait référence aux expériences cognitives et affectives de l’individu. Cette expérience métacognitive inclut les activités mentales impliquées par exemple dans la régulation de l’apprentissage. C’est le cas des activités de planification (par exemple, définir les buts à atteindre, survoler un texte ou se poser quelques questions avant de le lire) qui peuvent faciliter l’activation de la connaissance, l’organisation et la compréhension du matériel à apprendre ou de celles permettant 2 5/ la surveillance du bon déroulement de l’activité mentale (par exemple, focaliser son attention sur un point précis, s’auto-évaluer en cours d’apprentissage). C’est aussi le cas des processus d’évaluation du produit de l’activité cognitive (par exemple, l’évaluation de l’efficacité des procédures employées). L’expérience métacognitive inclut également les jugements sur la qualité de l’apprentissage ou le niveau de confiance de l’individu. Ces expériences métacognitives, par exemple ce que l’on apprend lors de la régulation de l’apprentissage, peuvent modifier et enrichir la connaissance métacognitive. » Extrait et traduit de Corkill (1996). ******************************************************Fini de l’encadré On se souvient par exemple que Sternberg a montré que les individus les plus aptes à des tâches de raisonnement analogique consacraient proportionnellement plus de temps à l’étape d’encodage que ne le faisaient les moins aptes. On a également pu remarquer que par rapport aux mauvais lecteurs, les bons lecteurs répartissent mieux leur temps de lecture en fonction de la difficulté et du contenu des différents passages du texte qu’ils ont à lire. Ici, l’aspect critique concerne l’encodage de l’information pertinente en fonction de la manière dont l’activité cognitive est planifiée. Les caractéristiques et les exigences de la tâche semblent aussi être mieux comprises par les individus les plus efficients, ce qui pourrait entraîner une utilisation de stratégies de résolution ou d’acquisition plus appropriées ainsi qu’une allocation mieux adaptée des ressources disponibles. Par exemple, Borkowski et ses collègues comparent les performances d’enfants de 7 ans doués et normaux (en fonction de leurs résultats à une batterie d’épreuves psychométriques) à une tâche non familière d’apprentissage de couples de lettres associées. Ils constatent qu’au début de l’expérience, la performance est sensiblement la même pour tous les enfants, aucun d’entre eux ne semblant disposer des connaissances spécifiques appropriées à la tâche. Ils remarquent aussi que tous les enfants peuvent profiter d’un entraînement à l’utilisation d’une stratégie spécifique permettant d’améliorer la performance. Mais ils observent surtout qu’à entraînement égal, les enfants doués transfèrent plus facilement que les autres la stratégie apprise à une situation différente pouvant être résolue avec la même stratégie. Cette supériorité des enfants doués dans la généralisation stratégique pourrait s’expliquer par une plus grande efficacité des processus exécutifs qui permettrait de penser de manière analogique des domaines nouveaux en s’appuyant sur des domaines familiers de connaissance. Encadré************************************************************* Différences individuelles dans la planification de l’activité cognitive. On demande à des enfants de dernière année de primaire (efficients vs peu efficients) de mémoriser des informations textuelles concernant deux robots hypothétiques aux fonctions différentes. Le premier texte décrit les caractéristiques structurelles des deux robots. Plus élaboré, le second texte précise les liens entre les caractéristiques structurelles et les fonctions des robots. On constate que les élèves moins efficients se rappellent mieux les caractéristiques des robots dans la seconde condition. Ce n’est pas le cas pour les élèves plus efficients, comme s’ils fournissaient spontanément l’effort de relier les caractéristiques structurelles aux fonctions des robots lorsque cette information n’est pas fournie. On demande également aux enfants d’évaluer la difficulté de chacun des textes. Pour les enfants efficients, c’est le texte 1 qui jugé le plus difficile; ils y consacrent d’ailleurs plus de temps. Ce résultat est en accord avec l’hypothèse que les élèves plus efficients cherchent à relier l’information lue à d’autres éléments du texte. A l’inverse, les élèves moins efficients consacrent plus de temps au texte 2, comme s’ils relisaient le texte pour l’apprendre. Extrait et traduit de Borkowski et Muthukrishna (1992). ******************************************************Fin de l’encadré Un aspect critique du fonctionnement exécutif semble être aussi lié au contrôle, à la surveillance de la démarche cognitive et à la capacité à maintenir activés les buts et sous-buts à atteindre pour résoudre une tâche complexe ou lors d’un comportement nouveau. Les résultats de plusieurs études ayant analysé les erreurs commises par des enfants ou des adultes lors de la résolution des Progressive Matrices de Raven montrent ainsi que dans leur très grande majorité, celles-ci sont essentiellement dues à l’oubli d’une règle au cours de la résolution de l’item. De plus, les individus les moins aptes tendraient plus facilement que les autres à oublier les règles les plus complexes. Les différences dans l’efficacité des stratégies de surveillance ellesmêmes ou dans la connaissance qu’ont les individus de ces stratégies pourraient 2 6/ expliquer de tels résultats. Encadré************************************************************* Un modèle de l’interaction entre processus exécutifs et connaissances métacognitives. Les premiers travaux sur le fonctionnement métacognitif se sont focalisés sur la connaissance dont dispose l’individu à propos de stratégies spécifiques (par exemple, savoir quand et comment mettre en œuvre une stratégie donnée, savoir quels avantages sont liés à son utilisation, etc.). Mais des facteurs personnels et motivationnels (par exemple, les buts d’apprentissage, les croyances d’attribution, etc.) alimenteraient les processus de contrôle exécutif nécessaires à la sélection des stratégies, à leur application et à la surveillance de l’activité cognitive. connaissances stratégiques spécifiques processus exécutifs tâche application de la stratégie performance croyances d'attribution, motivation d'accomplissement, etc. Le fonctionnement exécutif émerge des activités d’apprentissage associées à des activités cognitives de bas-niveau pour être plus tard associé à des états motivationnels positifs (cf. figure). Le déroulement peut être décrit comme suit. L’enfant apprend d’abord à utiliser une stratégie spécifique puis avec la répétition, acquiert des connaissances à son sujet. Ces connaissances concernent l’efficacité de la stratégie, son champ d’application, la manière de l’utiliser correctement dans diverses tâches. [...] L’enfant apprend ensuite d’autres stratégies et les applique à différents contextes. Le domaine des connaissances liées à ces stratégies s’élargit et s’enrichit. L’enfant vient alors à comprendre quand, où et comment chaque stratégie peut être appliquée : il apprend aussi à différencier les mérites respectifs de chaque type de stratégie. Graduellement se développe la capacité à sélectionner les stratégies adaptées à une catégorie de tâches données ainsi que celle à superviser et contrôler leur bonne mise en œuvre. Les processus exécutifs ou processus de contrôle de niveau supérieur émergent alors ; le comportement s’auto-régule de plus en plus. La fonction initiale de ces processus exécutifs (analyse de la tâche, sélection de la stratégie la plus adaptée) évolue vers une fonction de supervision et d’évaluation de l’activité. Au fur et à mesure que ces processus exécutifs et stratégiques s’affinent, différentes formes de connaissance se développent (par exemple, des croyances d’attribution causale, des buts d’apprentissage, etc.). D’après Borkowski (1996). ******************************************************Fin de l’encadré Note marginale******************************************************* Croyances d’attribution : On explique généralement ce qui nous arrive ou la conduite d’autrui en l’attribuant à des causes. Ces croyances d’attribution causale peuvent être par exemple internes (« ce qui m’arrive dépend de mes efforts, de mes aptitudes ») ou externes (« je n’y suis pas arrivé parce que je n’ai pas eu de chance »). Les différences dans les croyances d’attribution peuvent ainsi conduire à des différences dans l’intérêt à l’égard d’une tâche, l’effort qui y est alloué, etc. Buts d’apprentissage : On peut souhaiter apprendre pour soi et pour atteindre un certain niveau de compétence; on peut aussi le souhaiter pour obtenir un diplôme ou par crainte d’un échec. Selon les buts d’apprentissage, les stratégies développées par les uns ou les autres peuvent différer. ************************************************Fin de la note marginale Il est pour l’instant difficile de fournir une explication satisfaisante du rôle sur 2 7/ l’efficience intellectuelle des différences individuelles dans les processus exécutifs et dans les connaissances avec lesquelles ils interagissent (cf. Exercices 4E2,2). L’idée importante est celle d’interaction: elle signifie que la mise en œuvre de ces processus contribue à faire évoluer les connaissances - dont leur efficacité dépend vers des connaissances et des savoir-faire de mieux en mieux intégrés, de plus en plus généralisables. Il est vraisemblable que des différences dans par exemple la planification, la connaissance et l’utilisation des stratégies ou le contrôle de l’activité cognitive ((cf. Exercices 4E2,3). naissent de cette interaction permanente au cours d’actes cognitifs spécifiques, répétés sur de longues périodes de temps. Intégrés différemment selon les individus, les produits de cette interaction permanente pourraient donc être à l’origine de certaines des différences de performance observées aux tests d’intelligence. 2 8/ DOCUMENT 4 B 1 – L’analyse des corrélats cognitifs des aptitudes : une illustration 1 - PRÉSENTATION On décrit et commente ici la démarche et les principaux résultats d’une analyse des corrélats cognitifs des aptitudes réalisée par Lansman, Donaldson, Hunt & Yantis (1982). Le plan d’expérience de cette étude est multivarié : la performance à plusieurs tâches « de calibrage » y est mise en relation avec la performance à des tests choisis en référence au modèle des aptitudes de Horn et Cattell (cf. chapitre 3). 2 - PROBLEMATIQUE L’objectif principal de cette recherche de validation est de souligner le caractère étroit de la correspondance existant entre deux grandes distinctions. La première, suggérée par la psychologie différentielle, concerne la différence entre les composantes cristallisée (Gc) et spatiale (Gv) de l’intelligence. La seconde est celle qu’effectue la psychologie expérimentale entre traitement de l’information verbale et traitement de l’information visuo-spatiale. Trois questions sont abordées: - dans quelle mesure différents indicateurs d’un même processus cognitif fournissent-ils des informations de même nature ? - quelles relations théoriques y a-t-il entre des processus différents? - les facteurs mesurés avec des tâches expérimentales sont-ils en relation avec ceux mesurés avec les tests? 3 - PROCEDURE A/ Tests psychométriques Les auteurs utilisent plusieurs indicateurs - ici des tests papier-crayon - pour mesurer chacune des variables latentes (ou facteurs) suivantes: intelligence cristallisée (Gc), intelligence fluide (Gf), visualisation spatiale (Gv) et vitesse perceptive (Vp). Le modèle de mesure appliqué est celui de l’analyse en facteurs communs (cf. chapitre 2). Une brève description des tests administrés est donnée dans le tableau ci-dessous dans lequel on indique quel facteur dit « associé » est supposé être mesuré par l’indicateur. Indicateur Analogies ésotériques Vocabulaire Information générale: Associations verbales Analogies communes Matrices Séries de lettres Figures Cubes Rotation de cartes Dépliage Surfaces développées Puzzle mental Formes identiques Barrage Collationnement Tâche à effectuer analogies entre mots simples mais avec des relations complexes Facteur associé Gc choisir la définition correcte d’un mot donné répondre à une questionnaire de connaissances à choix multiples Gc Gc trouver un mot relié à trois mots donnés Gc analogies entre mots complexes mais avec des relations simples Gf choisir le dessin qui complète logiquement une matrice 2x2 de dessins. déterminer la letttre qui suit logiquement la série présentée déterminer si deux figures sont exactement superposables déterminer si deux images d’un cube sur les faces desquelles apparaissent des informations différentes sont compatibles. indiquer celles qui dans une série de formes planes présentées dans des orientations différentes peuvent être mises en congruence avec une forme cible. après qu’une feuille de papier ait été pliée et percée, choisir la bonne image montrant à quoi ressemble le papier une fois déplié. indiquer si la surface développée correspond à l’objet présenté Gf Gf Gv Gv indiquer les formes plane qui placées de manière contiguë reproduisent le modèle choisir l’image identique au modèle barrer les mots contenant la lettre A déterminer si deux nombres de 7 chiffres sont identiques Gv Vp Vp Vp D’après Lansman, M., & collaborateurs, op. cit. B/ Tâches de calibrage La mesure des paramètres élémentaires du traitement de l’information repose sur trois paradigmes: celui de rotation mentale pour le traitement de l’information Gv Gv Gv 2 9/ spatiale, ceux de comparaison de couples de lettres et de comparaison phrase-dessin pour le traitement de l’information verbale. Chaque processus étudié est mesuré de deux manières différentes: a) une passation « assistée par ordinateur » (AO) permettant une mesure item par item des TR et b) une passation « papier-crayon » (PC) fournissant une mesure plus globale (nombre d’items d’un type donné correctement résolus en un temps donné). Paradigme de rotation mentale Principe : les sujets doivent décider le plus vite possible si des paires d’objets bidimensionnels ou tri-dimensionnels présentés dans une orientation différente (bi: rotation dans le plan; tri: rotation dans un plan parallèle ou en profondeur) correspondent à des objets de même forme ou de formes différentes (symétrique en miroir). La manipulation expérimentale porte sur l’importance de la disparité angulaire entre les deux objets (0°, 30°, 60°, 90°, etc.). Résultat majeur : lorsque les formes présentées sont identiques, on observe en moyenne une augmentation linéaire du TR avec le degré de disparité angulaire entre les objets: plus cette disparité est grande, plus le TR est long. Interprétation : ce résultat est interprété par les auteurs comme témoignant du caractère analogique et séquentiel du processus de rotation mentale. Paramètre individuel de traitement de l’information : la pente de la droite décrivant l’augmentation du TR en fonction de la disparité angulaire mesurerait la “vitesse de rotation mentale” de l’individu. Paradigme de comparaison de lettres Principe : il s’agit de juger si deux lettres apparaissant sous deux conditions correspondant à deux consignes différentes sont identiques ou pas. La première consigne est de juger de l’Identité Perceptive des lettres (condition IP: les couples AA, aa sont identiques; les couples Aa, AB, Ab ne le sont pas). La seconde consigne est de juger de l’identité des lettres du point de vue de leur dénomination ou Identité de Nom (condition IN: les couples AA mais aussi Aa sont identiques). Résultat majeur : Posner a été le premier à mettre en évidence que le TR dans la condition IP est en moyenne moins long que celui observé dans la condition IN (différence moyenne de l’ordre de 70 msec. chez l’adulte). Interprétation : la condition IN étant plus dépendante d’associations linguistiques que ne l’est la condition IP, l’écart IN-IP traduirait la mise en œuvre dans la condition IN par rapport à la condition IP d’un processus de décodage, de transformation de la représentation physique d’une lettre en un code linguistique stocké en mémoire à long terme. Paramètre individuel de traitement de l’information : le paramètre IN-IP mesurerait la vitesse avec laquelle l’individu peut accéder à un code linguistique. Paradigme de comparaison phrase-dessin Principe : les sujets doivent comparer une information présentée sous forme linguistique (« croix est au-dessus de étoile ») à une information imagée (le dessin d’une croix sur ou sous une étoile). La manipulation expérimentale porte sur la nature affirmative ou négative de la phrase et sur la compatibilité entre la phrase et le dessin. Résultat majeur : le TR est fonction du type de couples phrase-dessin, ce temps étant par exemple plus court pour une proposition affirmative-vraie que pour une proposition affirmative fausse. Interprétation : les auteurs adoptent ici l’interprétation selon laquelle les sujets utiliseraient une stratégie linguistique de recodage des phrases négatives en phrases affirmatives mais l’interprétation de cette tâche est considérablement plus complexe que Lansman et ses collègues ne semblent le penser (cf. cours 4D1). D’autres stratégies, par exemple imagées, peuvent en effet être employées par certains sujets (cf. Exercices 4D1). Paramètre individuel de traitement de l’information : le paramètre vitesse de recodage linguistique (moyenne des TR pour les phrases négatives moins moyenne des TR pour les phrases affirmatives) mesurerait l’efficacité du traitement. C/ Sujets et procédure L’ensemble de ces épreuves est administré au cours de dix sessions d’une heure à 91 3 0/ étudiants (45 hommes, 46 femmes) constituant un échantillon représentatif, du point de vue de leur niveau d’aptitude spatiale, de la population des étudiants de 1re année de l’Université de Washington. Les consignes, l’ordre de passation des épreuves et celui des items dans chaque épreuve sont les mêmes pour tous les sujets. 4 – ANALYSE DES RESULTATS ET DISCUSSION A/ Corrélations entre les indicateurs des quatre aptitudes Les tests psychométriques ayant été sélectionnés en fonction d’hypothèses précises quant à leur association avec chacune des quatre aptitudes, il est nécessaire de vérifier le respect de ces hypothèses sur l’échantillon expérimental. Lansman et ses collègues appliquent l’analyse factorielle confirmatoire aux corrélations entre les tests psychométriques. Le principe de l’analyse factorielle confirmatoire consiste d’abord à spécifier a priori les variables théoriques à partir des variables observées qui en constituent les indicateurs. Des hypothèses concernant l’existence ou non de corrélations entre les variables théoriques peuvent également être faites. Il est ensuite possible d’estimer, pour chaque ensemble d’hypothèses, les différents coefficients (saturations, corrélations entre facteurs) puis d’apprécier au moyen de tests d’ajustement dans quelle mesure le ou les modèles considérés permettent de rendre compte des corrélations observées (cf. chapitre 2). Les auteurs aboutissent à un modèle en facteurs corrélés, très proche des hypothèses de départ (cf. tableau précédent). Les saturations (colonnes Gc, Gf, Gv et Vp), unicités (pourcentage de variance résiduelle) et corrélations entre facteurs apparaissent ci-dessous. Indicateur Gc Analogies ésotériques Vocabulaire Information générale: Associations verbales Analogies communes Matrices Séries de lettres Figures Cubes Rotation de cartes Dépliage Surfaces développées Puzzle mental Formes identiques Barrage Collationnement 0,84 0,73 0,61 0,35 0,23 Gf Gv Vp 0,67 0,68 0,73 0,54 0,79 0,62 0,53 0,29 0,28 0,22 0,35 0,79 0,52 0,62 0,49 0,43 GC Gf Gv Vp 1 0,20 0,19 -0,03 1 0,10 -0,14 1 -0,04 Unicit é 0,30 0,47 0,62 0,83 0,88 0,88 0,38 0,31 0,47 0,35 0,71 0,38 0,62 0,74 0,51 0,76 1 D’après Lansman, M., & collaborateurs., op. cit. Explications – Pour rendre compte de manière satisfaisante des corrélations observées, les auteurs ont dû admettre que certains indicateurs soient saturés dans plusieurs facteurs. C’est par exemple le cas de trois mesures de Gv (Figures, Cubes, Rotation de cartes), qui parce qu’elles sont plus simples que les autres, impliquent plus le facteur Vp. C’est aussi le cas de l’épreuve Barrage qui s’avère être saturée à la fois dans Vp et Gf ou de Associations verbales saturée dans Vp et Gc. On peut remarquer que le meilleur indicateur de Gc est Analogies ésotériques (0,84) ou que celui de Gf, assez mal mesurée dans cette étude, est Séries de lettres (0,79). – Les valeurs apparaissant dans la colonne Unicité sont des variances résiduelles. Elles peuvent être interprétées comme la quantité de variance de chaque indicateur non expliquée par l’ensemble des facteurs. Plus l’unicité d’un indicateur donné est importante, moins le pouvoir explicatif du système de variable latentes est élevé pour cet indicateur. Analogies communes et Matrices dont la variance résiduelle est forte mesurent donc mal les variables théoriques. – Enfin, les valeurs estimées des corrélations entre aptitudes montrent que ces dernières sont bien différenciées sur l’échantillon étudié. Ces corrélations sont dites 3 1/ “désatténuées” car le modèle appliqué en permet l’estimation indépendamment des erreurs de mesure. B/ Corrélations entre les mesures AO et PC des tâches de calibrage Les résultats rapportés par les auteurs mettent en évidence deux points importants: a) Les corrélations entre mesures globales de la performance à une même tâche présentée sous deux formats différents (AO et PC) sont, comme attendu, relativement élevées. Pour la tâche de rotation mentale par exemple, la corrélation entre le TR moyen sur l’ensemble des items (procédure AO) et le nombre d’items résolus (procédure PC) est de –0,63. Les sujets globalement les plus rapides à la tâche informatisée tendent à être aussi les plus précis à l’épreuve papier-crayon. Des résultats semblables sont observés pour les tâches de comparaison de lettres (-0,55) et de comparaison phrase-dessin (-0,73). b) Les corrélations entre estimations théoriques de la vitesse d’un même processus mesuré par les procédures AO et PC sont par contre plus faibles que les précédentes: 0,43 pour la vitesse de rotation mentale (pente), 0,29 pour la vitesse d’accès à un code linguistique (IN-IP), 0,40 pour la vitesse de recodage linguistique (TR_négative - TR_affirmative). Cette convergence relativement faible entre mesures « dérivées » contraint les auteurs à ne pas retenir ces estimations pourtant censées être les plus intéressantes d’un point de vue théorique. La stratégie suivie pour analyser les corrélations entre les diverses mesures globales (TR moyen pour chaque type d’items pour la procédure AO; nombre d’items de chaque type résolus pour la procédure PC) effectuées pour les 3 tâches de calibrage est la même que dans la section précédente. L’application de l’analyse factorielle confirmatoire permet d’aboutir à un modèle à trois facteurs spécifiques: Le facteur Rotation Mentale (RM) sature les mesures globales aux tâches AO et PC de rotation mentale (médiane des saturations = 0,79). Le facteur Appariement de Lettres (AL) sature les mesures globales aux tâches AO et PC de comparaison de lettres (médiane des saturations = 0,70). Le facteur Vérification de phrase (VP) sature les mesures globales aux tâches AO et PC de comparaison phrase-dessin (médiane des saturations = 0,83). RM est faiblement corrélé à AL (0,14) et VP(0,14). La corrélation entre ces deux facteurs est très forte (0,77). Explications – La plus forte convergence observée entre les mesures globales (pas d’explication du processus) par rapport aux mesures dérivées ne peut que décevoir ceux qui cherchent à mettre en relation l’efficacité d’un processus cognitif et la performance à un test psychométrique. Ce résultat, répliqué dans de nombreuses études, amène notamment à s’interroger sur la validité du modèle général qui sous-tend l’estimation théorique, individu par individu, de la vitesse du processus étudié. Ce modèle, en mettant l’accent uniquement sur la vitesse du processus, est nécessairement limité. Il est aussi douteux qu’un seul modèle soit suffisant pour expliquer les performances d’individus différents. – Les tâches de comparaison de lettres et de comparaison phrase-dessin impliquant toutes les deux le traitement d’une information verbale, on comprend l’observation d’une corrélation désatténuée de forte amplitude entre AL et VP. Indépendant des précédents, le facteur RM, résume les différences individuelles dans le traitement d’une information spatiale. En termes de différences individuelles, la dimension de contenu (verbal vs spatial) est donc particulièrement saillante. C/ Analyse des relations entre facteurs expérimentaux et aptitudes La considération simultanée à l’aide d’une analyse factorielle confirmatoire des corrélations entre mesures globales aux tâches de calibrage et performances aux tests d’aptitudes permet d’aboutir à l’estimation des corrélations entre facteurs (les corrélations en gras sont significatives au seuil de .05). Facteur Gc: intelligence cristallisée Gf: intelligence fluide Gv: visualisation spatiale Vp: vitesse perceptive Rotation Mentale 0,04 -0,10 0,78 0,21 Appariement de lettres 0,07 0,02 -0,10 0,69 Vérification de phrase 0,28 0,00 -0,07 0,38 D’après Lansman, M., & collaborateurs., op. cit. Explications 3 2/ L’examen des estimations montre le caractère spécifique des corrélations désatténuées entre facteurs mesurant ici des niveaux de performance. – Le facteur rotation mentale est très fortement corrélé au facteur visualisation spatiale. On mesure donc bien, dans l’aptitude spatiale, la capacité à encoder, mémoriser et surtout manipuler une image visuelle. – La forte corrélation entre les facteurs appariement de lettres et vitesse perceptive semble traduire le faible niveau de difficulté des tâches correspondantes, la vitesse de réalisation différenciant alors les individus. Une analyse complémentaire montre cependant que la corrélation partielle du TR moyen d’IN avec Gc est significative à . 05 (r=0,35; le TR moyen d’IP étant contrôlé). Ce résultat conduit à penser que l’aptitude verbale est sans doute en partie reliée à la vitesse d’accès à des codes verbaux contenus en mémoire à long terme. L’observation d’une corrélation de 0,28 entre le facteur vérification de phrase et Gc est d’ailleurs en accord avec cette hypothèse. 5 – COMMENTAIRES GENERAUX – Les analyses précédentes soulignent la correspondance entre la distinction Gc-Gv d’une part, celle entre traitement verbal et traitement spatial d’autre part. Elles indiquent que les tests psychométriques semblent, à un niveau assez global d’observation, mobiliser des processus nécessaires à la résolution de tâches expérimentales. – L’analyse de la performance à une tâche de calibrage sous l’angle de la vitesse et/ou l’efficacité d’un processus élémentaire montre aussi ses limites. Les estimations théoriques correspondantes semblent instables, étroitement dépendantes des caractéristiques spécifiques de la tâche et peu en relation avec un niveau plus global de performance. Il est donc illusoire de vouloir rendre compte des différences observées à un niveau global en évoquant exclusivement des différences liées à un niveau élémentaire de traitement de l’information. 3 3/ EXERCICES 4 B 2 – Temps d’inspection et intelligence 1 - PRESENTATION La procédure de temps d’inspection visuelle (TI) a été très largement utilisée dans les études sur le rôle de la vitesse mentale dans l’intelligence (cf. cours 4B1). Le principe en est très simple. Il suffit d’indiquer de quel côté est située la ligne verticale la plus longue (cf. figure a). Pour empêcher le traitement de l’information au-delà de la durée de présentation de la cible, on utilise une technique de masquage visuel (cf. figure b). La discrimination devient évidemment très difficile quand le masque succède très rapidement à la cible (intégration phénoménologique de la cible et du masque). La mesure effectuée est une mesure de seuil ou temps minimum dont a besoin le sujet pour effectuer « correctement » la discrimination, par exemple, dans 95 ou 97,5% des cas. a b 2 - EXERCICE 1 On étudie l’effet sur le temps d’inspection visuelle d’une tâche secondaire que le sujet doit réaliser simultanément. Dans la tâche de TI, le sujet doit appuyer sur un bouton ou un autre pour indiquer de quel côté se situe la ligne la plus longue. Dans la tâche secondaire, le sujet doit imaginer le déplacement d’un élément dans un carré de 9 cases. Les instructions sur le déplacement sont auditives et le sujet indique oralement par un chiffre de 1 à 9 la position de l’élément après le déplacement. Les 35 adultes participant à l’expérience sont placés dans la condition « TI seul » puis dans la condition « TI + imagerie ». On détermine leur TI dans chaque condition. Les analyses effectuées montrent que le TI moyen est de 47 msec en condition « TI seul » et de 99 msec en condition « TI+Imagerie » [t(34)=5,46, p<0.001]. Ce résultat est-il compatible avec une interprétation du TI en termes de vitesse de traitement de l’information ? 3 - EXPLICATIONS Si le TI mesurait la vitesse d’un processus automatique et extrêmement précoce de prise d’information, on devrait observer une stabilité des mesures effectuées en condition « TI seul » et en condition « TI+imagerie ». Or cette prédiction n’est pas en accord avec les observations effectuées. En effet, le TI moyen augmente significativement de la condition « TI seul » à la condition dans laquelle il est mesuré en même temps que le sujet doit réaliser la tâche secondaire. La tâche de TI, malgré sa simplicité apparente, est en fait psychologiquement complexe. Le résultat observé peut d’abord s’expliquer par le rôle médiateur des ressources attentionnelles dans le TI (amorçage et maintien du niveau de vigilance, focalisation de l’attention sélective, contrôle du balayage de l’information ; cf. cours 4C1), ces ressources attentionnelles étant également nécessaires à la bonne réalisation de la tâche secondaire. Une autre interprétation possible repose sur l’implication de capacités de visualisation et d’orientation spatiale dans la tâche de TI et dans celle d’imagerie spatiale. Les mesures de TI sont aussi sensibles à des processus de décision qui interviennent après la présentation de la cible et du masque. Ces processus de nature exécutive (auto-surveillance, évaluation de la performance à chaque essai, etc.) sont évidemment sollicités par la tâche secondaire, ce qui peut produire des interférences avec la tâche de TI et conduire à l’observation de TI en moyenne plus élevés. 4 - EXERCICE 2 Bors, Stokes, Forrin & Hodder (1999) mesurent chez 20 étudiants de 1ère année d’université : a) la performance aux Matrices Progressives de Raven ; b) le TI lors de 3 occasions (300 essais chaque jour, 3 jours de suite). Les résultats obtenus sont résumés dans le tableau ci-dessous : 3 4/ TI (msec.) Minimum Maximum Moyenne Ecart-type Corrélation avec les Matrices de Raven * : p<.05 (1999) er 1 jour 40 140 85 30 -0,43* 2 ème jour 36 135 73 31 -0,15 3 ème jour 37 113 66 25 -0,07 D’après Bors, D.A., & collaborateurs 1. La diminution du TI entre le 1er et le 3ème jour (p<.001) est-elle compatible avec une interprétation de cette mesure en termes de vitesse de traitement de l’information ? 2. Que penser de la diminution avec les occasions de mesure de la corrélation entre le TI et l’intelligence fluide mesurée par les Matrices de Raven ? 5 – EXPLICATIONS Question 1 Par définition, la vitesse de traitement de l’information est relativement peu sensible à l’entraînement. Or le TI moyen dérivé des 300 premiers essais est nettement plus important que celui mesuré le 3ème jour. Il faut ajouter que l’entraînement semble surtout profiter aux sujets les moins performants lors de la 1ère session puisque le TI minimum est à peu près constant d’une session à une autre. Le TI réfléchirait donc quelque chose d’autre (ou de plus) que la vitesse de traitement de l’information, par exemple, des processus perceptifs ou cognitifs, peut-être stratégiques, dont la vitesse et/ou l’efficacité bénéficieraient de l’entraînement. Ce résultat est en accord avec d’autres observations qui suggèrent que beaucoup de participants développent des stratégies de réponse au fil des essais (par exemple, en s’appuyant sur des indices de mouvement apparent liés à la technique de masquage employée). Question 2 La corrélation négative observée entre le TI mesuré le 1er jour et la performance au test des Matrices de Raven est de l’ordre de ce qui est habituellement observé: les individus les plus aptes intellectuellement tendent à présenter des TI plus courts. Il est ici particulièrement intéressant de noter que l’entraînement atténue la relation entre le TI et l’intelligence, celle-ci disparaissant dès le second jour. Tout semble donc se passer comme si les individus les plus performants au test des Matrices de Raven présentaient un avantage initial lors de la mesure du TI. Cet avantage disparaîtrait ensuite en raison de l’amélioration chez les individus les moins aptes intellectuellement de leur niveau d’adaptation à la tâche de TI. L’implication de processus autres que la vitesse de traitement de l’information semble donc pouvoir expliquer la corrélation observée entre le TI mesuré en contexte de nouveauté et la performance au test des Matrices de Raven. 3 5/ DOCUMENT 4 B 3 – Principes de mise en œuvre d’une analyse composantielle 1 - PRÉSENTATION Robert Sternberg (1977) décrit une méthode visant à identifier les différentes composantes (processus mentaux et stratégies) impliquées dans la résolution de tâches complexes comme des analogies (gris est à nuage comme jaune est à ?), des séries de lettres (A, C, E, ?) ou des syllogismes (aucun B n’est A, tous les C sont B: aucun C n’est A). Cette méthode, appelée analyse composantielle, consiste à élaborer un modèle cognitif de la tâche puis à utiliser ce modèle pour définir et mesurer les diverses composantes mises en jeu, afin d’étudier dans quelle mesure les différences individuelles ainsi « localisées » contribuent à expliquer celles observées à un niveau plus global de performance. Les extraits présentés ci-après décrivent l’ensemble des procédures à suivre pour mettre en œuvre une analyse composantielle. ----------------------------------L’analyse composantielle----------------------------------1. La décomposition de la tâche « La première chose à faire est de décider de ce que l’on souhaite analyser. Il est donc nécessaire de disposer d’une théorie du domaine cognitif spécifique auquel on s’intéresse. Celle-ci doit être suffisamment complète et applicable à un large ensemble de problèmes pour le domaine considéré. Elle doit aussi nécessiter un nombre suffisamment réduit de paramètres et d’hypothèses de travail. [...] La performance à la tâche doit pouvoir être quantifiée. La tâche doit aussi posséder certaines propriétés de mesure avant que ses propriétés psychologiques puissent être évaluées. [...] Il faut ensuite décomposer la tâche en une série de sous-tâches, avec l’hypothèse que les sous-tâches qui nécessitent moins de traitement sont emboîtées dans celles qui en nécessitent plus. Plusieurs méthodes peuvent être utilisées pour mener à bien cette décomposition. Le principe de la méthode dite de « pré-indiçage » consiste à fournir aux individus une certaine quantité d’information concernant l’item, avant que celui-ci ne leur soit présenté dans son intégralité. Dans la méthode dite des « sous-tâches partielles », on présente des items impliquant soit l’ensemble des composantes hypothétiques, soit un sous-ensemble de ces composantes. [...] 2. Le test du modèle et l’estimation de ses paramètres Une fois les scores obtenus à des items dont les caractéristiques sont expérimentalement manipulées, il faut quantifier le modèle composantiel. La technique employée dépend de la tâche et de la méthode de décomposition utilisées. Elle est conduite de manière à utiliser la régression multiple comme moyen de prédire la variable dépendante à partir d’une série de variables indépendantes. La variable dépendante est habituellement le TR ou le nombre d’erreurs. Les variables indépendantes sont généralement le nombre de fois où une série donnée de composantes de traitement est exécutée. On prédit ainsi la latence, le pourcentage d’erreurs ou la probabilité de réponse en fonction du nombre de fois où chaque composante du modèle est activée. Les paramètres de latence sont des coefficients de régression qui représentent les durées des diverses composantes. Un modèle linéaire simple permet ainsi de prédire le TR comme une fonction additive du nombre de fois où chacune des n composantes est exécutée (n variable indépendantes) multiplié par la durée d’exécution de chacune de ces composantes (n paramètres de latence estimés). On fait de la même manière l’hypothèse que le pourcentage d’erreurs est égal à la somme des difficultés rencontrées en exécutant chaque composante. Un modèle linéaire semblable au précédent permet de définir le pourcentage d’erreurs comme une fonction additive du nombre de fois où chacune des n composantes est exécutée (n variables indépendantes) multiplié par la difficulté de la composante (n paramètres de difficulté estimés). [...] Une fois le modèle formulé, il est nécessaire de le tester. Au cours de cette étape de validation interne, on examine [notamment] la proportion de variance dans les données dont le modèle est capable de rendre compte et la contribution de chacun des paramètres. [...] Le modèle proposé doit être testé sur les données de groupe (modèle général) mais aussi individu par individu, conduisant ainsi à l’estimation de paramètres individuels. Il est en effet possible que le modèle rende convenablement compte des données de groupe mais ne convienne pas pour certains sujets en raison 3 6/ de différences dans les stratégies individuelles.[...] 3. La validation externe du modèle La validation externe nécessite de tester les paramètres du modèle proposé contre des critères externes, avec au moins deux objectifs. Le premier objectif est de fournir une source complémentaire de vérification du modèle. [...] Il est par exemple important de montrer que les paramètres supposés opérer sur des représentations spatiales entretiennent des corrélations plus élevées avec des tests spatiaux qu’avec des tests verbaux.[...] Le second objectif est de tester le degré de généralité du modèle. Si on ne peut trouver de critère externe en relation avec les paramètres estimés sous hypothèse du modèle, celui-ci, ou peut-être la tâche, ne présente pas un grand intérêt théorique. Par exemple des paramètres estimés pour une tâche de raisonnement analogique ne sont intéressants que s’ils s’avèrent être corrélés à divers tests de raisonnement inductif mais pas à des tests de vitesse perceptive. [...] En pratique, le modèle n’est pas correctement formulé au départ. Il est donc souvent nécessaire de le reformuler sur la base des données observées et de valider le modèle révisé sur une autre série de données. [...] Il est aussi important de montrer que le modèle proposé n’est pas spécifique à la tâche. Ma propre stratégie a été d’étendre les modèles composantiels d’une tâche de raisonnement inductif d’un format donné, d’un contenu donné, à des tâches de raisonnement inductif présentées dans des formats différents, correspondant à des contenus différents.[...] Ce processus de généralisation est nécessaire car la théorie cognitive doit l’emporter sur l’analyse de la tâche.[...] » Extrait et traduit de Sternberg, R.J. (1985). 2 – EXPLICATIONS A/ La décomposition de la tâche Voici, pour illustrer cette première étape, le modèle de décomposition proposé par Sternberg pour la résolution d’un problème d’analogie du type « A est à B comme C est à D» (réponse de type vrai-faux). Le sujet doit d’abord encoder les différents éléments du problème (étape d’encodage). Il doit ensuite découvrir la relation entre A et B (étape d’inférence) puis apparier la relation entre A et B à la relation entre C et une solution idéale à l’analogie (étape d’appariement ou d’homologie). Il doit enfin appliquer la relation afin de déterminer si la réponse proposée lui paraît appropriée (étape d’application) puis répondre. encodage préparation A : B :: C : D inférence appari ement réponse appli cation La méthode dite de pré-indiçage consiste à éliminer successivement chacun des termes de l’analogie. Quatre sous-tâches comportant deux parties peuvent ainsi être formées. Une certaine quantité d’information est d’abord présentée sur l’écran d’un ordinateur: cela peut être « pas d’information », « A », « A:B » ou « A:B::C ». Lorsque le sujet estime avoir suffisamment traité l’information qui lui est présentée (temps de préparation), il fait apparaître l’analogie complète en appuyant sur une touche du clavier. Le modèle de décomposition fait l’hypothèse que le temps mis par le sujet pour répondre (TR) est fonction de la quantité d’information préalablement traitée. Il est donc d’autant plus court que la quantité d’information présentée en pré-indiçage est importante. B/ L’estimation des paramètres du modèle Reprenons les hypothèses du modèle précédent appliqué à la décomposition du TR à des analogies entre figurines pouvant être décrites par des attributs comme la taille, la corpulence, la couleur et le genre. Soient « a » la durée de l’étape d’encodage, « x » la durée de l’étape d’inférence, « y » la durée de l’étape d’appariement, « z » la durée de l’étape d’application et « c » une constante de temps correspondant aux temps de préparation et de réponse. On définit a priori le nombre « f » d’attributs de A et de B (de C et de D) inférés puis appliqués et le nombre « g » d’attributs appariés entre A:B et C:D. 3 7/ 1. Pré-indiçage 75 items par condition 0 indice: 1 indice: A 2 indices: A:B 3 indices: A:B :: C Durée du traitement correspondant A 2a + fx 3a + fx + gy 2. Présentation de l’analogie A:B A:B A:B A:B :: C:D :: C:D :: C:D :: C:D Décomposition du TR TR0 = 4a + fx + gy + fz + c TR1 = 3a + fx + gy + fz + c TR2 = 2a + gy + fz + c TR3= a + fz + c Estimation de la durée des composantes (n = 16) encodage: inférence: appariement: application: constante: D’après Sternberg, R.J., op. cit. La lecture du tableau précédent montre que le TR est décomposé différemment selon le type de traitement effectué en pré-indiçage. La différence TR0-TR1 fournit une estimation de « a ». Connaissant « a » et « f », il est alors possible d’estimer « x » à partir de TR1-TR2 puis d’estimer « y » à partir de TR2-TR3, etc. Sur cet exemple, le pourcentage de variance expliquée du modèle (i.e. le carré de la corrélation entre les données reconstruites par le modèle et les données observées) est de 0,92. De plus, les composantes dont le modèle fait l’hypothèse sont toutes des prédicteurs significatifs des différences individuelles dans les TR. Enfin, l’application du modèle aux données recueillies pour chaque individu montre qu’il rend compte en moyenne de 80% de la variance observée. Ce modèle a donc une très bonne validité interne tant par rapport aux données de groupe que par rapport aux données individuelles. C/ La validation externe du modèle Le premier type de validation externe ou validation convergente (corrélation entre les paramètres et les mesures externes avec lesquelles ils sont supposés corrélés) doit s’accompagner d’une recherche de validation discriminante. On doit en effet vérifier que les corrélations entre les paramètres et les mesures externes sont dues aux mécanismes psychologiques spécifiés et non à des sources de variations « cachées » comme par exemple une dimension plus générale. La stratégie de recherche suggérée par Sternberg consiste à comparer des modèles du point de vue de leur capacité à « reconstruire » les données observées. Une des difficultés de cette approche est qu’il est souvent possible de trouver a posteriori un modèle plus vraisemblable que les autres. On peut alors, lorsque l’effectif est de taille suffisante, identifier le modèle reconstruisant le mieux les données sur une partie de l’échantillon et questionner sa validité en l’appliquant ensuite à l’ensemble des sujets restants. On pourra aussi évaluer le degré de généralité du modèle édifié en étudiant sa capacité à reconstruire des données recueillies sur un autre échantillon avec un matériel plus ou moins comparable. 556 msec. 134 msec. 199 msec. 94 msec. 452 msec. 3 8/ EXERCICES 4 B 4 – Que mesure le test de substitution ? 1 - PRESENTATION Le test dit de « substitution » est une épreuve très souvent utilisée dans l’évaluation de l’efficience intellectuelle d’enfants ou d’adultes. Dans ce test factoriellement ambigu mais très corrélé à la performance cognitive complexe, le sujet doit coder en un temps donné (par exemple, 2mn) un maximum de symboles en respectant toujours les mêmes associations symbole-chiffre (cf. figure). 1 2 3 14 5 6 7 8 9 Les résultats expérimentaux présentés dans les exercices suivants proviennent d’une étude réalisée par Gilmore, Royer, Gruhn et Esson (2004). Ces auteurs appliquent d’abord une méthode d’analyse composantielle basée sur la manipulation de plusieurs caractéristiques du matériel. Ils analysent ensuite le rôle des processus de recherche visuelle dans la performance au test. 2 – EXERCICE 1 Gilmore et collaborateurs administrent différentes formes du test de substitution à 74 participants. Chaque forme de test comprend 1 série de référence présentant les 9 associations symbole-chiffre (cf. figure) et 4 lignes de 25 symboles à compléter en 90 s. Les 20 formes du test sont construites en croisant factoriellement trois types de manipulations expérimentales des symboles présentés dans la série de référence : - la composition de la série (COMP): les symboles de la série peuvent être tous composés de segments horizontaux et verticaux (R) ou tous composés de diagonales (D), que l’on sait plus difficiles à traiter ; - le degré de confusion visuelle de la série (CONF): la série peut être composée de symboles très différents les uns des autres (degré de confusion nul) ou très ressemblants les uns aux autres (degré de confusion maximum) ; - la charge en information de la série (INFO) c’est-à-dire la moyenne sur les symboles de la série de la charge en information de chaque symbole définie comme le nombre de symboles différents produit par les rotations de 90° et celles en miroir (par exemple, 1 pour le symbole « + » ; 8 pour le symbole « F »). 1) De quelles composantes de traitement de l’information faire l’hypothèse sur lesquelles les manipulations du matériel pourraient avoir un impact ? 2) Les analyses de variance effectuées montrent l’existence d’effets simples de COMP, CONF et INFO sur le niveau de performance. L’effet le plus important est celui de CONF. Que peut-on en conclure ? 3 - EXPLICATIONS Question 1 On peut penser que des composantes de traitement comme l’encodage du symbole, le maintien du symbole en mémoire à court terme et la recherche visuelle du symbole dans la série de référence interviennent, sans doute interactivement, dans la performance au test de substitution. L’encodage du symbole est manipulé dans cette étude en variant la composition de la série. Les segments horizontaux et verticaux étant identifiés plus rapidement et qualitativement mieux traités que les segments diagonaux, on s’attend à observer un niveau de performance supérieur aux formes de type R en comparaison aux formes de type D. Il paraît également raisonnable de penser que la manipulation de la charge en information de chaque symbole a un effet sur les processus d’encodage et de maintien en mémoire du symbole. Il est donc possible de dissocier expérimentalement ces deux catégories de processus en variant la charge en information des séries de type R ou de type D. Les études sur les processus de recherche visuelle ayant par ailleurs montré que la recherche d’une cible est plus difficile lorsqu’elle est entourée de distracteurs perceptivement proches, on peut faire l’hypothèse d’un impact négatif du degré de confusion visuelle sur la vitesse 3 9/ et/ou l’efficacité de la composante de recherche visuelle. Un degré élevé de confusion visuelle de la série devrait donc s’accompagner d’une baisse du niveau de performance à la forme de test correspondante. Question 2 Ces résultats démontrent que les trois manipulations du matériel ont des influences distinctes sur la performance au test de substitution, ce qui est une forme de validation du modèle composantiel du test. L’effet de COMP (R vs D) constitue un résultat intéressant qui illustre d’un point de vue général l’importance de la vitesse d’encodage dans le niveau de performance. On ne dispose cependant pas d’éléments qui permettent d’en juger d’un point de vue différentiel. La démonstration d’effets séparés de INFO et de CONF est également à retenir. Un symbole à charge en information élevée est plus difficile à encoder et plus coûteux à maintenir en mémoire à court terme. Mais la recherche visuelle d’un symbole complexe est rendue encore plus difficile par la présence d’autres symboles perceptivement proches. La capacité à extraire un symbole donné d’une série où règne une forte confusion visuelle en supprimant activement les symboles distracteurs paraît donc jouer un rôle très important dans la performance au test de substitution. 4 – EXERCICE 2 On définit dans l’expérience précédente un score individuel de recherche visuelle (RV) qui rend compte, toutes choses étant égales par ailleurs, de l’amélioration de la performance avec la baisse du degré de confusion visuelle de la série. Les sujets sont contrastés en deux groupes selon que leur performance s’améliore très sensiblement (groupe RV+ : 10 sujets) ou pas (groupe RV- : 9 sujets) lorsque CONF diminue. Ils participent ensuite à une tâche de recherche visuelle dans laquelle il faut décider le plus vite possible si la lettre G est présente dans une série de 5 lettres (50% des items). Les séries de lettres sont composées de 0 à 3 distracteurs présentant un degré élevé de confusion visuelle avec la cible (C, D, O ou Q). Les autres distracteurs présentent un faible degré de confusion visuelle avec la cible ; ils peuvent être des matrices de points de la taille des lettres, des lettres faciles (E, K, X, Y ou Z) ou des lettres plus difficiles à identifier (A, H, M, N ou W). Les observations effectuées montrent que quand la série est composée d’une cible et de distracteurs perceptivement éloignés, le temps de détection de la cible ne diffère pas d’un groupe à l’autre. Un effet d’interaction (p<.05) est constaté entre le groupe d’appartenance et le type de distracteur (cf. tableau ci-dessous : temps de détection et écart-type, en ms) mais pas entre le groupe d’appartenance et le degré de confusion visuelle. Groupe "Recherche visuelle" RV+ RV- Distracteurs Matrices de points 617 (17) 647 (25) Lettres faciles 639 (18) 695 (41) Lettres difficiles 627 (17) 723 (38) Quelle interprétation suggèrent ces résultats ? 5 - EXPLICATIONS Les deux groupes se différencient sur la base de leur comportement de recherche visuelle objectivé à l’aide de certaines des formes du test de substitution (cf. expérience 1). Leur temps de détection est semblable lorsque le degré de confusion visuelle est élevé mais contrairement aux sujets RV-, les sujets RV+ gagnent en rapidité lorsque le degré de confusion visuelle est faible. Avec l’hypothèse que les sujets procèdent de la même manière quel que soit le matériel, tout semble donc se passer comme si les sujets RV+ survolaient des distracteurs présentant des caractéristiques perceptives très différentes de la cible, contrairement aux sujets RVqui continueraient à les examiner de façon détaillée. La présence d’un effet d’interaction du groupe d’appartenance avec le type de distracteur mais pas avec le degré de confusion visuelle de la tâche de recherche visuelle peut s’interpréter en termes de seuil d’activation lié au déclenchement de l’analyse des lettres. Le temps de détection de la cible par les sujets RV+ reste en effet le même quel que soit le distracteur (de 617 à 639 ms). Les sujets RV+ auraient donc un seuil d’activation relativement élevé. Les traitements qu’ils mettent en œuvre seraient dominés par des analyses globales et en parallèles, ce qui conduirait au rejet plus rapide des distracteurs. Ces traitements ne sont évidemment plus adaptés lorsque le degré de confusion visuelle est élevé. Les sujets RV- auraient au 4 0/ contraire un seuil d’activation plus bas associé à une analyse sérielle plus détaillée. Ils ne mettraient donc pas plus de temps que les sujets RV- lorsque le degré de confusion visuelle du test de substitution est élevé mais seraient plus lents lorsque celui-ci est faible. 4 1/ DOCUMENTS 4 C 1 – Les ressources de traitement du système cognitif PRESENTATION Dans le document 1, on présente des résultats extraits d’une recherche conduite par Hunt et ses collaborateurs sur l’aptitude à intégrer des informations en provenance de différentes sources. L’interprétation des auteurs repose sur l’hypothèse d’une capacité générale de contrôle attentionnel (ou ressources attentionnelle). Les conclusions de l’étude présentée dans le document 2 soulignent l’importance de l’exécutif central de la mémoire de travail dans la performance à une tâche de compréhension de lecture. La méthode utilisée consiste à comparer des enfants ne présentant pas de difficultés d’apprentissage à des enfants d’un niveau équivalent d’intelligence (QI) mais qui présentent des difficultés d’apprentissage. Le document 3 résume et commente les principaux résultats d’une recherche qui montre que la capacité de la MT réfléchit une aptitude générale d’attention contrôlée ou d’attention exécutive. On retiendra que l’attention contrôlée reste un prédicteur important des différences de performance à diverses épreuves de raisonnement lorsque l’on contrôle statistiquement les processus de stockage spécifiques au domaine verbal et au domaine spatial. DOCUMENT 1 : Capacité de contrôle attentionnel et efficience intellectuelle « On se propose d’étudier la relation entre l’aptitude à intégrer une information présentée dans deux modalités différentes et l’efficience intellectuelle. On administre à des étudiants deux tâches d’attention. Dans la tâche auditive d’attention, on présente simultanément deux séquences différentes de mots en faisant entendre chacune d’elles à chacune des oreilles du sujet au moyen d’un casque stéréophonique. Les mots se répartissent en deux catégories (noms de lettres, de chiffres) dont l’une est la catégorie-cible, une oreille étant désignée comme le canal-cible durant la première partie de l’expérience, l’autre oreille l’étant pendant la seconde partie. Le sujet doit indiquer quels mots de la catégorie-cible ont été entendus dans le canal-cible. La tâche d’amorçage lexical comporte deux conditions. Dans la condition « traitement automatique », on donne un nom de catégorie puis on présente une série de lettres. Le sujet doit indiquer si ces lettres forment un mot (et dans ce cas il appartient à la catégorie) ou n’en forment pas un. Dans la condition « traitement contrôlé », le mot appartient à une autre catégorie que celle donnée en amorce. Un test d’intelligence générale, les Matrices Progressives de Raven, est également administré aux sujets. [...] Tâche d’amorçage Tâche d’amorçage « automatique » « contrôlé» Tâche auditive d’attention 0,28 0,31 Tâche d’amorçage 0,92 « automatique » Tâche d’amorçage « contrôlé » Matrices de Raven 0,46 0,56 0,59 L’examen des corrélations entre les épreuves (toutes significatives au seuil de .05) montre que la tâche auditive d’attention est plus corrélée avec les Matrices de Raven qu’elle ne l’est avec les tâches d’amorçage automatique ou contrôlé. [...] On s’aperçoit encore mieux de cet effet si on compare la corrélation partielle entre la tâche auditive d’attention et les Matrices de Raven (la variance associée aux tâches d’amorçage étant supprimée) à celle entre la tâche auditive d’attention et les tâches d’amorçage (la variance associée aux Matrices de Raven étant supprimée); la première est en effet de 0,38 alors que la seconde n’est que de 0,07. Ce résultat indique qu’une capacité générale de contrôle attentionnel est aussi associée à la performance à une épreuve de raisonnement fluide. [...] Considérons, pour résumer notre point de vue, une tâche abstraite aux exigences attentionnelles élevées. On peut estimer que la variance interindividuelle stable représente environ la moitié de la variance totale, l’autre moitié étant associée à des fluctuations non systématiques. Ajoutons que la moitié de cette variance stable (soit 25% de la variance totale) représente des variations individuelles dans la capacité générale de contrôle attentionnel ; les 25% qui restent représentent des variations liées aux aspects spécifiques des tâches. » 4 2/ Extrait et traduit de Hunt, Pellegrino & Yee (1989). Remarque Effet d’amorçage lexical : la présentation préalable de l’amorce (ici le nom de la catégorie à laquelle appartient le mot) diminue le temps de décision lexicale. Il s’agit d’un phénomène d’activation lexico-sémantique accélérant le traitement ultérieur de la séquence de lettres (cf. cours, partie B et Grand Amphi, Psychologie cognitive). Explications La corrélation observée entre la tâche auditive d’attention et les Matrices de Raven est de 0,46 ce qui correspond en première approximation à 0,46×0,46×100=21% environ de variance commune. La corrélation partielle entre la tâche auditive d’attention et les Matrices de Raven en contrôlant ce que celles-ci ont en commun avec les tâches d’amorçage est de 0,38 (environ 15% de variance commune). Les 21% de variance qu’ont en commun la tâche auditive d’attention et les Matrices de Raven se décomposent donc de la manière suivante : 15% exclusivement en commun et 6% en commun avec les tâches d’amorçage. D’un autre côté, la corrélation entre la tâche auditive d’attention et les tâches d’amorçage est de l’ordre de 0,30 (9% de variance commune). La corrélation partielle entre la tâche auditive d’attention et les tâches d’amorçage en neutralisant ce que celles-ci ont en commun avec les Matrices de Raven est de 0,07 (soit 0,5% de variance commune). Les 9% de variance qu’ont en commun la tâche auditive d’attention et les tâches d’amorçage se décomposent donc ainsi : 0,5% exclusivement en commun et 8,5% en commun avec les Matrices de Raven. Au total, les tâches d’attention utilisées par Hunt renvoient à un ensemble de processus communs dont l’efficacité est aussi mesurée par les Matrices de Raven, un test considéré généralement comme un très bon indicateur de l’intelligence fluide. Les différences de performance aux tâches d’attention utilisées dans cette étude réfléchiraient donc avant tout l’efficacité de processus de haut niveau impliqués dans le contrôle de l’attention. La corrélation moyenne observée par Hunt entre les Matrices de Raven et les tâches d’attention est d’environ 0,50 ce qui correspond à 25% de variance représentant les variations individuelles dans la capacité générale de contrôle attentionnel. DOCUMENT 2 : capacité de la mémoire de travail et efficience en lecture « L’objectif de l’étude est de déterminer dans quelle mesure la mémoire de travail (MT) et la mémoire à court terme (MCT) opèrent indépendamment l’une de l’autre dans la compréhension de lecture. [...] 31 mauvais lecteurs et 70 bons lecteurs âgés en moyenne d’une douzaine d’années participent à l’étude. Trois tâches sont utilisées pour mesurer ces processus mnésiques. [...] Dans la première tâche de MT, les sujets doivent comprendre une série de phrases et retenir le dernier mot de chacune d’entre elles. Le score d’empan de lecture est le nombre maximum de mots que les enfants sont capables de rappeler. [...] La précédente tâche ne permettant pas de dissocier les composantes de la MT (c’est-à-dire, l’exécutif central des systèmes asservis), on administre une autre tâche de MT pour évaluer le fonctionnement de l’exécutif central. Dans cette tâche dite de mémoire concurrente, on présente oralement des séries de chiffres pendant que les sujets doivent trier des cartes. On manipule la charge en mémoire en faisant varier le nombre de chiffres (3 ou 6) et les demandes par rapport aux systèmes asservis en faisant varier les modalités de tri (catégorisation sémantique d’images; tri en fonction de la forme). La variable dépendante est le pourcentage de chiffres correctement rappelés. [...] La troisième tâche dite de pré-charge est un indicateur de la MCT. On lit aux enfants une série de chiffres (3 ou 6) puis une liste de mots. La consigne est de rappeler les mots puis les chiffres dans l’ordre. Les variables dépendantes sont le pourcentage de rappel pour les mots et pour les chiffres. [...] Un test de compréhension de lecture est également administré aux enfants.[...] Une analyse factorielle hiérarchique des différents scores de mémoire montre d’abord que les mesures de MT sont fortement convergentes, tout en possédant une part de spécificité en accord avec la dissociation suggérée par Baddeley. [...] Cette convergence signe un aspect des tâches de MT qui paraît être la coordination d’opérations entre composantes indépendantes. [...] On notera que le recouvrement entre les mesures de MCT et celles de MT est par ailleurs négligeable. [...] L’étude indique également que l’amplitude des corrélations observées entre MT et compréhension de lecture est plus fonction des différences individuelles dans la compétence à utiliser certaines composantes de la MT que fonction des différences de compétence en lecture. [...] Ce n’est pas à cause de la lecture mais à cause d’une 4 3/ moindre capacité de la MT que les mauvais lecteurs ont des scores faibles aux tâches de MT. [...] Nos résultats montrent aussi que [compréhension de] lecture et MT sont surtout interdépendantes pour les moyens et les bons lecteurs, [...] ces corrélations s’amplifiant avec l’augmentation du degré d’efficience en lecture. [...] Enfin, La MCT ne joue pas un rôle aussi critique dans la compréhension de lecture que la MT. Un tel résultat fait pencher plutôt pour des modèles « descendants » des difficultés en lecture en suggérant que si des processus de bas niveau [comme l’utilisation du code articulatoire dont l’efficacité est mesurée par la tâche de MCT] ont une influence sur le traitement exécutif, leurs effets ne peuvent être qu’indirects et minimums. [...] Les problèmes des mauvais lecteurs sont fonctionnellement reliés à des processus de haut niveau comme le traitement exécutif central. » Extrait et traduit de Swanson, H.L. (1993) Explications La tâche de mémoire concurrente employée dans cette étude est un bon exemple de tâche double visant à mesurer la fonction d’attention contrôlée de l’exécutif central de la MT. Les demandes en ressources sont manipulées via le niveau de difficulté (3 ou 6 chiffres) et les modalités de tri (formes non verbales, catégories sémantiques, cartes vierges). Les résultats montrent que quelles que soient les modalités de tri, les mauvais lecteurs sont aussi performants que les autres quand les demandes en ressources exécutives sont faibles (3 chiffres) mais sont moins performants que leurs homologues lorsque les demandes en ressources exécutives sont élevées (6 chiffres). Les différences de performance de rappel n’étant pas limitées à l’une ou l’autre des modalités de tri, les processus impliqués seraient donc généraux plutôt que spécifiques à un système de représentation donné (figuratif vs verbal). Swanson a établi ultérieurement qu’en comparaison aux enfants qui ne rencontrent pas de problème d’apprentissage en lecture, les « mauvais lecteurs » présentent des difficultés liées à certains aspects exécutifs de la MT. Ces derniers auraient notamment plus de difficultés à supprimer ou interdire l’accès de l’information non pertinente en MT ainsi qu’à rafraîchir les contenus de la MT. D’autres fonctions exécutives (par exemple, la planification, l’autorégulation ou la prise de décision) seraient par contre tout à fait préservées chez les enfants d’intelligence normale qui présentent des difficultés d’apprentissage. DOCUMENT 3 : MT = attention exécutive + mécanismes de stockage. Kane, Hambrick, Tuholski et al. (2004) administrent à 250 étudiants des épreuves de MT (3 à contenu verbal et 3 à contenu spatial) ainsi qu’une batterie de tests de raisonnement portant sur des domaines spécifiques (5 de raisonnement verbal et 5 de raisonnement spatial) ou représentant des formes décontextualisées de raisonnement (3 épreuves dont les Matrices Progressives de Raven). Les relations observées entre toutes ces épreuves sont analysées à un niveau latent au moyen de techniques de modélisation structurale. Modèle de mesure de la capacité de la MT – Kane et ses collègues testent successivement un modèle à une variable latente « capacité de la MT » (CMT) et un modèle à deux variables latentes (CMT verbale : CMT-V ; CMT spatiale : CMT-S) dans lequel la corrélation estimée entre CMT-V et CMT-S est de 0,93. Ils retiennent donc la solution unidimensionnelle (CMT). Modèle de mesure du raisonnement – La solution retenue comporte 3 variables latentes : Gf, (intelligence fluide) mesurée par tous les tests de raisonnement et dont le meilleur indicateur est le test des Matrices de Raven ; R-V mesurée par les 5 tests de raisonnement verbal et dont le meilleur indicateur est une épreuve de compréhension de lecture ; R-S mesurée par les 5 tests de raisonnement spatial et dont le meilleur indicateur est une épreuve de puzzles mentaux. Modèle de régression de Gf, R-V et R-S sur CMT – Les estimations des coefficients de piste sont les suivantes : 0,64 de Gf sur CMT (41% de la variance de Gf sont prédits par les variations de CMT) ; 0,31 de R-V sur CMT (9% de la variance de RV sont prédits par CMT) ; 0,24 de R-S sur CMT (4,5% de la variance de R-S sont prédits par CMT). Ces estimations sont toutes significatives au seuil de .05. Ces premiers résultats amènent Kane et ses collègues à la conclusion que la capacité générale de la MT est un prédicteur important de l’intelligence fluide mais aussi un prédicteur significatif de dimensions spécifiques du raisonnement. Les observations effectuées avec 6 épreuves supplémentaires de mémoire à court terme (3 à contenu verbal, 3 à contenu spatial) sont cumulées avec celles faites avec les tâches de MT. Les auteurs retiennent un modèle de mesure de ces 12 épreuves 4 4/ mnésiques qui distingue 3 variables latentes : l’attention exécutive (AttnExec) mesurée par toutes les épreuves de MCT et de MT et dont le meilleur indicateur est l’empan de lecture ; le stockage verbal (Stockage-V) mesurée par les 3 tâches de MCT à contenu verbal et dont le meilleur indicateur est l’empan de chiffres (retenir des chiffres énoncés oralement); le stockage spatial (Stockage-S) mesurée par les 3 tâches de MCT à contenu spatial et dont le meilleur indicateur est l’empan de matrices (retenir les positions de croix dans des tableaux). Les estimations des coefficients de piste du modèle de régression des variables latentes R-V, Gf et R-S sur AttnExec, Stockage-V et Stockage-S apparaissent dans le tableau ci-dessous : R-V R-S Gf Stockage-V 0,40 0,16 ns AttnExec Stockage-S 0,29 ns 0,52 0,54 0,25 0,49 Note : ns pour non significatif au seuil de .05. Explications On voit que la variable latente d’attention contrôlée (AttnExec) qui représente la variance commune aux tâches de MCT et de MT est un prédicteur important de l’intelligence fluide Gf (27% de variance commune) et dans une moindre mesure des dimensions spécifiques du raisonnement R-V (8,5%) et R-S (6,25%). On constate aussi que les variables latentes de stockage d’un contenu spécifique (verbal ou spatial) sont de bons prédicteurs des dimensions spécifiques du raisonnement (16% pour R-V ; 24% pour R-S). Enfin, si la faiblesse du pourcentage de variance de Gf prédit par Stockage-V (environ 2,5%) est en accord avec la théorie de l’attention contrôlée, c’est loin d’être le cas des 29% de variance de Gf prédits par Stockage-S. Ce résultat est caractéristique du domaine spatial pour lequel il a été montré que les taches qui nécessitent le stockage « passif » de l’information ne sont pas factoriellement distinctes des tâches qui nécessitent un traitement additionnel de l’information (Miyake et al., 2000). 4 5/ EXERCICE 4 C 2 – Mémoire de travail, attention soutenue, raisonnement et intelligence cristallisée 1 - PRESENTATION Alors que les modèles de l’intelligence distinguent classiquement des dimensions de niveau intermédiaire liées à la nature verbale, numérique ou visuo-spatiale des tests (cf. cours chapitre 3), les recherches sur la relation entre MT et intelligence prennent rarement en compte la composante cristallisée de l’efficience intellectuelle. L’étroitesse de la relation entre l’exécutif central de la MT et les dimensions de contrôle et de capacité de focalisation de l’attention rend aussi souhaitable d’introduire dans les recherches de ce type des tâches d’attention qui impliquent un niveau élevé de contrôle. C’est ce que font Buehner, Krumm, Ziegler et Pluecken (2006) qui administrent à un échantillon de 121 étudiants une batterie de tests mesurant la capacité de la MT, l’attention soutenue (ATT), le raisonnement (R) et l’intelligence cristallisée (Gc). 2 – PROCEDURE Trois catégories de tâches informatisées sont utilisées pour mesurer la MT. Elles sont choisies du double point de vue de la fonction qu’elles opérationnalisent (cf. cours 4C2) et de leur contenu, verbal, numérique ou visuo-spatial. Il s’agit : a) de tâches doubles nécessitant de rappeler après traitement concurrent une information brièvement présentée (fonction « stockage en contexte de traitement »); b) de tâches de commutation (switching) qui imposent d’appliquer successivement une consigne puis une autre selon les caractéristiques des items (fonction de « supervision ») ; c) de tâches de monitoring dans lesquelles il faut repérer des modifications qui surviennent de façon imprévisible dans les relations entre objets (fonction de « coordination »). Des tâches élémentaires de traitement de l’information sont également administrées aux sujets afin de déterminer des TR de base utiles au calcul d’indices de coût aux tâches de commutation. L’attention soutenue est mesurée avec une tâche de barrage (barrer certains signes, par exemple, d’ ou p" ; ne pas en barrer d’autres, par exemple, d" ou p’) et la tâche que nous avons décrite plus haut (cf. cours 4C1). Neuf tests de raisonnement et six tests de connaissance complètent la batterie. Les hypothèses testées à l’aide des modèles structuraux sont les suivantes : a) l’attention soutenue (ATT) est corrélée à la capacité de la MT, notamment à la fonction « coordination » (CO) de la MT ; b) les prédicteurs les plus significatifs du raisonnement (R) sont les fonctions « stockage en contexte de traitement » (S+T) et « coordination » (CO) ; c) la capacité de la MT n’étant pas reliée, contrairement au raisonnement, à des structures conceptuelles, la relation entre les fonctions de la MT et raisonnement devrait rester stable après contrôle de l’intelligence cristallisée (Gc). 3 - RESULTATS On a regroupé dans la figure ci-dessous les estimations standardisées (toutes significatives au seuil de .05) obtenues dans le cadre du modèle de régression de R sur S+T, SUP, CO et ATT ainsi que celles correspondant au modèle de régression de R sur S+T, SUP, CO et ATT avec contrôle de Gc. L’impact de Gc dans la relation entre R et S+T, SUP, CO et ATT est contrôlé en mesurant Gc avec les tests de connaissances ainsi qu’avec les tests de raisonnement. Dans cette seconde partie du modèle, les pistes supplémentaires sont en pointillés et les nouvelles estimations en italiques. On rappelle que les variables latentes sont représentées dans des cercles, que les flèches bidirectionnelles entre variables latentes correspondent à des corrélations, que les flèches unidirectionnelles allant d’une variable latente à une autre variable latente se lisent « est un prédicteur de » et que les valeurs numériques figurant sur ces pistes sont des coefficients de régression (standardisés). Il est aussi utile de savoir que les petites flèches qui aboutissent à une variable latente (par exemple, R) sans partir d’une autre variable latente correspondent à de la variance résiduelle c’est-à-dire à de la variance non prédite par les variables situées en amont (dans ce cas S+T et CO). Enfin, l’absence de flèche entre certaines variables latentes du modèle témoigne d’une relation de prédiction non significative au seuil de .05. 4 6/ Fonction « Stockage et traitement » Après introduction de Gc Avant introduction de Gc Tâches de mémoire de travail S+T 0,41 0,53 (0,53) Fonction « Supervision » SUP R 0,51 0,23 0,60 (0,61) Fonction « Coordination » CO ATT 0,51 Gc 0,34 0,76 Tâches d’attention soutenue 1-R2 = 0,74 1-R2 = 0,17 0,53 Tests de raisonnement Verbal Numérique Spatial Tests de connaissances Histoire/Géo. Economie Art/culture Maths Sciences Vie quotidienne 1) Préciser le statut des variables latentes S+T, SUP, CO et ATT dans ce modèle. Quel est celui de R ? Quel est celui de Gc ? 2) Les résultats sont-ils en accord avec l’hypothèse de corrélations ente l’attention soutenue (ATT) et les fonctions de la MT ? Pourquoi les auteurs s’attendent-ils à une corrélation plus forte entre l’attention soutenue et la fonction « coordination » de la MT ? 3) Quels sont les prédicteurs du raisonnement (R) ? Quel pourcentage de variance de R permettent-ils de prédire ? Que peut-on en conclure ? 4) L’hypothèse c) est-elle validée ? Quelle explication peut-on donner de ce résultat ? 4 - EXPLICATIONS Question 1 La capacité de la MT et l’attention soutenue sont considérées dans le modèle comme des prédicteurs du raisonnement R et de l’intelligence cristallisée Gc. Elles ont donc le statut de variables exogènes (on dit aussi indépendantes, en amont). La variable latente R est prédite par S+T, SUP, CO et ATT ; elle est donc une variable endogène ayant le statut de variable dépendante (ou critère). Elle a aussi le statut de variable intermédiaire en raison de son statut de prédicteur de Gc. Le statut de Gc est celui de variable dépendante (on dit aussi ultime, en aval). Question 2 Les corrélations estimées entre ATT et les fonctions de la MT sont de 0,76 pour la fonction « coordination », 0,54 pour la fonction « stockage en contexte de traitement » et 0,34 pour la fonction « supervision », ce qui valide l’hypothèse a). Comme attendu, la corrélation la plus forte est obtenue entre les variables latentes ATT et CO. Rappelons que l’attention soutenue est définie comme la capacité à maintenir un niveau élevé d’attention sur un stimulus donné pendant un temps assez long, permettant ainsi que les ressources nécessaires soient disponibles tout au long des différentes étapes du traitement. L’observation d’une corrélation entre ATT et CO n’est pas surprenante. Il semble en effet qu’un processus crucial dans l’attention soutenue soit la combinaison d’opérations élémentaires en une opération de niveau supérieur nécessaire à l’atteinte du but poursuivi. Cette idée de combinaison rejoint celle d’intégration d’éléments ou d’opérations que l’on trouve aujourd’hui dans la définition de la fonction de coordination de la MT (cf. cours 4C2, Oberauer et al., 2003). L’hypothèse d’une fonction d’intégration commune pourrait donc expliquer les 0,78×0,78×100=58% de variance que ATT et CO partagent sur cet échantillon. Une autre hypothèse plausible est celle de la vitesse de traitement de l’information qui pourrait jouer un rôle déterminant dans la performance aux 2 catégories de tâches. Question 3 Les prédicteurs significatifs du raisonnement sont CO (coefficient de régression de 0,60) et S+T (coefficient de régression de 0,53). Ils prédisent ensemble 83% de la variance de R, ce qui est considérable. Quant à l’attention soutenue, elle ne prédit pas de variance de R indépendamment de CO. La capacité de la MT est donc un prédicteur d’autant plus important de l’efficience intellectuelle qu’elle est mesurée 4 7/ avec des tâches impliquant les fonctions de « stockage en contexte de traitement » et de « coordination ». Question 4 La relation entre les fonctions de la MT et raisonnement reste stable après contrôle de l’intelligence cristallisée (Gc) puisque le coefficient de régression de R sur S+T conserve la même valeur (0,53) ainsi que celui de R sur CO (0,61). La part de variance de Gc prédite par R est de 26%. La capacité de la MT prédit donc indépendamment de Gc un pourcentage important de la variance de R (cf. cours 4C2). 4 8/ EXERCICES 4 D 1 – Formes de variabilité des procédures de résolution 1 - PRÉSENTATION Des individus différents confrontés à une même tâche peuvent employer des stratégies différentes (exercice 1). Cette variabilité interindividuelle s’accompagne de certaines formes de variabilité intra-individuelle : le niveau de difficulté des items par exemple peut provoquer des changements de stratégie chez certains sujets (exercice 2). D’un point de vue différentiel, la mise en évidence de différences dans les stratégies de résolution de problème conduit à s’interroger sur les facteurs individuels qui peuvent conduire l’individu à utiliser une stratégie plutôt qu’une autre dans une situation donnée (exercice 3)? ******************************Exercice 1***************************** Plusieurs recherches consacrées à l’étude des stratégies individuelles ont utilisé le paradigme de comparaison phrase-dessin de Clark et Chase (voir par exemple, MacLeod, Hunt et Mathews, 1978). Une phrase (affirmative ou négative: « la croix est au-dessus de étoile ») est d’abord présentée sur l’écran de l’ordinateur. Le sujet détermine lui-même le temps de présentation de la phrase (« temps de compréhension ») puis appuie sur une touche du clavier, la présentation d’une information imagée remplaçant alors celle de la phrase. Le sujet doit juger de la conformité entre la phrase et l’information imagée en répondant « vrai » ou « faux » par l’intermédiaire des touches correspondantes du clavier (« temps de vérification »). Les résultats individuels n’étant pas tous conformes aux résultats observés sur l’ensemble du groupe, on forme deux groupes contrastés de sujets. L’un dit « bien ajusté » est composé de 8 sujets ; l’autre dit « mal ajusté » en comporte 4. Les temps de compréhension et de vérification correspondants sont présentés ci-après. msec Temps de compréhension Temps de vérification msec Temps compréhension de Temps de vérification Affirmative 2343 Vrai 1237 Faux 1440 groupe 1: bien ajusté groupe 2: mal ajusté groupe 1: bien ajusté groupe 2: mal ajusté Négative 2740 Vrai 1547 Faux 1567 Affirmative 2887 2623 Vrai 1321 876 Négative 2825 3043 Faux 1621 1204 Vrai 1904 896 D’après Marquer, J., & Pereira, M. (1990) 2 – EXERCICE 1 1. Caractériser la stratégie « moyenne » susceptible de rendre compte du pattern des de compréhension et de vérification recueillis ici sur un échantillon d’étudiants. 2. Comment interpréter les résultats du groupe « mal ajusté » par rapport à ceux du groupe « bien ajusté »? 3 – EXPLICATIONS Question 1 La comparaison des temps de compréhension montre l’existence d’un effet significatif (<.05) du type de phrase (affirmative vs négative). On peut donc penser, si l’on accepte l’hypothèse que le temps consacré à la lecture de la phrase est proportionnel à la durée de l’encodage de l’information, que, par rapport à l’encodage d’une phrase affirmative, celui d’une phrase négative comporte une ou plusieurs étapes supplémentaires (par exemple, une étape de transformation de la phrase négative en une phrase positive). Le pattern des temps de vérification suggère par ailleurs que la procédure de Faux 1839 1207 4 9/ vérification est un peu plus longue, peut-être parce que plus exhaustive, lorsqu’il y a désaccord entre la phrase et l’image. Ce résultat moyen est conforme aux hypothèses d’un modèle dans lequel le sujet se représente la phrase sous une forme linguistique, recode l’information imagée sous une forme linguistique puis compare ces deux représentations. La vérification est de plus longue durée lorsqu’elle s’effectue en référence à la représentation linguistique d’une phrase négative que lorsqu’elle s’effectue en référence à celle d’une phrase affirmative. La vérification, lorsqu’elle s’effectue en référence à la représentation linguistique d’une phrase négative est de plus longue durée pour un jugement de type faux que un jugement de type vrai. Question 2 La stratégie linguistique précédemment décrite semble être préférentiellement employée par les sujets du groupe 1, chez qui on constate une courbe des temps moyens de vérification conforme à celle prédite par le modèle linguistique. Cela ne semble cependant pas être le cas pour les sujets du groupe 2 puisque la courbe des temps de vérification ne traduit pas d’effet du type de phrase mais bien plutôt un effet important du type de jugement. Ce résultat indique que les sujets de ce groupe recodent la négation pendant l’étape de compréhension, soit sous forme linguistique, soit sous forme imagée. Le temps moyen de compréhension étant plus long dans le groupe 2 que dans le groupe 1, la stratégie de recodage n’est vraisemblablement pas la même. On peut par exemple faire l’hypothèse que les sujets du groupe 2 adoptent une stratégie qui consiste à se représenter la phrase sous une forme imagée puis à comparer cette représentation à celle du dessin. On notera au passage que l’utilisation de cette stratégie conduit à des temps de vérification plus courts. ******************************Exercice 2***************************** Bethell-Fox, Lohman et Snow étudient chez 40 lycéens âgés de 14ans 6 mois à 18 ans les différences individuelles dans la performance à une tâche d’analogies géométriques du type « A est à B comme C est à ? ». Les items dont deux exemples sont donnés ci-dessous sont construits en faisant varier le nombre d’éléments de A (1, 2 ou 3), le type de relation entre A et B (changement de taille, rotation, symétrie...) et le nombre d’alternatives de réponse (2 et 4). ? 1 A B C A B C 2 alternatives ? 2 4 alternatives 2 3 1 2 3 2 3 .12 .10 .08 .06 .04 .12 .10 .08 .06 .04 1 fréquence de réinspection de A et B après D 1 fréquence de réinspection de A et B après C 4 erreurs (%) 8 12 16 20 temps de réponse (sec.) 2 4 6 8 10 La procédure utilisée permet de mesurer le temps de réponse (en secondes) et le pourcentage d’erreurs des sujets. Elle permet aussi de décrire le pattern des différentes fixations oculaires lors de la résolution de chacun des items (technique d’analyse du mouvement des yeux reposant sur la mise en correspondance entre fixation oculaire et activité de traitement de l’information). 1 2 3 Nombre d'éléments D’après Bethell-Fox, Lohman & Snow (1984) Les auteurs mesurent la fréquence des réinspections de A et B « après examen de C et avant examen des alternatives de réponse » (AB-C) et « après le premier examen des alternatives de réponse » (AB-D). Les résultats correspondants, observés pour les items à 2 alternatives (trait plein) et à 4 alternatives (trait pointillé) apparaissent sur les figures ci-dessus. 4 – EXERCICE 2 1. La difficulté des items est-elle fonction du nombre d’éléments de A? Dépend-elle 5 0/ du nombre de possibilités de réponse? Y a-t-il un effet d’interaction entre les facteurs expérimentaux « nombre d’éléments » et « nombre de possibilités de réponse » ? 2. Peut-on dire que les caractéristiques de la tâche et la difficulté des items induisent, au moins chez certains sujets, un changement de stratégie? 5 - EXPLICATIONS Question 1 L’examen des TR et des erreurs met en évidence un effet du nombre d’éléments de A sur la difficulté des items d’autant plus marqué que le nombre de possibilités de réponse est élevé: les items à 3 éléments et à 4 possibilités de réponse conduisent à un TR particulièrement plus long et à une précision moindre que ceux à 1 élément et à 2 possibilités de réponses. L’analyse de variance dégage un effet d’interaction significatif au seuil de .05. Le nombre de possibilités de réponse est donc, en soi et en interaction avec le nombre d’éléments de A, une facette importante de la difficulté des items. Il semble obliger les sujets à activer des composantes de traitement supplémentaires ou à appliquer un nombre plus élevé de fois les mêmes composantes. Question 2 Les résultats de l’analyse du mouvement des yeux montrent qu’aux items les plus difficiles (3 éléments, 4 possibilités de réponse) correspondent globalement plus de retours en arrière, de réinspections de A et de B. Les allures respectives des courbes AB-C indiquent quant à elles que les sujets se préparent d’autant plus précautionneusement que les items sont difficiles. On peut donc faire l’hypothèse que les sujets, avant l’examen des possibilités, cherchent à élaborer de manière séquentielle une représentation de la solution idéale (stratégie « de construction »). Plus l’item est difficile, plus la construction de la solution nécessite de réinspections de A et de B. Le constat d’une faible fréquence de réinspections de A et B après examen des alternatives (courbes AB-D) tend à prouver que cette stratégie est efficace pour les items les plus faciles. Pour les items les plus difficiles, on constate une augmentation de la fréquence des réinspections de A et B après examen des possibilités de réponse. Il se peut donc que certains sujets ne puissent apparier leur réponse à une des possibilités de réponse, par exemple en raison d’une mauvaise mémorisation de la représentation de la solution idéale. On peut alors se demander si la difficulté de certains items n’oblige pas certains sujets à renoncer, éventuellement provisoirement, à une stratégie de construction et à lui préférer une stratégie « d’élimination de réponse » consistant à éliminer les possibilités de réponse incorrectes pour obtenir la bonne solution par défaut. ******************************Exercice 3***************************** On veut tester l’existence d’une relation directe entre aptitude et stratégie, l’hypothèse étant que chaque individu utiliserait spontanément les stratégies les mieux adaptées à ses niveaux respectifs d’aptitude dans les domaines verbal et spatial. Pour ce faire, on administre à 40 étudiants (20 de haut niveau d’aptitude spatiale ou S+, 20 de bas niveau d’aptitude spatiale ou S-), tous d’un niveau d’éducation élevé, une tâche d’orientation assistée par ordinateur. Dans cette épreuve, les sujets doivent indiquer aussi précisément et rapidement que possible la position finale d’un mobile ayant effectué à partir d’une position initiale 6, 7 ou 8 déplacements successifs (par exemple, un pas vers l’est, un pas vers le nord, un pas vers le nord...). Pour chaque item, la description écrite de l’ensemble des déplacements effectués apparaît sur l’écran jusqu’à ce que le sujet indique verbalement la position finale du mobile (une des branches, numérotées de 1 à 16, de la rose des vents). Deux stratégies différentes semblent pouvoir être utilisées. La stratégie spatiale repose sur l’élaboration d’une représentation spatiale du parcours étape par étape. La stratégie de suppression repose sur la suppression, pas à pas, de la direction opposée à chaque déplacement, la dernière direction constituant la réponse correcte. Cette seconde stratégie ne nécessite que des savoir-faire numériques simples. Les variables mesurées sont le TR et la précision. La stratégie décrite par les participants à la fin de la tâche est utilisée comme variable de classification, le TR et la précision étant utilisés pour confirmer la validité de la verbalisation. 5 1/ Résultats des mesures et de la catégorisation (1 sujet n’a pu être classé) TR moyen (sec.) Stratégie spatiale (n=19) 14.7 Stratégie de suppression (n=20) 6.8 HO: pas d’écart entre les deux p<.01 groupes Tableau de fréquences Groupe S+ Groupe Stest d’indépendance stratégie spatiale 4 15 χ2=14.8, p<.01 Erreurs (%) 52.3 12.3 p<.01 stratégie suppression 16 4 de D’après Roberts, Gilmore & Wood (1997). 6 – EXERCICE 3 1. Quelle est la stratégie apparemment la plus efficace? 2. Y a-t-il une relation entre le niveau d’aptitude spatiale et le choix stratégique? Que penser d’un tel résultat? 7 - EXPLICATIONS Question 1 On lit dans le tableau que la stratégie de suppression est associée à des TR significativement plus courts et à une précision significativement plus élevée. Ces résultats sont conformes à l’hypothèse que, pour cette tâche d’orientation, la stratégie spatiale est cognitivement plus exigeante et moins efficace que la stratégie de suppression. Question 2 Les auteurs constatent en effet que le niveau d’aptitude spatiale (S+ versus S-) est un prédicteur significatif du choix stratégique. Mais cette relation est apparemment contre-intuitive car les individus du groupe S+ utilisent préférentiellement la stratégie de suppression, non spatiale, alors que ceux du groupe S- privilégient la stratégie spatiale. Au contraire des sujets d’un niveau élevé d’aptitude spatiale, les participants d’un faible niveau d’aptitude spatiale ne semblent donc pas réaliser que la stratégie de suppression est mieux adaptée que ne l’est la stratégie spatiale. On peut faire l’hypothèse que par rapport aux premiers, les seconds évaluent moins bien l’inadaptation de la stratégie spatiale aux contraintes de la tâche et/ou disposent d’un répertoire moins étendu de stratégies, éventuellement non spatiales, pour résoudre la tâche. Ces résultats montrent que les individus particulièrement aptes dans le domaine spatial ne tendent pas nécessairement à utiliser au maximum des représentations spatiales. La relation entre aptitudes et choix stratégiques est donc plus à considérer à un niveau général plutôt que spécifique. Ils montrent aussi les difficultés liées à l’utilisation des tests dits d’aptitudes dans l’identification du mode de fonctionnement cognitif préférentiellement utilisé par l’individu. 5 2/ DOCUMENTS 4 D 2 – L’entraînement des stratégies cognitives PRESENTATION Peut-on entraîner des individus à utiliser efficacement des stratégies de traitement de l’information afin d’améliorer leurs performances intellectuelles ? Le document 1 apporte des informations d’ordre méthodologique qui concernent l’évaluation des effets de l’entraînement stratégique sur la performance. La question des effets différentiels, c’est-à-dire d’effets variables selon les individus de l’entraînement stratégique sur la performance est ensuite abordée (document 2). Enfin et puisque depuis la fin des années 80 ont été développés de multiples programmes d’entraînement des stratégies cognitives chez l’enfant, on s’interroge sur l’efficacité de ces programmes et sur les mécanismes par lesquels ils pourraient opérer. Quelques éléments de réponse sont apportés dans le document 3 à propos du programme « Cognitive Training for Children » qui vise à accroître une capacité centrale dans la performance aux tests d’intelligence fluide, la capacité de raisonnement inductif. DOCUMENT 1 : L’évaluation des effets de l’entraînement « ciblé » de certaines stratégies Le plan le plus simple fait appel à deux groupes équivalents dont l’un bénéficie d’un entraînement pour utiliser une stratégie donnée (par exemple, une stratégie d’imagerie mentale), l’autre groupe n’en bénéficiant pas (groupe témoin). On évalue ensuite la performance à une situation-problème choisie comme critère et déjà analysée du point de vue des processus mis en jeu. Il faut d’abord vérifier que les stratégies utilisées dans le groupe qui a bénéficié de l’entraînement diffèrent de celles employées par les sujets du groupe contrôle. Il s’agit surtout de savoir si la mise en œuvre de la stratégie nouvellement apprise a conduit à une amélioration de la performance des sujets du groupe entraîné. Un type de plan plus complexe fait appel à deux groupes contrastés (par exemple, de niveau intellectuel différent, d’âge différent, avec ou sans pathologie cérébrale, etc.). On administre d’abord un pré-test afin d’établir le niveau de performance des deux groupes et d’identifier les opérations préférentiellement mises en œuvre. Après le pré-test, le groupe dont on cherche à améliorer la performance (par exemple, de faible niveau intellectuel, d’âge très élevé, etc.) participe à un entraînement visant à induire l’utilisation des stratégies préférentiellement mises en œuvre par les sujets de l’autre groupe. Les sujets de ce second groupe participent également à un entraînement visant à leur faire utiliser les stratégies employées par les sujets du premier groupe. On évalue finalement la performance des sujets des deux groupes dans une situation-problème critère. Voici ci-dessous un exemple fictif avec plusieurs types de résultats. Mesure Résultats de type 1 Processus Niveau de performance* Résultats de type 2 Processus Niveau de performance Résultats de type 3 Processus Niveau de performance Niveau intellectuel faible Pré-test Post-test Niveau intellectuel élevé Pré-test post-test A 25% A+B+C 75% A+B+C 75% A 25% A 25% A+B 40% A+B+C 75% A+C 60% A 25% A+B+C 40% A+B+C 75% A 60% * pourcentage par rapport au niveau maximal de performance. Explications Si l’entraînement simule correctement les procédures utilisées par les deux groupes, les résultats doivent être du type 1; on peut alors dire que le traitement complémentaire B+C conduit à une amélioration de la performance et rend compte de la différence intellectuelle entre les deux groupes. [...] Les résultats de type 2 indiquent que l’entraînement n’a pas eu les effets escomptés. Les individus de niveau intellectuel faible n’ont pas mis en œuvre le processus C, ceux de niveau élevé ont activé A mais aussi C. Des aspects de la situation d’entraînement doivent 5 3/ donc être changés. [...] Les résultats de type 3 correspondent à un entraînement qui simule les processus ciblés, ces derniers ne rendant pas pleinement compte des différences entre les deux groupes. [...] Illustrations Dans une première étude, on entraîne des adultes retardés mentaux à utiliser des processus de répétition et d’attention pour mieux mémoriser l’ordre d’une information verbale. L’étude des TR montre un effet d’entraînement mais l’examen de la performance dégage une précision moindre que celle d’adultes sans retard intellectuel. Ces résultats sont de type 3. [...] Dans une autre expérience, on entraîne des enfants retardés mentaux à répéter l’information, utiliser et enchaîner des mécanismes de récupération de la même façon que le font des adultes sans retard intellectuel. L’étude des TR et de la précision indique que l’entraînement a induit chez les enfants retardés l’utilisation des mêmes procédures que les adultes. Les mesures de performance montrent de plus qu’après entraînement, les enfants retardés tendent à être un peu plus précis que des adultes normaux non entraînés. [...] Ces résultats de type 1 permettent de penser que des différences dans les stratégies de répétition et de mémorisation utilisées contribuent largement à expliquer les différences observées entre individus avec et sans retard intellectuel dans la performance à une tâche de mémoire verbale. [...] Extrait et traduit de Butterfield (1985) DOCUMENT 2 : Bénéfices différentiels de l’entraînement des stratégies Deux groupes d’enfants âgés d’environ 12 ans (32 enfants dont le quotient intellectuel moyen est de 64; 32 enfants sans retard intellectuel) participent à l’étude. Une batterie d’épreuves de « métamémoire » (capacité à évaluer la difficulté, connaissance des stratégies de mémorisation possibles, capacité à répartir le temps autorisé, capacité à prédire le niveau de performance à une tâche de mémoire donnée) et plusieurs autres épreuves (compréhension de lecture, catégorisation et rappel d’images, mémoire de lettres, taux d’utilisation des stratégies de répétition et de récupération à une tâche de mémoire d’objets) sont administrées aux enfants. Ceux-ci doivent aussi évaluer la difficulté de chaque tâche. Enfin, on reprend la tâche précédente de mémoire d’objets après avoir entraîné les enfants à employer une stratégie dite de répétition et d’organisation en mémoire qui conduit à une meilleure performance. Les analyses effectuées montrent que quel que soit le niveau de difficulté perçue, la stratégie utilisée est un prédicteur significatif (p<.01) de la performance aussi bien chez les enfants déficients que chez les enfants normaux. Les résultats suivants sont en outre observés. Enfants déficients Enfants normaux Difficulté perçue Mémorisation Mémorisation d’objets d’objets + entraînement stratégique 7.06 6.85 5.67 5.06 Performance Mémorisation d’objets Mémorisation d’objets + entraînement stratégique pas d’amélioration amélioration: t(33)=1.80, p<.05 D’après Rellinger et al., (1995). Explications L’entraînement stratégique tend à réduire la difficulté perçue de la tâche chez les enfants sans retard intellectuel mais pas chez les enfants déficients. Il y a donc là un premier effet différentiel de l’entraînement stratégique sur la perception de la tâche et de son niveau de difficulté. Tout se passe comme si les enfants sans retard intellectuel avaient mieux compris que les autres les bénéfices à tirer de l’emploi de la stratégie de répétition et d’organisation en mémoire. Un second effet différentiel est celui de l’entraînement stratégique sur la performance, l’entraînement stratégique ne profitant qu’aux enfants sans retard intellectuel. Ces résultats montrent qu’il est important pour l’enfant de bien comprendre le lien entre la stratégie employée et la performance, ce que confirme la corrélation significative observée sur le seul groupe d’enfants sans retard intellectuel entre la métamémoire et la performance (un score élevé aux épreuves de métamémoire est alors associé à un meilleur rappel). DOCUMENT 3 : Les limites de l’efficacité des programmes d’entraînement des stratégies cognitives Le « Cognitive Training for Children » (CTC) a été développé par Klauer pour enseigner aux enfants des stratégies de pensée susceptibles d’améliorer leur capacité de raisonnement inductif. On rappelle que le raisonnement inductif consiste à 5 4/ découvrir des régularités et des irrégularités en détectant des similitudes et/ou des différences entre : a) attributs d’objets ou d’ensembles d’objets ; b) relations entre objets ou entre ensembles d’objets. La logique du programme est donc d’enseigner des procédures assez générales de traitement de l’information comme la généralisation, la discrimination, la catégorisation, la reconnaissance et la différenciation de relations ou la construction de système. Le support matériel consiste en objets concrets, en images et en symboles abstraits. L’enseignement individuel ou en petit groupe repose sur la découverte guidée et le retour réflexif. L’entraînement s’effectue au cours d’une dizaine de séances de 20 mn. Voici certains des enseignements que tirent Hager et Hasselhorn (1998) des résultats d’une méta-analyse de 17 recherches d’évaluation de l’efficacité du CTC. « Malgré l’apparente complexité et la diversité des résultats des études prise ici en considération, il est possible de conclure que le CTC améliore la performance aux tests traditionnels d’intelligence fluide. On peut néanmoins se demander si ces effets sont dus ou pas à une augmentation de la capacité de raisonnement inductif des enfants. La question se pose en effet de savoir pourquoi et comment le CTC améliore la performance aux tests d’intelligence. L’efficacité tout d’abord du CTC semble principalement provenir des tâches d’entraînement plutôt que de la pédagogie employée pour enseigner les stratégies de comparaison des attributs d’objets et des relations entre ces objets. Les tâches constitueraient donc la composante procédurale centrale du CTC. Par ailleurs, s’il n’y a pas de raison de douter que le CTC améliore la capacité des enfants à repérer les similitudes et dissimilitudes entre objets et évènements, les effets du CTC ne sont pas nécessairement associés à une augmentation de la capacité de raisonnement inductif au sens de capacité à détecter (et à appliquer) des règles ou à trouver des régularités. Ils pourraient plutôt se traduire par une augmentation de la vitesse et de la précision de la perception visuelle des enfants ayant pour conséquence une amélioration de la performance à ceux des tests d’intelligence qui dépendent de la vitesse et de la précision de la perception visuelle. Cette hypothèse est aussi plus pertinente pour expliquer les patterns spécifiques des effets de transfert du CTC […] et notamment le constat d’une effet du CTC sur des mesures pures de vitesse et de précision perceptive ou sur la performance à des tests visuo-spatiaux ne sollicitant pas des processus de raisonnement inductif. » Extrait et traduit de Hager et Hasselhorn (1998). 5 5/ DOCUMENTS 4E1 – Experts, novices et résolution de problème PRÉSENTATION Le document 1 présente une méthode d’analyse de l’expertise qui repose sur la description empirique de la « pensée observée » d’experts et de novices. Les différences dans l’organisation de la connaissance sont typiques de ce qui a pu être observé dans d’autres domaines de connaissance. Ces différences auraient aussi une incidence sur l’identification, la définition et la représentation de problème (document 2). DOCUMENT 1 : Des différences d’organisation de la connaissance… Cinq enfants de 7 ans ayant une très bonne connaissance des dinosaures sont comparés à 5 enfants du même âge sans connaissance particulière de ce domaine spécifique. On demande à chacun de ces enfants de répartir 20 images de dinosaures en différents groupes. L’analyse des commentaires des enfants pendant cette tâche de tri montre d’abord que les experts emploient plus de conjonctions (parce que, si) que les novices. Considérons l’extrait suivant: « Et il avait les pattes palmées, ce qui fait qu’il pouvait nager, et son nez avait la forme d’un bec de canard, ce qui lui avait donné son nom. » Ce résultat suggère que lorsque les experts activent un concept, plusieurs autres attributs et concepts sont fortement activés; les propositions situées avant les conjonctions proviennent de la description de l’image alors que celles placées après proviennent d’une connaissance implicite associée à ces attributs. Les productions des enfants novices consistent au contraire en une simple description des attributs explicites apparaissant sur l’image: « Il a les dents pointues. Il a trois doigts. Il a une grande queue. » [...] On constate aussi que les experts changent plus facilement de thème dans leur propos. Chaque thème comme par exemple le mode de défense du dinosaure, semble fortement relié à d’autres attributs comme son alimentation, son habitat, son comportement social, son apparence physique. [...] Les experts ont donc une représentation de ces associations qui leur rend difficile de s’en tenir à un thème sans en aborder d’autres, expliquant ainsi la plus grande fréquence de transitions observée chez ceux-ci [...] L’utilisation beaucoup plus fréquente de conjonctions par les experts traduit l’effet que peut avoir une structure de connaissance hautement associée et très intégrée sur son utilisation. [...] Une autre différence essentielle dans la manière avec laquelle les experts et les novices emploient leur connaissance réside dans le nombre de comparaisons faites entre dinosaures. Par rapport aux novices, les experts effectuent beaucoup plus de comparaisons et mentionnent aussi bien les différences que les similitudes. [...] On constate aussi que les experts s’appuient principalement sur quelques attributs pour en déduire l’alimentation du dinosaure, la présence ou l’absence d’un de ces attributs leur permettant de dire si le dinosaure est herbivore ou carnivore. On peut donc penser que la formation de catégories hiérarchisées est basée sur le développement de tels contrastes. Les novices ne lisent pas les attributs de manière aussi contrastée. Il leur faut un plus grand nombre d’attributs pour pouvoir catégoriser. [...] Les représentations des experts sont ainsi plus différenciées que celles des novices. Extrait et traduit de Chi, Hutchinson et Robin (1989). DOCUMENT 2 – … qui affectent la manière avec laquelle l’expert identifie, définit et représente les problèmes dans son domaine d’expertise Toute situation de résolution de problème engage des processus de haut niveau (des métacomposantes dans la théorie triarchique de l’intelligence de Sternberg). comme : a) reconnaître l’existence du problème ; b) définir sa nature ; c) allouer les ressources mentales et physiques nécessaires à sa résolution ; d) décider comment représenter l’information à son sujet ; e) planifier le traitement c’est-à-dire générer l’ensemble des étapes nécessaires pour le résoudre ; f) combiner ces étapes en une stratégie de résolution opérante ; g) surveiller le déroulement du processus de résolution ; h) évaluer la solution. Les experts ont des représentations plus efficientes de leur domaine que les novices : les détails non pertinents en sont « gommés » et elles sont structurées plus en profondeur en raison notamment du regroupement de certaines unités d’analyse. Ces différences dans la structure de connaissance ont une influence sur la manière avec laquelle l’expert identifie, définit et représente le problème. En voici une illustration. Les recherches sur la résolution de problème ont montré que la pensée analytique est 5 6/ plus puissante et moins vulnérable aux heuristiques et aux biais que la pensée implicite, globale ou intuitive. Il semble cependant que le caractère approprié de l’analyse ou de l’intuition dépende de la complexité perçue et de la logique du problème mais aussi du niveau d’expérience dans le domaine de l’individu. L’analyse serait une stratégie appropriée pour les individus disposant de connaissances du domaine car leur expertise les aiderait à reconnaître l’information clé et à mieux définir le problème. Les novices au contraire, parce qu’ils repèrent moins bien l’information pertinente et perçoivent moins bien la structure du problème, se focaliseraient sur l’information non pertinente dont ils tireraient des conclusions erronées. Dans une étude récente, nous avons examiné l’impact de la stratégie utilisée, celui de la complexité du problème et du niveau d’expertise en résolution de problème chez des adolescents et des jeunes adultes. Les problèmes sont « bien définis » c’est-à-dire que les buts, la voie à suivre et les obstacles à contourner sont clairs au regard de l’information fournie ; ils sont regroupés selon leur niveau de complexité. Le niveau d’expertise est opérationnalisé par le niveau de scolarisation. L’utilisation stratégique est manipulée par des consignes. La stratégie analytique est basée sur un modèle commun du cycle de résolution de problème (définir le problème, identifier l’information pertinente, allouer les ressources, évaluer les résultats). Dans la stratégie intuitive, il faut imaginer la situation avec le plus de vivacité possible, appréhender le problème globalement et suivre son intuition. Les résultats montrent que la stratégie intuitive aide les novices (elle accroît leurs chances de prendre en compte l’information pertinente) alors que la stratégie analytique bénéficie aux experts. Extrait et traduit de Pretz, Naples et Sternberg (2003). 5 7/ EXERCICES 4E2 – Connaissances spécifiques et cognition de haut niveau 1 - PRÉSENTATION On considère aujourd’hui en psychologie cognitive que les différences individuelles dans l’organisation, la disponibilité et l’utilisation de la connaissance jouent un rôle très important dans les différences cognitives. Le premier exercice porte sur la relation entre les connaissances antérieures et l’apprentissage de connaissances nouvelles. Dans le second exercice, on s’intéresse à la relation entre le niveau de connaissance dans un domaine donné et le niveau de compréhension d’un texte portant sur des aspects précis de ce domaine. Dans le troisième exercice enfin, on présente des résultats qui suggèrent que la capacité de la mémoire de travail et les connaissances dans un domaine donné pourraient contribuer indépendamment à l’efficience dans ce domaine. ******************************Exercice 1***************************** Dans un travail consacré à l’étude de la relation entre connaissance générale acquise et apprentissage d’une connaissance nouvelle, Kyllonen, Tirre et Christal (1991) évaluent chez 400 jeunes adultes leur capacité d’apprentissage associatif, leur rapidité à décider si deux mots sont synonymes ou pas (même type de paradigme que celui de comparaison de lettres; cf. cours 4D1) et leur niveau de connaissance en vocabulaire. Pour chacun des 20 items de la tâche d’apprentissage associatif, il s’agit d’étudier une série de 10 paires « mot cible :: mot sonde » (par exemple, camion :: bonté) présentées successivement. Selon les items, la durée de présentation ou « temps d’examen » de chaque paire est de ½, 1, 2, 4 ou 8 secondes. Les sujets doivent ensuite retrouver l’une de ces paires dans laquelle le mot sonde a été remplacé par un synonyme (par exemple, camion :: bienveillance) parmi cinq propositions. Les distracteurs utilisés sont des synonymes de certains des mots-sondes présentés dans la série étudiée pour lesquels on a vérifié dans une étude préparatoire qu’ils étaient parfaitement connus en tant que tels. On mesure le pourcentage de bonnes réponses. Voici les pourcentages de bonnes réponses à la tâche d’apprentissage associatif pour les quatre groupes constitués en contrastant les sujets à la fois par rapport au niveau de connaissance (voc+ vs voc-) et à leur rapidité de décision à la tâche de comparaison de synonymes (lent vs rapide). Groupe Connaissance Vitesse Voc lent Voc rapide Voc + lent Voc + rapide 1/2 20 27.5 28 35 Temps d’examen (sec) 1 2 28 31 35 45 38 46 46 59 4 36 49 54 67 8 43 52 62 71 2 – EXERCICE 1 Ces résultats paraissent-ils en accord avec l’hypothèse d’un effet du niveau de connaissance sur l’efficacité de l’apprentissage associatif ? Il est conseillé de représenter graphiquement l’évolution de la précision moyenne (en ordonnée) en fonction de l’augmentation du temps d’examen (en abscisse). 3 - EXPLICATION La consultation du tableau ci-dessus permet de constater que le niveau de connaissance mesuré par la quantité de vocabulaire a, quel que soit le temps d’examen, un effet sur la probabilité d’apprentissage. Testé par les auteurs, cet effet du niveau de connaissance sur le pourcentage de bonnes réponses est significatif à p<.001. Les résultats d’analyses plus précises non rapportés dans ce document indiquent également l’existence d’un effet significatif (p<.001) de la rapidité de comparaison de synonymes sur l’apprentissage associatif. On voit que si l’on privilégie une interprétation qualitative du temps mis pour comparer deux synonymes en termes de disponibilité et d’organisation de la connaissance (la comparaison serait d’autant plus rapide que la connaissance est plus disponible, plus cohérente, mieux organisée), ces deux résultats témoignent de l’importance des connaissances, du double point de vue de leur étendue et de leur facilité d’activation, dans l’apprentissage d’une connaissance nouvelle. 5 8/ *******************************Exercice 2**************************** Alexander, Kulikowich et Schulze (1994) étudient l’influence de la connaissance sur la compréhension d’un texte scientifique chez 209 étudiants se destinant à la carrière d’enseignant. La connaissance est considérée à un niveau général (par exemple, en biologie) ainsi qu’à un niveau plus spécifique (par exemple, la division cellulaire). Les auteurs évaluent l’étendue de la connaissance générale en sciences physiques (les concepts, les principes fondamentaux) au moyen d’un questionnaire à choix multiples comprenant des questions du type: « Qu’est-ce que le mouvement Brownien ? ». Les étudiants sont ensuite répartis en 3 groupes en fonction de leurs scores standardisés ou scores z: 1/ le groupe « faible » (score z < -1); 2/ le groupe « moyen » (-1≤ score z ≤ +1); 3/ le groupe « fort » (score z > +1). L’épreuve de compréhension est composée de deux textes: l’un sur la théorie des quarks, l’autre sur la contribution du physicien Stephen Hawking au rapprochement entre théorie de la relativité et mécanique quantique. Le niveau de connaissance spécifique est préalablement évalué en fonction du contenu de ces deux textes. Quant au niveau de compréhension des textes, il est mesuré par plusieurs questions de rappel comme : « Un quark contient ... leptons ». On demande enfin aux étudiants d’évaluer de 1 (peu intéressant) à 10 (très intéressant) l’intérêt éprouvé pour chacun des textes. Variable Prédicteurs Connaissance générale du domaine Connaissance spécifique - Texte « Quarks » - Texte « Hawking » Critères Compréhension - « Quarks » - « Hawking » Intérêt - « Quarks » - « Hawking » Score maximum “faible” “moyen” “fort” Possible n=32 n=130 n=47 25 7.78 (1.31) 12.76 (1.96) 19.53 (2.22) 12 12 .12 (0.33) 1.12 (1.13) .25 (0.76) 2.08 (1.55) 1.53 (1.65) 3.57 (2.21) 13 13 3 (2.76) 3.31 (3.10) 4.53 (2.76) 4.95 (2.41) 7.06 (2.85) 7.92 (2.81) 10 10 4 (2.12) 5.63 (2.07) 4.25 (2.28) 5.98 (2.08) 5.70 (2.25) 7.30 (2.38) On présente ci-dessus les scores moyens et écarts-types (entre parenthèses) observés. Une série d’analyses de régression est ensuite effectuée sur les données correspondant à chacun des deux textes. Les résultats obtenus montrent que : - pour le texte « Quarks »: le pourcentage de la variance expliquée du score de compréhension (resp. du score d’intérêt) par le score de connaissance générale est de 21%, p<.001(resp. 8%, p<.01); - pour le texte « Hawking »: le pourcentage de la variance expliquée du score de compréhension par les scores de connaissance générale et de connaissance spécifique est de 32%, p<.001. Pour le score d’intérêt, 13% de la variance s’explique par les scores de connaissance générale et de connaissance spécifique (p<.01). 4 – EXERCICE 2 1. Au vu des données de groupe, que peut-on dire de la relation entre le niveau de connaissance générale du domaine et le niveau de connaissance spécifique des étudiants? 2. Le niveau de connaissance a-t-il une influence sur la compréhension des textes présentés? Que penser de la relation entre niveau de connaissance et intérêt? 5 - EXPLICATION Question 1 Il faut d’abord noter le faible niveau de connaissance spécifique des étudiants et plus particulièrement la très faible connaissance des notions abordées dans le texte « Quarks ». Cette remarque faite, on peut voir que le niveau de connaissance des notions spécifiques du texte « Hawking » est plus élevé chez les étudiants du groupe « fort » qu’il ne l’est chez ceux du groupe « faible ». Malgré le peu de connaissances spécifiques dont disposent les étudiants, ce résultat suggère l’existence d’une liaison 5 9/ positive entre ces deux niveaux de connaissance; les étudiants d’un niveau élevé de connaissance générale du domaine semblent aussi en connaître certains aspects plus spécifiques. Question 2 Pour le texte « Quarks », la connaissance du domaine est le seul prédicteur significatif du score de compréhension. La variabilité interindividuelle du niveau de connaissance spécifique étant extrêmement faible, il n’est pas étonnant que cette variable n’apporte aucune explication. Pour le texte « Hawking », la connaissance du domaine et celle de notions plus précises rendent compte environ du tiers de la variance du score de compréhension. On peut donc conclure à l’existence d’une relation entre le niveau de connaissance dans un domaine donné et le niveau de compréhension d’un texte portant sur des aspects précis de ce domaine. Il est enfin intéressant de remarquer que l’intérêt éprouvé pour la tâche semble aller de pair avec le niveau de connaissance d’autant que d’autres résultats, non rapportés ici, montrent que plus l’individu se déclare intéressé, plus grande est l’attention qu’il porte à la situation. La connaissance, l’intérêt et la compréhension semblent donc bien entretenir des relations fonctionnelles. *******************************Exercice 3**************************** L’influence de la capacité de la mémoire de travail (CMT) sur la performance cognitive varie-t-elle selon le niveau de connaissances ? En d’autres termes, la connaissance est-elle un modérateur de la relation entre CMT et performance cognitive ? Cette question est abordée empiriquement par Hambrick et Oswald (2005) dans une étude qui confronte trois hypothèses. La première hypothèse dite de compensation prédit que le niveau de connaissance atténue l’influence de la CMT sur la performance. La seconde hypothèse dite du « riche qui s’enrichit » postule que la CMT facilite l’utilisation de la connaissance. Enfin, l’hypothèse d’influences indépendantes énonce que les effets de la connaissance et de la CMT sur la cognition de haut niveau sont indépendants et se cumulent. La performance cognitive est mesurée chez les 318 jeunes adultes qui participent à l’étude à l’aide d’une tâche de navigation spatiale et d’une tâche de base-ball construites exactement de la même manière (items identiques dans deux contextes distincts). La consigne est la même pour chaque tâche. Il faut suivre le déroulement à l’écran d’une mission spatiale (d’un match de base-ball) pour indiquer ensuite : a) quelle planète (ou quelle base) est occupée après chaque déplacement de vaisseau (ou de joueur) ; b) quels vaisseaux retournent à la planète E (quelles bases sont occupées après chaque lancer) ; c) quels vaisseaux quittent la planète E (quels joueurs sont à l’extérieur des bases). On mesure également la connaissance qu’ont les participants du base-ball (règles, terminologie, etc.), la CMT (tâches d’empan complexe) et la vitesse perceptive. On observe les corrélations (toutes significatives à p<.01) suivantes entre les 3 prédicteurs et les 2 critères : 1. Capacité de la mémoire de travail (CMT) 2. Vitesse perceptive (VP) 3. Connaissance spécifique du base-ball (CS_BB) 4. Performance mnésique à la tâche de navigation spatiale (PM_NS) 5. Performance mnésique à la tâche de base-ball (PM_BB) 1 1,00 0,52 0,17 0,37 0,47 2 3 4 5 1,00 0,15 1,00 0,27 0,22 1,00 0,35 0,43 0,54 1,00 Les analyses effectuées conduisent à retenir parmi les modèles correspondant aux hypothèses testées le modèle ci-dessous : 6 0/ 1-R2 = 0,84 CMT 0,41 VP 0,31 PM_NS 0,34 0,16 0,17 1-R2 = 0,65 PM_BB 0,36 CS_BB 1-R2 = 0,97 Note : Les variables représentées ici dans des rectangles sont observées. Les estimations des coefficients de piste sont toutes significatives à .05 (voir les commentaires de l’exercice 4C2). 6 – EXERCICE 3 Quelle est l’hypothèse dont les prédictions sont les plus en accord avec la modélisation ci-dessus ? 7 – EXPLICATION Ces résultats ne sont pas en accord avec l’hypothèse de compensation selon laquelle le niveau de connaissance atténuerait l’influence de la CMT sur la performance. En effet, la relation directe entre CMT et PM_BB est positive et forte alors que la relation indirecte via CS_BB est de plus faible amplitude. La seconde hypothèse qui postule que la CMT facilite l’utilisation de la connaissance ne peut être véritablement évaluée avec ce modèle. Tout au plus peut-on noter l’effet significatif positif de la CMT sur la connaissance du base-ball, ce qui montre que les tâches de mémoire de travail mesurent des aspects fondamentaux de la cognition et de l’apprentissage (cf. cours 4C). Les résultats sont plutôt en accord avec l’hypothèse d’influences indépendantes de la CMT et de la connaissance spécifique (domaine du base-ball). En effet, la relation entre la CMT et la performance mnésique évolue peu quand les participants passent de la tâche de navigation spatiale à celle de base-ball (on pourrait vérifier que la différence entre les deux coefficients de piste 0,34 et 0,41 n’est pas significative). La connaissance spécifique par contre semble être un meilleur prédicteur de la performance mnésique à la tâche de base-ball que de celle à la tâche de navigation spatiale (on pourrait vérifier que la différence entre 0,16 et 0,36 est significative). La CMT et la connaissance spécifique du base-ball opèrent donc de manière indépendante dans la cognition de haut niveau. 6 1/ Bibliographie Ackerman, P.L. (1988). Determinants of individual differences during skill acquisition: Cognitive abilities and information processing. Journal of Experimental Psychology: General, 117, 288-318. Ackerman, P.L., Baier, M.E., & Boyle, M.O. (2005). Working Memory and Intelligence: The Same or Different Constructs? Psychological Bulletin, 131, 30–60. Alexander, P.A., Kulikowich, J.M., & Schulze, S.K. (1994). How subject-matter knowledge affects recall and interest. American Educational Research Journal, 31, 313-337. Anderson, J. (1983). The architecture of cognition. Cambridge, MA: Harvard University Press. Baddeley, A. D., & Hitch, G. (1974). Working memory. In G. H. Bower (Ed.), The psychology of learning and motivation: Vol. 8. Advances in research and theory (pp. 47–89). New York: Academic Press. Ben-shahar, G., & Scheffer, L. (2001). The relationship between the ability to divide attention and standard measures of cognitive ability. Intelligence, 29, 293-306. Bethell-Fox, C.E., Lohman, D.F., & Snow, R.E. (1984). Adaptive reasoning: Componential and eye movement analysis of geometric analogy performance. Intelligence, 8, 205-238. Borkowski, J.G. (1996). Metacognition: theory or chapter heading? Learning and Individual Differences, 8, 391-402. Borkowski, J.G. & Muthukrishna, N. (1992). Moving metacognition into the classroom: “Working models” and effective strategy teaching. In M. Pressley, K. Harris et J. Guthrie (Eds.), Promoting academic literacy: Cognitive research and instructional innovation (pp. 477-501). Orlando, FL: Academic Press. Bors, D.A., Stokes, T.L., Forrin, B., & Hodder, S.L. (1999). Inspection Time and Intelligence: Practice, Strategies, and Attention. Intelligence, 21, 111-129. Buehner, M., Krumm, S., Ziegler, M., & Pluecken, T. (2006) Cognitive abilities and their interplay: Reasoning, crystallized intelligence, working memory components, and sustained attention. Journal of Individual Differences, 27, 57–72. Butterfield, E.C. (1985). Instructional methods of studying the ontogeny of human intelligence. In D.K. Detterman (Ed.). Current topics in human intelligence (Vol. 1, pp. 202-222). Norwood, N.J.: Ablex. Carpenter, P.A., Just, M.A., & Shell, P. (1990). What one intelligence test measures: A theoretical account of the processing in the Raven Progressive Matrices Test. Psychological Review, 97, 404–431. Chi, M.T., Hutchinson, J.E., & Robin, A.F. (1989). How inferences about novel domain-related concepts can be constrained by structured knowledge. MerrillPalmer Quarterly, 35, 27-62. Corkill, A.J. (1996). Individual differences in metacognition. Learning and Individual Differences, 8, 275-279. Daneman, M., & Carpenter, P.A. (1980). Individual differences in working memory and reading. Journal of Verbal Learning and Verbal Behavior, 19, 450–466. Engle, R.W., & Kane, M.J. (2004). Executive attention, working memory capacity, and a two-factor theory of cognitive control. In B. Ross (Ed.), The psychology of learning and motivation (pp. 145–199). New York: Academic Press. Engle, R.W., Tuholski, S.W., Laughlin, J.E., & Conway, A.R.A. (1999). Working memory, short-term memory, and general fluid intelligence: a latent-variable approach. Journal of Experimental Psychology: General, 128, 309–331. Friedman, N.P., Miyake, A., Corley, R.P., Young, S.E., DeFries, J.C., & Hewitt, J.K. (2006). Not all executive functions are related to intelligence. Psychological Science, 17, 172-179. Gilmore, G.C., Royer, F.L., Gruhn, J.J., & Esson, M.J. (2004). Symbol-digit substitution and individual differences in visual search ability. Intelligence, 32, 4764. Glück, J., Machatb, R., Jiraskob, M., & Rollettb, B. (2002). Training-related 6 2/ changes in solution strategy in a spatial test: An application of item response models. Learning and Individual Differences, 13, 1–22. Hager, W., & Hasselhorn, M. (1998). The effectiveness of the cognitive training for children from a differential perspective: a meta-evaluation. Learning and Instruction, 8, 411-438. Hambrick, D.Z., & Oswald, F.L. (2005). Does domain knowledge moderate involvment of working memory capacity in higher-level cognition? A test of three models. Journal of Memory and Language, 52, 377-397. Hunt, E., Lunneborg, C.E., & Lewis, J. (1975). What does it mean to be high verbal? Cognitive Psychology, 7, 194-227. Hunt, E., Pellegrino, J.W., & Yee, P.L. (1989). Individual differences in attention. The Psychology of Learning and Motivation, 24, 285-310. Jensen, A. R. (1998). The g factor: The science of mental ability. Westport, CT: Praeger. Juhel, J. (1995). L'étude des bases biologiques de l'intelligence. In J. Lautrey (Dir.), L'universel et le différentiel en psychologie (pp. 449-477). Paris : P.U.F. Kane, M.J., & Engle, R.W. (2002). The role of prefrontal cortex in working-memory capacity, executive attention, and general fluid intelligence: An individualdifferences perspective. Psychonomic Bulletin & Review, 9, 637–671. Kane, M.J., Hambrick, D.Z., Tuholski, S.W., Wilhelm, O., Payne, T.W., & Engle, R.W. (2004). The generality of working-memory capacity: A latent-variable approach to verbal and visuo-spatial memory span and reasoning. Journal of Experimental Psychology: General, 133, 189–217. Kyllonen, P.C., Lohman, D.F. & Woltz, D.J. (1984). Componential modelling of alternative strategies for performing spatial tasks. Journal of Educational Psychology, 76, 1325-1345. Kyllonen, P.C., Tirre, W.C., & Christal, R.E. (1991). Knowledge and processing speed as determinants of associative learning. Journal of Experimental Psychology: General, 120, 57-79. Lansman, M., Donaldson, G., Hunt, E, & Yantis, S. (1982). Ability factors and cognitive processes. Intelligence, 6, 347-386. MacLeod, C.M., Hunt, E.B. & Mathews, N.N. (1978). Individual differences in the verifcation of sentence picture relationships. Journal of Verbal¸ Learning and Verbal Behavior, 17, 493-507. Marquer, J. (1995). Variabilité intra- et interindividuelle dans les stratégies cognitives : l’exemple du traitement de couples de lettres. In J. Lautrey (Dir.), L'universel et le différentiel en psychologie (pp. 107-130). Paris : P.U.F. Marquer, J., & Pereira, M. (1990). Les stratégies dans la vérification phrase-dessin In M. Reuchlin, F. Longeot, C. Marendaz et T. Ohlmann (Eds.), Connaître différemment (pp. 243-260). Nancy: P.U.N. Miyake, A., Friedman, N.P., Emerson, M.J., Witzki, A.H., & Howerter, A. (2000). The unity and diversity of executive functions and their contributions to complex “frontal lobe” tasks: A latent variable analysis. Cognitive Psychology, 41, 49–100. Oberauer, K., Süß, H.-M., Wilhelm, O., & Wittmann, W.W. (2003). The multiple faces of working memory: Storage, processing, supervision, and coordination. Intelligence, 31, 167–193. Pask, G. & Scott, B.C.E. (1972). Learning strategies and individual competence. International Journal of Man-Machine Studies, 4, 217-253. Pretz, J.E., Naples, A.J., & Sternberg, R.J. (2003). Recognizing, defining and representing problems. In J.E. Davidson and R.J. Sternberg (Eds.), The psychology of problem solving (pp. 3-30). Cambridge: Cambridge University Press. Rellinger, E., Borkowski, J.G., Turner, L.A., & Hale, C.A. (1995). Perceived task difficulty and intelligence: determinants of strategy use and recall. Intelligence, 20, 125-143. Richard, J.-F., & Zamani, M. (1997). L’analyse des stratégies dans les tests à l’aide des modèles de résolution de problème. In J. Juhel, T. Marivain & G. Rouxel (Eds.), 6 3/ Psychologie et différences individuelles: questions actuelles (pp. 83-86). Rennes : PUR. Roberts, M.J., Gilmore, D.J., & Wood, D.J. (1997). Individual differences and strategy selection in reasoning. British Journal of Psychology, 88, 473-492. Rozencwajg, P., Corroyer, D. & Altman, P. (2002). SAMUEL : diagnostic du fonctionnement cognitif. Manuel d’instructions. Delta Expert, Cergy. Schunn, C.D., & Reder, L.M. (2001) Another source of individual differences: Strategy adaptivity to changing rates of success. Journal of Experimental Psychology: General, 130, 59-76. Schweizer, K., & Moosbrugger, H. (2004). Attention and working memory as predictors of intelligence. Intelligence, 32, 329–347. Schweizer, K., Moosbrugger, H., & Goldhammer, F. (2005). The structure of the relationship between attention and intelligence. Intelligence, 33, 589–611. Siegler, R.S. (1996, 2000 pour l’édition française). Intelligences et développement de l’enfant : variations, évolution, modalités. Bruxelles : DeBoeck Université. Sternberg, R.J. (1977). Intelligence, information processing and analogical reasoning: The componential analysis of human abilities. Hillsdale, NJ: Erlbaum. Sternberg, R.J. (1985). Componential analysis: A recipe. In D.K. Detterman (Ed.), Current topics in human intelligence (Vol. 1, pp. 179-201). Norwood, N.J.: Ablex. Sternberg, S. (1969). Memory-Scanning: mental processes revealed by reaction-time experiments. American Scientist, 57, 421-457. Swanson, H.L. (1993). Individual differences in working memory. Intelligence, 17, 285-332. Vigneau, F., Caissie, A.F., & Bors, D.A. (2006). Eye-movement analysis demonstrates strategic influences on intelligence. Intelligence, 34, 261–272. Woltz, D.J. (1988). An investigation of the role of working memory in procedural skill acquisition. Journal of Experimental Psychology: General, 117, 319–331.