LES FAUTES D’ACCORD EN NOMBRE ENTRE LE SUJET ET LE VERBE EN FRANÇAIS ET EN ALLEMAND Magisterarbeit zur Erlangung der Würde der Magistra Artium der Philologischen, Philosophischen und Wirtschafts- und Verhaltenswissenschaftlichen Fakultät der Albert-Ludwigs-Universität Freiburg i. Br. vorgelegt von Sarah Schimke aus Münster SS 2004 Romanische Philologie: Französisch (Hauptgebiet) und Spanisch (Nebengebiet) Mes remerciements s’adressent au Dr. Lars Konieczny, pour son aide relative au contenu, à la modélisation et à la préparation de l’expérience, et aux Dr. Lars Konieczny, Prof. Wolfgang Raible, Prof. Georges Kleiber et Dr. Barbara Hemforth, qui ont rendu ce mémoire possible et m’ont apporté leur soutien pendant sa réalisation. Table de Matières Table de Matières......................................................................................................... 1 1. Introduction ............................................................................................................ 3 2. L’état de la recherche sur l’accord entre sujet et verbe.......................................... 5 2.1. Un modèle cadre de la production du langage ................................................ 5 2.2. Résultats empiriques fondamentaux ............................................................... 9 2.2.1. L’effet mismatch ...................................................................................... 9 2.2.2. L’asymétrie singulier- pluriel................................................................. 10 2.2.3. Les niveaux conceptuel et morpho-phonologique du nombre ............... 12 2.2.4. Résumé................................................................................................... 15 2.3. Modèles d’explication................................................................................... 16 2.3.1. Les modèles d’explication non-syntaxiques .......................................... 16 2.3.1.1. Les approches basées sur la distance .............................................. 16 2.3.1.2. Les approches basées sur la mémoire ............................................. 17 2.3.2. Etudes empiriques sur les modèles non-syntaxiques ............................. 19 2.3.3. Les modèles d’explication syntaxiques.................................................. 23 2.3.3.1. Clausal Packaging .......................................................................... 23 2.3.3.2. Feature Percolation ........................................................................ 24 2.3.3.3. Agreement and Movement............................................................... 26 2.3.4. Etudes empiriques sur les modèles syntaxiques .................................... 28 2.3.5. Le modèle basé sur l’activation de Hemforth et Konieczny .............. 33 2.3.5.1. Les données de base ........................................................................ 33 2.3.5.2. Le modèle........................................................................................ 35 2.3.6. Le potentiel explicatif du modèle basé sur l’activation ......................... 37 2.3.6.1. Le potentiel explicatif pour les données présentées jusqu’ici......... 37 2.3.6.2. Les effets de l’accord dans la compréhension................................. 38 2.3.6.3. L’existence d’une erreur générale de singulier ............................... 41 2.3.6.4. Résumé............................................................................................ 44 2.4. Résumé de l’état de la recherche................................................................... 44 3. La modélisation.................................................................................................... 48 3.1. Présentation globale d’ACT-R...................................................................... 48 3.1.1. La structure d’ACT-R ............................................................................ 49 3.1.2. Le niveau symbolique ............................................................................ 50 3.1.3. Le niveau sous-symbolique.................................................................... 53 3.2. Description du modèle .................................................................................. 56 3.2.1. Réflexions préliminaires ........................................................................ 56 3.2.2. Le modèle au niveau symbolique........................................................... 59 3.2.2.1. Le savoir lexical et morphologique................................................. 60 3.2.2.2. Les productions et les buts : introduction et vue d’ensemble ......... 61 3.2.2.3. Le traitement lexical des syntagmes ............................................... 62 3.2.2.4. Le rattachement des syntagmes modificateurs................................ 66 3.2.2.5. La représentation et le traitement du nombre.................................. 67 3.2.2.6. Les processus de traitement superordonnés .................................... 69 3.2.2.7. La production du nombre du verbe ................................................. 72 3.2.2.8. Résumé............................................................................................ 76 3.2.3. Le modèle au niveau sous-symbolique .................................................. 77 3.2.3.1. L’erreur générale de singulier ......................................................... 78 3.2.3.2. L’effet mismatch après les têtes au singulier .................................. 84 3.2.4. Résultats ................................................................................................. 86 1 3.2.5. Discussion .............................................................................................. 87 3.2.6. Couverture des données obtenues jusqu’ici ........................................... 89 3.3. Résumé.......................................................................................................... 94 4. Vérification empirique: Le transfert à la langue française................................... 95 4.1. Introduction ................................................................................................... 95 4.2. Methode ........................................................................................................ 96 4.3. Résultats ........................................................................................................ 98 4.4. Discussion ..................................................................................................... 99 5. Discussion générale et perspectives de recherche.............................................. 102 Bibliographie............................................................................................................ 105 Annexe ..................................................................................................................... 109 I. Le modèle ....................................................................................................... 109 Les types de chunk............................................................................................ 109 La mémoire déclarative ................................................................................... 109 Les productions ................................................................................................ 109 Les valeurs de paramètres ............................................................................... 114 Code pour le déroulement de l’expérience ...................................................... 114 II. Protocoles de passages du modèle................................................................. 117 protocole 1 ....................................................................................................... 117 protocole 2 ....................................................................................................... 118 protocole 3 ....................................................................................................... 121 protocole 4 ....................................................................................................... 124 protocole 5 ....................................................................................................... 129 protocole 6 ....................................................................................................... 134 protocole 7 ....................................................................................................... 139 III. Matériel de l’expérience............................................................................... 141 IV Zusammenfassung in deutscher Sprache ...................................................... 142 2 1. Introduction Ce travail porte sur les erreurs d’accord en nombre entre sujet et verbe en se plaçant dans une optique psycholinguistique. Nous tenterons d’éclaircir ce phénomène en étudiant en particulier la langue allemande et la langue française. Comme les processus de l’établissement de l’accord ne diffèrent pas fondamentalement entre le français, l’allemand et d’autres langues apparentées, pour lesquelles d’ailleurs la recherche sur ce phénomène est souvent plus avancée, nous nous référerons aussi bien à des résultats de recherche concernant l’allemand et le français qu’à des résultats concernant ces autres langues. Il s’agit de résultats concernant surtout l’anglais, mais aussi le néerlandais, l’espagnol et l’italien. Au premier abord, l’accord en nombre entre sujet et verbe semble être un processus extrêmement facile dans toutes ces langues, car il existe une règle claire: Le verbe se met au même nombre que la tête du syntagme nominal qui fonctionne comme sujet de la phrase (voir p. e. Dubois, 1965). Toutefois, l’application de cette règle nécessite l’établissement d’une relation entre deux éléments d’une phrase qui peuvent parfois être très éloignés l’un de l’autre. En psycholinguistique, le fonctionnement exact des telles dépendances sur de longues distances n’est pas encore entièrement clair. L’étude des erreurs peut être un moyen d’approfondir la connaissance du fonctionnement normal de telles dépendances. Dans les dernières années, une série d’expériences psycholinguistiques a été menée pour déterminer les conditions dans lesquelles apparaissent les erreurs et tirer des conclusions sur l’établissement de l’accord en général. Dans la deuxième partie de ce travail, nous résumerons l’état de cette recherche psycholinguistique sur l’accord sujet-verbe. Nous exposerons d’abord brièvement quelques bases théoriques sur lesquels se fonde la majorité des études. Ensuite, nous présenterons des résultats expérimentaux fondamentaux. Dans le paragraphe suivant, nous présenterons différents modèles d’explication et leur socle empirique respectif. Nous montrerons ainsi que le modèle basé sur l’activation, proposé par Hemforth et Konieczny (2003), est actuellement le modèle le plus apte à expliquer les résultats connus. Les parties suivantes de ce travail, en conséquence, sont basées sur ce modèle. Dans la troisième partie, qui représente la partie centrale, nous présenterons une modélisation cognitive sur ordinateur qui se base sur le modèle de Hemforth et Ko3 nieczny et qui reproduit les processus de l’établissement de l’accord. Cette modélisation, réalisée à titre d’exemples sur des phrases allemandes, a pour objectif de vérifier la consistance interne du modèle basé sur l’activation, de le préciser, de l’élargir et de poser ainsi le fondement pour dériver de nouvelles hypothèses empiriques. La modélisation étant réalisée dans l’architecture cognitive ACT-R (Anderson et Lebiere, 1998), nous présenterons en tout premier lieu les parties de cette architecture qui ont une importance pour notre modélisation. Ensuite, nous décrirons de façon détaillée notre modèle en lui-même. Finalement, nous discuterons la question de savoir dans quelle mesure le modèle peut expliquer les résultats connus. Dans une quatrième partie beaucoup plus courte, nous exposerons finalement une première contribution à une vérification expérimentale du modèle. Nous décrirons une étude que nous avons menée sur le français et qui a eu pour but de vérifier une partie des prédictions du modèle. Dans la dernière partie du travail nous expliquerons d’abord en guise de résumé dans quelle mesure le modèle et sa première vérification empirique ont pu apporter une meilleure connaissance de l’accord sujet-verbe telle que présentée dans la deuxième partie. Nous montrerons en particulier qu’ils ont contribué à comprendre de façon plus précise les processus impliqués dans l’établissement de l’accord dans les langues étudiées. Nous montrerons aussi que toutes les questions ouvertes n’ont pas pu être résolues et que de nouvelles questions ont émergé. En guise de conclusion, nous proposerons ainsi des élargissements possibles du modèle ainsi que des méthodes empiriques susceptibles de répondre aux questions soulevées. 4 2. L’état de la recherche sur l’accord entre sujet et verbe Dans cette deuxième partie de notre mémoire nous résumerons tout d’abord les bases théoriques des études consacrées à l’accord entre sujet et verbe. Ensuite, nous présenterons quelques résultats empiriques qui bénéficient d’un large consensus. Ceci nous permettra, dans un troisième temps, de décrire de façon détaillée les différents modèles d’explication et leur base empirique. 2.1. Un modèle cadre de la production du langage Les études expérimentales sur l’accord entre sujet et verbe reposent sur quelques hypothèses concernant la production du langage. Celles-ci forment un modèle cadre qui fait l’objet d’un large consensus dans la communauté scientifique.1 Dans ce mémoire, nous n’avons pas pour objectif d’évaluer ce modèle, mais sa présentation devra nous permettre de résumer les différentes études que nous présenterons de façon claire. Selon une première hypothèse de base, les processus de la production du langage se déroulent sur plusieurs plans (Garrett, 1980). On distingue plus précisément trois plans : Un plan conceptuel, sur lequel on produit un message qui n’a pas encore une forme linguistique, un plan de formulation, sur lequel on verbalise le message, et un plan articulatoire, sur lequel on réalise l’énoncé concret (voir p. e. Levelt, 1989, p. 814). A l’intérieur de chaque plan, on peut ensuite distinguer plusieurs unités de traitement. Dans le cadre de notre étude sur l’établissement de l’accord, c’est le plan de formulation qui retiendra toute notre attention. Parmi les travaux consacrés à ce plan, ce sont surtout Garrett (1975, 1980), Kempen et Hoenkamp (1987), Levelt (1989) et Bock et Levelt (1994) qui proposent les plus détaillés et approfondis. Bock et Levelt (1994) font, dans le plan de formulation, une première distinction entre un encodage grammatical et un encodage phonologique. A l’intérieur de l’encodage grammatical, ils distinguent ensuite l’encodage fonctionnel de l’encodage positionnel.2 1 Dans ce qui suit nous présenterons les hypothèses fondamentales des modèles de la production du langage qui supposent plusieurs plans du traitement. Comme nous le montrerons brièvement dans le paragraphe 2.2.3., il existe aussi des approches qui refusent totalement cette répartition en plusieurs plans. Etant donné que ces approches se réfèrent tout de même aux modèles classiques, nous ne présenterons d’abord que ces derniers. 2 La distinction entre l’encodage fonctionnel et l’encodage positionnel a déjà été introduite par Garrett (1975), qui l’a dérivée de ses analyses d’erreurs de production. Les erreurs de production sont infor- 5 On suppose généralement que l’encodage fonctionnel englobe la sélection lexicale et l’assignation de fonctions syntaxiques aux éléments sélectionnés (voir p. e. Bock et Levelt, 1994). On entend par sélection lexicale la récupération d’un mot du dictionnaire mental. Dans ce dictionnaire, on distingue trois plans de représentation des mots: Les mots en tant que concepts abstraits, les mots en tant qu’unités grammaticales (lemmes) et les mots en tant qu’unités morpho-phonologiques (lexèmes). La sélection lexicale consiste à assigner des lemmes aux concepts du message préverbal. C’est donc la forme grammaticale des mots qui, d’après ce modèle, est accessible et sélectionnée à ce stade du traitement: Si, par exemple, le lemme donner est récupéré, le système de production « apprend » entre outre qu’il s’agit là d’un verbe bitransitif. En revanche, la forme morpho-phonologique exacte que peut prendre ce verbe ne joue aucun rôle à ce stade du traitement (voir p. e. Bock et Levelt, 1994, p. 950 sq.). Ces informations lexicaux servent ensuite à assigner des fonctions aux lemmes récupérés, comme par exemple la fonction de sujet ou de l’objet indirect (appelées respectivement fonction nominatif et fonction accusatif par Bock et Levelt). Dans des phrases complexes, on n’assigne pas toutes les fonctions à la fois. On privilégie les structures qui se groupent autour d’un verbe : …verbs somehow control function assignment. A verb’s specification of its normally expressed arguments may serve to organize function assignment around a unit that is roughly equivalent to a clause. (Bock et Levelt, 1994, p. 966). L’unité de l’encodage est donc le verbe avec ses arguments, c’est-à-dire une proposition simple. Dans une phrase complexe comportant plusieurs propositions, chaque proposition est d’abord construite séparément, puis elle est reliée aux autres par des procédés de coordination, d’enchâssement ou autres. L’accord sujet-verbe est également établi pendant l’encodage fonctionnel: The obvious place to state this dependency [of subject-verb-agreement] in the general architecture we have set out is within functional processing, since it is there that the relevant relationships are represented. In functional processing terms, the creation of the dependency requires that the finite (tense and number carrying) verb and the noun lemma linked to the nominative function have the same number. (Bock et Levelt, 1994, p. 975) Le résultat de l’encodage fonctionnel est, d’après l’avis général, une représentation caractéristique de la phrase à produire qui permet d’exprimer les lemmes faisant parmatives, parce qu’elles se produisent de façon systématique. Garrett a opéré la distinction en question à partir de son observation des erreurs d’échange On trouve des échanges systématiques soit entre des éléments proches dans la phrase (on conclut alors qu’il s’agit d’une erreur qui s’est produite pendant l’encodage positionnel) soit entre des éléments qui ont une fonction syntaxique comparable, et cela indépendamment de la distance entre ces éléments dans la phrase. Ce dernier type d’échange s’effectue souvent exclusivement entre les morphèmes lexicaux, en laissant les morphèmes grammaticaux à leur place originale (concernant ces erreurs, on conclut qu’elles se sont produites pendant l’encodage fonctionnel, voir Garrett, 1975, p. 240 sq.) 6 tie de la phrase, leurs propriétés grammaticales (comme p. e. leur nombre) et leurs relations syntaxiques. En se plaçant dans l’optique de la grammaire générative et transformationnelle, Garrett propose d’assimiler cette représentation à la structure profonde de la phrase : Given the more or less traditional organization of transformational grammars, the natural formal correspondent of the functional level would be that of deep structure, and correspondingly for the positional level, that of surface structure. (Garrett, 1980, p. 216 sq.) L’encodage fonctionnel détermine le cadre syntaxique de la phrase, mais il ne détermine pas l’ordre de mots. Celui-ci est déterminé dans l’étape prochaine qui est l’encodage positionnel. A l’intérieur de l’encodage positionnel Bock et Levelt (1994) opèrent une distinction entre l’établissement de la structure syntagmatique de la phrase et l’insertion des morphèmes grammaticaux qui est réalisée ensuite. Avec Garrett (1980, voir cidessus), on peut concevoir le résultat de cette étape sous la forme d’un arbre syntaxique représentant la structure de surface de la phrase. Bock et Levelt (1994) désignent cette structure par le terme « cadre » (frame). Selon eux, les désinences et les mots de fonctions sont déjà présents dans ce cadre, tandis que les mots de contenu sont présents en tant que lemmes, mais pas encore en tant que lexèmes. Dans la dernière étape de la formulation, l’encodage phonologique, les lexèmes correspondant aux mots de contenu sont finalement eux aussi récupérés. Malgré tout, la consultation du dictionnaire ne suffit pas pour établir le plan articulatoire final d’un énoncé. En effet, les différents mots doivent encore être liés les uns aux autres pour former une phrase avec un certain rythme et une certaine intonation (voir Levelt, 1989, chapitre 8-10). Mais d’après le modèle cadre présenté ici, les processus du plan articulatoire ne jouent aucun rôle pour l’établissement de l’accord. La figure 1 donne une vue d’ensemble de la production du langage telle que la représente le modèle que nous venons de présenter. Il est important de noter que, contrairement à ce que la présentation rapide du modèle pourrait suggérer, on ne suppose généralement pas qu’une unité de traitement doit avoir terminé son traitement avant que l’unité suivante ne puisse commencer. Au contraire, on postule un traitement incrémentiel ; en d’autres termes, les processus des différents plans peuvent se dérouler simultanément, en sachant que toute information de plan supérieur est traitée dès qu’elle est accessible.3 3 Cette idée a été développée en détail par Kempen et Hoenkamp (1987). 7 Message Lexical Selection Constituant Assembly Functional Processing Function Assignment Positional Inflection Processing G r m m a t i c a l E n c o d i n g Phonological Encoding Figure 1: Vue d’ensemble des processus pendant la production du langage (adapté de Bock et Levelt, 1994, p. 946 ) to output systems Les flèches parallèles dans la figure 1 illustrent ce caractère incrémentiel de la production. En même temps, elles font allusion à une autre supposition contenue de manière implicite dans le modèle : l’information est transmise de façon unidirectionnelle en passant toujours d’un plan superordonné à un plan subordonné. D’après cette conception, le traitement sur un plan donné n’est influencé par celui d’aucun autre plan si ce n’est le plan directement superordonné. Cette conception du traitement est désignée sous le terme d’« encapsulation de l’information ».4 L’encapsulation de l’information fournit une explication pour la rapidité et le degré d’automatisation de la production du langage. Dans le cadre de ce mémoire il ne nous paraît pas nécessaire de traiter de manière plus détaillée des observations empiriques et des considérations théoriques qui ont contribuées au développement du modèle cadre présenté. Seul importe ici que ce modèle - sous la forme que nous venons d’exposer ou sous des formes semblables à celle-ci - soit accepté comme fondement théorique par nombre de chercheurs en psycholinguistique. La majorité des études sur l’accord sujet-verbe que nous présente- 4 Ce concept a été appliqué aux théories de la cognition humaine en 1983 par Fodor dans son livre intitulé The modularity of mind (Fodor, 1983). Il a ensuite trouvé un large écho dans bon nombre de théories sur les processus cognitifs. On trouve des arguments en faveur d’une encapsulation de l’information dans la production du langage chez Levelt (1989). Nous reviendrons brièvement sur cette question dans le paragraphe 2.2.3. 8 rons dans la suite de notre travail s’attachent à un examen plus approfondi de certains aspects de ce modèle. 2.2. Résultats empiriques fondamentaux Dans ce qui suit nous allons présenter les résultats empiriques qui sont globalement considérés comme bien établis et qui sont à ce titre pris en compte dans la plupart des théories sur l’accord sujet-verbe. 2.2.1. L’effet mismatch Les erreurs d’accord sujet-verbe qu’on observe dans le langage spontané partagent dans la plupart des cas la caractéristique suivante : l’énoncé en question contient un syntagme nominal (SN) qui est placé entre la tête du SN sujet et le verbe et qui n’a pas le même nombre que celle-ci: (1) The time for fun and games ARE over. (2) The readiness of our conventional forces ARE at an all-time-low. (exemples tirés de Bock et Miller, 1991) Dans les cas cités, la tête du SN sujet est au singulier, alors que le SN modificateur (aussi appelé SN local à cause de sa proximité avec le verbe) qui se trouve entre la tête et le verbe est au pluriel. Les locuteurs ont produit un verbe au pluriel au lieu d’un verbe au singulier qui se trouverait en accord avec la tête du SN sujet. On est alors tenté de penser que le pluriel du verbe est provoqué d’une manière ou d’une autre par le pluriel du SN local. Il s’ensuit que, dans des phrases du type « SN1 SN2 verbe », il devrait y avoir plus de fautes d’accord dans les cas où SN1 et SN2 n’ont pas le même nombre (mismatch entre SN1 et SN2) que dans les cas où ils ont le même nombre (match entre SN1 et SN2). Cette hypothèse a été testée dans une expérience de Bock et Miller (1991). Elles ont présenté auditivement des débuts de phrases différents à leurs sujets d’expérience. Les sujets devaient répéter ces débuts de phrases et les compléter par un verbe pour en faire des phrases complètes. Les débuts de phrases consistaient à chaque fois en un SN complexe et ils existaient en quatre versions: (3a) (3b) (3c) (3d) SN1 singulier, SN2 singulier (condition SS) : The key to the cabinet SN1 singulier, SN2 pluriel (condition SP) : The key to the cabinets SN1 pluriel, SN2 singulier (condition PS) : The keys to the cabinet SN1 pluriel, SN2 pluriel (condition PP) : The keys to the cabinets 9 L’étude a révélé un effet significatif de la variable « mismatch » : Il y avait plus d’erreurs d’accord dans les conditions SP et PS (90.5 % de toutes les erreurs d’accord commises dans l’expérience) que dans les conditions SS et PP. L’expérience a également mis à jour un effet d’interaction inattendu: L’effet mismatch se limitait aux cas dans lesquels la tête était au singulier et le modificateur au pluriel (condition SP). Dans le cas inverse (condition PS), le nombre de fautes n’était pas beaucoup plus élevé que dans la condition de contrôle, la condition PP. L’effet mismatch ne semble donc exister que pour des têtes au singulier. Cette expérience a pu être réalisée à plusieurs reprises dans différentes langues et a donné les mêmes résultats (pour l’anglais : entre autres Bock et Cutting, 1992, Bock et Eberhard, 1993, Eberhard, 1997 et Vigliocco et Nicol, 1998, l’allemand : entre autres Schriefers et van Kampen, 1993, Hölscher et Hemforth, 2000 et Hemforth et Konieczny, 2003, le français : entre autres Fayol et coll., 1994, Chanquoy et Negro, 1996 et Vigliocco, Hartsuiker et coll., 1996 et Franck et coll., soumis, le néerlandais : entre autres Vigliocco, Hartsuiker et coll., 1996 et Hartsuiker et coll., 2001, l’espagnol: entre autres Vigliocco, Butterworth et Garrett, 1996 et l’italien : entre autres Vigliocco et coll., 1995 et Franck et coll., soumis). L’asymétrie entre le singulier et le pluriel sera traitée dans le paragraphe suivant. 2.2.2. L’asymétrie singulier- pluriel Le cas des têtes au pluriel est un peu moins bien étudié que celui des têtes au singulier. Beaucoup d’études n’ont porté que sur la différence entre les conditions SS et SP (cela est par exemple vrai pour les études de Bock et Eberhard, 93, Hartsuiker et coll., 2001 et Schriefers et Van Kampen, 1993). Dans les expériences au cours desquelles les quatre conditions ont toutes été étudiées, on n’a la plupart du temps pas trouvé de différence significative entre les conditions PS et PP. Concernant les cas dans lesquels on a trouvé un effet mismatch avec des têtes au pluriel, celui-ci était toujours moins prononcé que dans les cas avec des têtes au singulier.5 En conclusion, l’asymétrie entre le singulier et le pluriel peut être considérée comme un fait bien établi. Les SN locaux au pluriel comme « cabinets » dans le SN complexe « the key to the cabinets » provoquent relativement souvent des erreurs de pluriel, c’est-à-dire des verbes qui sont faussement produits au pluriel, tandis que les SN locaux au sin- 5 Pour une liste de toutes les expériences significatives ainsi qu’une discussion plus poussée de cette question, voir paragraphe 2.3.6.3. 10 gulier comme « cabinet » dans « the keys to the cabinet » ne semblent pratiquement pas provoquer d’erreurs de singulier. L’hypothèse du marquage différentiel Eberhard (1997) a proposé une explication pour l’asymétrie singulier-pluriel qui est souvent reprise dans la littérature et que nous allons donc brièvement présenter. Elle suppose que l’asymétrie résulte d’un marquage différent des deux nombres. Elle se base ici sur le concept de Roman Jakobson, selon lequel une opposition linguistique oppose toujours une forme marquée à une forme non-marquée. La forme marquée possède un trait qui manque à la forme non-marquée. Ainsi, la forme non-marquée peut être utilisée soit en opposition à la forme marquée soit dans les cas de neutralisation de l’opposition entre ces deux formes (voir Jakobson, 1957). D’après Eberhard, le singulier est la forme non-marquée de l’opposition singulierpluriel.6 En d’autres termes, elle suppose qu’un SN au pluriel possède un trait [+pluriel] qui manque aux SN au singulier. De plus, elle postule que ce trait peut avoir une activation plus ou moins grande selon le degré d’évidence qui existe pour le bien-fondé de son existence.7 Pour établir l’accord entre sujet et verbe, le système de production doit vérifier si la tête du SN sujet a un trait de pluriel activé, et produire, en l’absence de trait pluriel, un verbe au singulier par défaut : Verb agreement may be implemented by a mechanism that checks whether the head noun of the subject phrase posses an activated plural feature. If there is none, (…) , the mechanism assumes that the noun is singular by default and retrieves a singular verb. (Eberhard, 1997, p. 149) Toujours selon Eberhard, ce mécanisme peut être interrompu par le trait de pluriel d’un SN local, tandis qu’un SN local au singulier ne devrait pas exercer d’influence interférente : On this account, plural nouns (...) will occasionally disrupt the agreement process because the mechanism mistakenly detects the activated number feature on the local noun and retrieves a plural verb. Singular local nouns (…) are less likely to disrupt the agreement process because they do not possess an activated number feature that can be mistakenly detected by the agreement mechanism. (Eberhard, 1997, p. 149 sq.) Cette approche est jusqu’ici la seule qui puisse expliquer l’asymétrie entre le singulier et le pluriel d’une manière convaincante. 6 Eberhard avance des arguments en faveur de son hypothèse qui sont indépendants de la question de l’asymétrie. Par exemple, on constate que les enfants apprennent le singulier d’un nom avant le pluriel. De plus, des expériences ont été menées dans lesquelles les sujets ont mieux retenu des mots au singulier que des mots au pluriel. 7 Pour le concept d’ « activation », voir la présentation du modèle de Hemforth et Konieczny, paragraphe 2.3.5. 11 2.2.3. Les niveaux conceptuel et morpho-phonologique du nombre Dans le modèle cadre présenté dans le paragraphe 2.1., le nombre est conçu comme une propriété essentiellement lexico-syntaxique. Bien sûr, cette propriété est également représentée sur d’autres plans du modèle : Sur le plan conceptuel, le pluriel exprime le fait que plusieurs instances de l’entité en question sont présentes ; sur le plan morpho-phonologique, le pluriel s’exprime dans des morphèmes bien définis. Mais si nous suivons le modèle évoqué, c’est l’encodage fonctionnel qui est essentiel pour l’établissement de l’accord, ce qui correspond à la représentation lexicosyntaxique du nombre.8 Si l’on trouvait des influences conceptuelles ou morphophonologiques sur l’établissement de l’accord, on devrait remettre en question certaines des hypothèses centrales du modèle cadre : En effet, cela signifierait soit que l’accord ne serait pas établi sur le plan fonctionnel soit qu’il n’y aurait pas d’encapsulation d’information stricte et que les informations d’un plan pourraient donc influencer les processus sur un autre plan. Cette dernière hypothèse est avancée entre autres par les modèles dits interactifs de la production du langage.9 Cette question a été étudiée au travers d’un grand nombre d’études empiriques. Les résultats principaux peuvent être résumés comme suit : Bock et Eberhard (1993) sont parties de l’hypothèse selon laquelle l’établissement de l’accord pourrait se fonder uniquement sur des indices morpho-phonologiques. Dans cette optique, la production d’un verbe au pluriel est provoquée par chaque nom qui finit par un morphème marquant en règle générale le pluriel (donc en anglais, /-s/, /z/ ou /-Əz/). Compte tenu du fait qu’en anglais la morphologie verbale est complémentaire à la morphologie nominale (dans la mesure où le singulier des verbes est marqué également par la désinence /-s/ à la troisième personne), l’anglais pourrait être favorable au développement d’une telle règle : The frequency and regularity of this marking [the marking of English plural nouns] in the experience of speakers, in conjunction with variations in verb morphology, could support the development of a processing heuristic by which the presence of a plural (or even a plurallike) suffix on a noun triggers a complementary verb form. Such a heuristic would be ex8 Dans certains cas dans lesquels le nombre grammatical n’est pas très clair, le choix du nombre du verbe semble être déterminé par le nombre conceptuel du SN sujet. Ceci peut par exemple arriver après des noms collectifs (« The United Nations is / are headquartered in New York City », voir Bock et Miller, 1991, p. 49). La même hypothèse vaut pour des SN complexes qui comportent une quantificateur comme les expressions « Eine Anzahl Filme » ou « Eine Menge Äpfel » en allemand (voir Schiefers et van Kampen, p. 208). De tels cas limites ne seront pas traités dans ce paragraphe, qui portera uniquement sur des cas dans lesquels le nombre grammatical n’est pas ambigu. 9 Le modèle interactif le plus connu est sans doute celui de Sternberger (1985). Il existe aussi des modèles plus récents qui ont des points en commun avec les modèles interactifs et selon lesquels l’établissement de l’accord est un processus de constraint satisfaction qui peut être influencé par des informations de tout type (voir p. e. Haskell et MacDonald, 2003). 12 pected to arise within any processing system that is sensitive to correlated features in the language, as in various connectionist models of language processing. (Bock et Eberhard, 1993, p. 59). Certes, cette règle en elle-même ne pourrait pas expliquer la totalité des phénomènes liés à l’accord sujet-verbe, mais comprise comme une règle qui agirait en interaction avec d’autres, sa vérification empirique semble utile. Bock et Eberhard ont testé si des noms locaux au singulier qui ressemblaient morphologiquement à des noms au pluriel (mots dits pseudo-pluriel, p. e. course en anglais) provoquaient plus de productions de verbes au pluriel que de noms au singulier qui ne ressemblaient pas à des noms au pluriel (p. e. court). Elles ne trouvèrent aucune différence entre ces deux types de noms. A titre d’exemple, le début de phrase « The player on the course » n’était pas plus souvent complété par un verbe au pluriel que le début de phrase « The player on the court » ; en revanche, « The player on the courts » provoquait un nombre élevé d’erreurs d’accord. On peut donc exclure l’hypothèse selon laquelle l’accord sujet-verbe serait un phénomène à caractère principalement morphophonologique. Toutefois, on peut trouver des effets provenant de la forme morpho-phonologiques des SN : Par exemple, dans une expérience en allemand menée par Schriefers et van Kampen (1993), ceux-ci trouvèrent un nombre particulièrement élevé d’erreurs d’accord lorsque l’article de la tête du sujet SN était ambigu quant au nombre. Vigliocco et coll. (1995) ont trouvé un effet semblable en italien. Dans leur expérience, l’effet mismatch était particulièrement fort dans les cas où seul l’article de la tête du SN sujet, mais non pas le nom lui-même, portait une marque de nombre nonambiguë. Franck et coll. (2003) rapportent pareillement qu’en français, les noms locaux ambigus en nombre ne provoquent pas beaucoup d’erreurs d’accord.10 Enfin, Largy et Fayol (2001) rapportent qu’il y a moins de fautes d’accord en français écrit si la marque du nombre du verbe n’est pas seulement graphique, mais aussi phonologique. En somme, la quantité d’indices morpho-phonologiques du nombre dans un début de phrase semble influencer la probabilité d’une faute d’accord sur le verbe. Cette découverte contrarie l’hypothèse selon laquelle de l’information ne peut circuler que de façon unidirectionelle dans le système de production du langage (voir 10 Ces résultats ne montrent pas forcément de différences par rapport à l’anglais, car l’article le plus fréquemment utilisé en anglais, the, est lui aussi ambigu quant au nombre (pour une discussion plus détaillée de cette observation, voir Schriefers et van Kampen, 1993). 13 Bock et Levelt, 1994).11 En ce qui concerne les influences conceptuelles ou sémantiques sur l’établissement de l’accord, on avait d’abord pensé que la probabilité d’un accord fautif du verbe avec le SN local était particulièrement élevée dans les cas où celui-ci pouvait être un sujet plausible du verbe (voir p. e. Bock et Miller, 91). Sachant que les SN sujets sont le plus souvent animés et concrets, Bock et Miller (1991) ont tenté de vérifier l’hypothèse selon laquelle des SN locaux animés et concrets entraîneraient plus d’erreurs d’accord. Elles ont utilisé dans leur expérience de manière systématique des SN têtes et des SN locaux animé ou non-animé et concret ou abstrait, mais elles n’ont pas pu trouver d’influence de ces variations sur le nombre de fautes d’accord. De plus, elles ont comparé des SN dits single-token avec des SN dits multiple-token. Single-token signifie qu’un SN se trouve lexicalement au singulier et se réfère en effet à un seul objet, alors que multiple-token signifie qu’un SN lexicalement au singulier se réfère à plusieurs objets. Un SN single-token serait par exemple le SN « the baby on the blankets », car il évoque l’image d’un seul bébé assis sur plusieurs couvertures. En revanche, le SN « the label on the bottles » serait un SN multiple-token, car ici on n’imagine pas une étiquette sur plusieurs bouteilles, mais une par bouteille. Si le plan conceptuel peut influencer l’établissement de l’accord, on devrait s’attendre à ce que « the lable on the bottles » provoque plus d’erreurs de pluriel que « the baby on the blankets ». Mais Bock et Miller (1991) n’ont trouvé aucune différence entre ces deux types de SN en anglais, et ce résultat a pu être confirmé par Vigliocco, Butterworth et Garrett (1996). De plus, Bock et Eberhard (1993) n’ont pas découvert plus d’erreurs de pluriel suivant des noms collectifs comme army que d’erreurs suivant des noms désignant des individus comme soldier. On a conclu de tous ces résultats que l’accord est essentiellement déterminé par le nombre lexical ou syntaxique du SN sujet. Toutefois, les résultats établis pour l’anglais n’ont pas pu être clairement confirmés dans d’autres langues. Par exemple, Hupet et coll. (1998) ont découvert qu’en fran- 11 D’après Vigliocco et coll. (1995), les résultats suggèrent d’abandonner le concept de l’encapsulation de l’information dans les différentes unités de traitement. Mais Schriefers et van Kampen (1993) font remarquer qu’on pourrait éventuellement expliquer les effets morphophonologiques par des phases dites de monitoring. Ils se réfèrent à Levelt (1989) qui postule qu’une phrase existe comme « internal speech » avant d’être prononcée. Des fautes d’accord pourraient éventuellement être corrigées pendant cette phase de monitoring, et ce d’autant plus facilement que le marquage morpho-phonologique serait univoque. 14 çais les SN locaux provoquent un effet mismatch plus prononcé s’ils sont des sujets plausibles du verbe que s’ils ne le sont pas.12 Vigliocco, Butterworth et Garrett (1996) ont trouvé en espagnol une différence entre des SN single-token et multiple-token, et le résultat a été le même pour Vigliocco, Hartsuiker et coll. (1995) pour l’italien et pour Vigliocco, Hartsuiker et coll. (1996) pour le français et le néerlandais. Même si dans ces expériences, l’accord restait essentiellement déterminé par le nombre lexical, et ce même pour les SN sujet multiple-token, on a trouvé de manière significative plus d’erreurs d’accord dans les conditions multiple-token. Il n’est pas évident comment on pourrait intégrer ces résultats dans le modèle cadre, même si cela pouvait être possible en admettant des suppositions supplémentaires.13 Pour résumer, on peut dire que, de toute évidence, l’accord sujet-verbe n’est pas un processus exclusivement sémantique ou conceptuel. Les résultats suggèrent plutôt que l’accord soit établi essentiellement sur le plan lexico-syntaxique, mais que des facteurs sémantiques ou morpho-phonologique puissent exercer une influence modulante. 2.2.4. Résumé D’après les données examinées jusqu’ici, l’accord entre sujet et verbe est établi essentiellement sur un plan lexico-syntaxique, mais peut être influencé par des informations sémantiques et morpho-phonologiques dans certaines langues. Indépendamment de telles influences, l’établissement de l’accord peut être perturbé par des SN qui se situent entre la tête du SN sujet et le verbe et qui n’ont pas le même nombre que le SN sujet (effet mismatch). Cet effet est particulièrement clair dans les cas où la tête est au singulier et le SN intervenant est au pluriel. Ceci a mené à l’hypothèse selon laquelle le singulier est le nombre pris par défaut, alors que le pluriel doit être explicitement marqué par un trait. 12 Il faut tout de même noter que ces auteurs ont augmenté la probabilité pour une confusion entre le SN interférant et le sujet de la phrase en employant l’ordre des mots non-canonique syntagme prépositionnel-verbe-sujet. 13 voir en particulier les propositions de Vigliocco, Hartsuiker et coll. (1996), qui supposent que dans certaines langues, l’accord n’est pas établi en accordant le nombre du verbe au celui du sujet, mais par une spécification indépendante du nombre du verbe qui ensuite est concilié avec celui du sujet par un processus d’unification. Cette proposition peut être intégrée dans le modèle cadre, car, selon elle, le plan conceptuel n’influence pas directement l’établissement de l’accord, mais seulement le nombre grammatical des SN et du verbe séparément. Parallèlement à cela, Bock et coll. ont proposé de séparer l’étape de l’établissement du nombre grammatical de l’étape de consultation du nombre dans un modèle intitulé « marking and morphing » (voir Bock et coll., 2001). 15 Ces observations relativement bien fondées peuvent être expliquées de manière plus ou moins satisfaisante par différents modèles de l’établissement de l’accord. Dans ce qui suit nous allons présenter les modèles d’explication existants et exposer dans quelle mesure ils ont pu être validés par des expériences. 2.3. Modèles d’explication Parmi les modèles d’explication existants, on peut distinguer ceux qui se basent sur la syntaxe de ceux qui ne se basent pas sur la syntaxe. Nous présenterons dans un premier temps les modèles non-syntaxiques et leur fondement empirique, dans un deuxième temps les modèles syntaxiques et leur base empirique et dans un dernier temps le modèle basé sur l’activation qui intègre des éléments des deux courants. 2.3.1. Les modèles d’explication non-syntaxiques Les modèles non-syntaxiques partagent l’hypothèse selon laquelle ce ne sont pas les relations syntaxiques, mais les distances linéaires entre les éléments d’une phrase qui sont la principale source potentielle des erreurs d’accord. Dans quelques modèles, cette supposition est fondée psychologiquement en faisant appel à des théories de la mémoire humaine. 2.3.1.1. Les approches basées sur la distance Une première approche selon laquelle la simple proximité entre le nom local et le verbe provoquerait des erreurs d’accord est celle de Francis (1986). Il explique les erreurs par l’existence de deux règles d’accord qui s’ajoutent à la règle normative qu’il nomme grammatical concord : notional concord et proximity concord. Selon lui, proximity concord signifie : « agreement of the verb with a closely preceding noun phrase in preference to agreement with the head of the noun phrase that functions as subject. » (Quirk et coll., cité d’après Francis, 1986). L’accord du verbe avec un nom qui lui est proche serait une variante possible de l’accord avec la tête du SN sujet, et cette variante gagnerait de plus en plus d’importance : « I believe that proximity concord is on the increase and perhaps on the verge of being standardized. » (Francis, 1986, p. 311). Haskell et MacDonald supposent également, mais avec d’autres explications, que la proximité entre le nom local et le verbe est un facteur d’influence primordiale. 16 D’après eux, il existe une dite « proximity constraint » qui se développe à partir d’informations distributionnelles : In English, (...) , the verb and subject noun are typically adjacent (...). If agreement computations make use of this distributional information, verbs will tend to agree with the nearest noun – a “proximity” constraint. (Haskell et MacDonald, 2002) Ces deux approches n’expliquent pas précisément comment l’accord est établi normalement. Francis propose une explication avec la règle supposée de grammatical concord, mais il n’explique pas comment se décide quelle règle est appliquée. Haskell et MacDonald, quant à eux, n’expliquent pas comment le système parvient dans la plupart des cas à établir l’accord du verbe avec des têtes parfois très éloignées. Les deux approches n’offrent pas non plus d’explication à l’asymétrie entre le singulier et le pluriel : Pourquoi la proximité jouerait-elle un rôle avec les SN au pluriel, mais non avec les SN au singulier ? Les approches basées sur la mémoire présentées dans le chapitre qui suit tentent de résoudre ce problème. 2.3.1.2. Les approches basées sur la mémoire Selon les approches basées sur la mémoire, il convient de prendre en compte non seulement la distance entre le nom local et le verbe, mais aussi celle entre la tête du SN sujet et le verbe. Jespersen fut le premier à suggérer que la difficulté dans l’établissement de l’accord s’explique par le fait qu’il faut retenir le nombre du sujet jusqu’au moment où l’on produit le verbe : « If the verb comes long after the subject, there is not enough mental energy left to remember what was the number of the subject. » (Jespersen, 1924, p. 345). Depuis, l’idée selon laquelle les possibilités de stocker des informations sont très restreintes a été largement développée dans la psychologie de la mémoire. En particulier, il est souvent assumé qu’il faut faire une distinction entre une mémoire de long terme qui a une capacité assez grande et une mémoire de travail dont la capacité est très restreinte. Selon ce concept, des informations stockées dans la mémoire à long terme doivent être représentées dans la mémoire de travail pour pouvoir être utilisées dans des processus de contrôle de résolution de problèmes (voir Baddeley, 1986). On a pu montrer que lorsque la mémoire de travail est chargée, des difficultés surgissent dans la compréhension (voir p.e. Gathercole et Baddeley, 1993) et la production du langage (voir Power, 1985). Bock et Cutting (1992), en s’appuyant sur Jespersen et Baddeley, avancent l’hypothèse selon laquelle plus la distance entre la tête et le verbe est grande et plus 17 les données intervenant entre les deux sont complexes, plus l’établissement correct de l’accord est difficile : If intervening material disrupts memory for the head noun or for its number, as a subject postmodifier increases in length or complexity, the probability of an agreement error should also increase. (Bock et Cutting, 1992, p. 103) De plus, ils proposent une explication pour l’asymétrie entre le singulier et le pluriel qui se fonde aussi sur la mémoire : Un nom au pluriel serait une charge particulièrement importante pour la mémoire de travail, parce qu’il serait plus complexe sémantiquement et morphologiquement qu’un nom au singulier : The association (…) between agreement errors and plural postmodifiers could arise because plurals are semantically and morphologically more complex than singulars, creating an additional drain on working memory capacity. (Bock et Cutting, 1992, p. 103) Cette approche peut expliquer l’établissement correct et fautif de l’accord ainsi que l’asymétrie singulier-pluriel observée. Fayol et coll. (1994) proposent une explication alternative, mais qui se réfère uniquement à la langue écrite. En partant des approches basées sur la distance, ils supposent que l’accord entre un nom et un verbe qui le suit directement est en règle générale un processus automatique. Le nombre verbal par défaut serait le singulier ; un nom au pluriel provoquerait automatiquement un marquage de pluriel sur le verbe suivant : We also assume that encountering a plural noun (…) or pronoun (…) triggers the activation of the regular verbal plural morpheme (-nt). This activation leads to the appending of –nt to the end of the immediately following verb. (Fayol et coll., 1994, p. 439) Fayol et coll. supposent de plus que cet accord automatique devrait être vérifié dans un processus de contrôle. Ce processus permettrait de vérifier si le sujet de la phrase est identique ou non au nom qui précède directement le verbe et ainsi de corriger d’éventuelles erreurs.14 Ceci solliciterait des ressources de la mémoire de travail et fonctionnerait logiquement d’autant moins bien que la charge pesant sur la mémoire de travail serait grande : This analysis suggests that when working memory is overloaded, the processes of checking and computing agreement can be disrupted (…) the probability for the verb to agree with the immediately preceding noun or pronoun increases. (Fayol et coll., 1994, p. 439 sq.) La distinction entre les processus automatiques et les processus de contrôle fournit une bonne explication aux fait que l’accord soit correctement établi dans la plupart des cas mais établi fautivement pour le reste. Il reste que Fayol et al (1994) ne se 14 Ceci ne veut pas dire que les formes verbales fautives sont déjà écrites et doivent être corrigées sur le papier. Tous les processus décrits sont censés se dérouler dans une étape de planification de l’écriture. 18 prononcent pas explicitement sur le problème de l’asymétrie entre le singulier et le pluriel.15 2.3.2. Etudes empiriques sur les modèles non-syntaxiques Nous avons déjà expliqué dans le paragraphe 2.3.1.1. que les modèles nonsyntaxiques qui se basent uniquement sur la distance ne peuvent pas rendre compte de l’asymétrie entre le singulier et le pluriel. Bock et Miller (1991) ont quand même testé l’hypothèse de Francis (1986) selon laquelle proximitiy concord serait une règle de plus en plus appliquée. D’après Bock et Miller cela supposerait l’existence de locuteurs pour lesquels Proximity Concord serait acceptable : « This hypothesis predicts that there should be speakers who find proximity concord acceptable and standardly use it in their speech » (Bock et Miller, 1991, p. 85). Bock et Miller n’ont trouvé aucun indice pour l’existence de tels locuteurs dans une comparaison des résultats de locuteurs dans leur expérience et des jugement d’acceptabilité des même locuteurs sur des phrases avec proximity concord (voir Bock et Miller, 1991, p. 85). Néanmoins, il ne faudrait pas rejeter entièrement les modèles basés sur la distance. Haskell et MacDonald (2002) ont montré que dans des phrases au sujet composé de deux SN disjoints (voir (4)), il existe une tendance très nette à toujours accorder le verbe avec le nom le plus proche. (4) The hat or the gloves is/are red. (Haskell et MacDonald, 2002) Ils en ont conclu que le supposé principe de proximité existe bel et bien. Hemforth et Konieczny (2003) ont découvert le même effet en allemand. Mais ils signalent que dans leurs phrases-tests, il n’y a pas de règle grammaticale claire qui permette de déterminer le nombre du verbe. Ils supposent que le principe de proximité ne jouerait plus aucun rôle dans des phrases où le nombre du verbe serait déterminé de manière évidente. Pour étayer cette supposition, ils ont introduit dans leurs tests un nouveau type de phrase, à savoir des phrases subordonnées allemandes dans lesquelles l’ordre des mots est sujet-objet-verbe (voir phrase (5)). Les sujets devaient compléter ces phrases par un auxiliaire. 15 Il y a des ressemblances évidentes entre leur conception de l’accord et celle d’Eberhard (1997). En effet, ils supposent eux aussi que le singulier est le nombre par défaut En partant de ce postulat, il est possible de dériver une explication pour l’asymétrie dans le cadre de leur modèle: Ils supposent que des noms au pluriel provoquent une désinence du pluriel sur le verbe, mais ils ne supposent pas que des noms au singulier suppriment une désinence du pluriel sur le verbe. Ils expliqueraient donc probablement l’absence d’un effet mismatch dans les conditions PS par une activation de la désinence du pluriel par le premier nom (le sujet) qui n’est pas annulé par le deuxième nom parce que celui-ci ne peut pas provoquer d’autres activations. Mais cette interprétation de leur approche reste bien sûr purement spéculative. 19 (5) Es ist unwahrscheinlich, dass die Krankenschwester die Spritze vergessen __. Dans ces phrases comme dans les phrases du type sujet-modificateur-verbe, il y a un SN (l’objet ou le modificateur) qui se trouve entre le sujet et le verbe. Un principe de proximité prédirait donc le même effet mismatch dans les deux types de phrase. Mais contrairement à ce qu’ils ont observé dans les constructions sujet-modificateurverbe, Hemforth et Konieczny n’ont trouvé aucun effet mismatch après des têtes au singulier dans des constructions sujet-objet-verbe (voir aussi paragraphe 2.3.5.1.). La fonction syntaxique du SN local semble donc faire une différence quant aux erreurs d’accord. Ce fait ne peut être expliqué ni par un principe de proximité ni par d’autres approches non-syntaxiques. Les approches basées sur la mémoire de travail ont elles aussi été examinées empiriquement. Bock et Miller (1991) ont varié dans une condition de l’expérience mentionnée plus haut la longueur des SN locaux. Elles ont comparé des débuts de phrase comme (3) (repris ici comme (6)) et (7) : (6) The key to the cabinets… (7) The key to the ornate Victorian cabinets… Dans une autre version de l’expérience elles ont intégré le nom local non pas dans un syntagme comme dans (6) et (7), mais dans une proposition : (8) The boy that liked the snakes… (9) The boy that liked the colourful garter snakes… Elles n’ont trouvé aucune différence significative entre le nombre d’erreurs après des débuts de phrase comme (6) et (8) et celui après des débuts des phrase comme (7) et (9). Au premier abord, ce résultat laisse penser que la mémoire de travail n’a pas d’importance dans l’établissement de l’accord. Mais Bock et Cutting (1992) font remarquer que la place du nom local dans un syntagme ou dans une proposition pourrait jouer un rôle. Ces différents cas de figure n’ont pas été traités séparément par Bock et Miller (1991). Bock et Cutting (1992) ont donc reproduit l’expérience de Bock et Miller dans des conditions mieux contrôlées, en minimalisant les différences entre les syntagmes locaux et les propositions locales et en dépouillant les résultats concernant les syntagmes séparément de ceux concernant les propositions. A titre d’illustration, voici les structures qu’ils ont comparées : (10) (11) (12) (13) The report of the destructive fire/s … The report of the destructive forest fire/s… The report that they controlled the fire/s… The report that they controlled the forest fire/s… 20 Ils ont constaté que la longueur des syntagmes avait une influence significative sur le nombre d’erreurs d’accord produites par les sujets. Il y avait légèrement plus d’erreurs d’accord après des syntagmes plus longs comme (11) qu’après des syntagmes moins longs comme (10). En revanche, la longueur des propositions n’avait aucune influence sur le nombre d’erreurs d’accord. En général, le nombre de fautes était beaucoup élevé après des syntagmes qu’après des propositions. L’effet de la longueur des syntagmes indique que la mémoire de travail semble jouer un certain rôle dans l’établissement de l’accord. Mais il reste à savoir pourquoi les résultats diffèrent selon la nature grammaticale du modificateur.16 Pour vérifier une fois de plus l’influence de la mémoire de travail, Bock et Cutting (1992) ont appliqué un dénommé reading span test, développé d’après un test de Danneman et Green (Daneman et Green, 1986, cité chez Bock et Cutting, 1992). Ce test mesure la capacité de la mémoire de travail verbale. Dans deux expériences, ils n’ont pas pu établir de corrélation entre les résultats de ce test et le nombre d’erreurs d’accords ; dans une troisième expérience, la corrélation était faible. En revanche, il existe une corrélation marquée entre les résultats du test et le nombre d’erreurs de répétitions commises par les sujets c’est-à-dire le nombre de débuts de phrase qui n’étaient pas répétées correctement avant d’être complétées. Il existe quelques autres expériences dans lesquelles il n’a pas été non plus possible d’établir d’une part de corrélation entre le nombre d’erreurs d’accord et les résultats dans le reading span test (Bock et Miller, 1991), d’autre part entre le nombre d’erreurs d’accord et le nombre d’erreurs de répétition (Bock et Miller, 1991, Bock et Cutting, 1992, Franck et coll., soumis, Vigliocco et coll., 1995, Vigliocco, Hatsuiker et coll., 1996). Si l’on s’en tient à ces expériences, les erreurs d’accord ne semblent pas être provoquées par une surcharge de la mémoire de travail. Fayol et coll. (1994), en revanche, montre qu’une surcharge de la mémoire peut influencer le nombre d’erreurs d’accord. Dans leur expérience, on dictait des phrases aux sujets. Ces phrases étaient formées d’un SN complexe et d’un verbe dont la forme du singulier et celle du pluriel étaient homophones, mais non pas homographes (voir phrase (14)). (14) Le chien des voisins arrive/ARRIVENT. La moitié des sujets devait simplement écouter les phrases et les écrire ensuite dans un cahier, en procédant phrase par phrase. L’autre moitié des sujets devait en revan16 voir aussi le paragraphe 2.3.3.1. 21 che d’abord écouter une phrase puis une liste des mots et devait ensuite écrire d’abord la phrase et après la liste de mots dans le cahier avant d’écouter la prochaine phrase. Cette condition créait une plus grande charge de mémoire par rapport au premier groupe de sujets. Fayol et coll. (1994) présentèrent les phrases dans les quatre versions (SS, SP, PS et PP). Dans les deux groupes, ils observèrent des résultats déjà connus. Mais dans le deuxième groupe, le nombre d’erreurs était systématiquement plus élevé que dans le premier groupe. Il en était conclu que la mémoire de travail joue un rôle dans l’établissement de l’accord. (pour des résultats comparables en français, voir Chanquoy et coll. 1996, Fayol et Got, 1991, Hupet et coll., 1996 et Largy et coll., 1993 ; en allemand, Hemforth, Konieczny et Schimke, 2003).17 Résumé En somme, la proximité entre le nom local et le verbe semble exercer une certaine influence sur le nombre d’erreurs d’accord (Haskell et MacDonald, 2002; Hemforth et Konieczny, 2003). Cette influence n’est toutefois perceptible que dans les cas où le nombre du verbe ne peut pas être déterminé par une règle grammaticale claire (Hemforth et Konieczny, 2003). L’influence de la mémoire de travail en général et celle de la distance entre le sujet et le verbe n’ont pas pu être démontrées pour chaque cas de figure. Les résultats suggèrent que les limites de la mémoire de travail n’apparaissent que sous le poids d’une charge supplémentaire à celle de la production du langage. Lorsqu’il n’y a pas de surcharge, l’établissement de l’accord ne représente pas une charge si lourde que des variations mineures dans les matériaux expérimentaux provoquent des effets observables dans la production langagière. Cela signifie que l’effet mismatch, qui apparaît solidement étayé, ne peut pas être expliqué au travers d’une approche qui se base uniquement sur la mémoire de travail, car cet effet se révèle également dans les expériences au cours desquelles la mémoire des sujets n’est pas sollicitée outre mesure. Par ailleurs, on a observé dans les expériences que l’on vient de résumer quelques facteurs syntaxiques, dont l’influence ne peut pas être expliquée à partir d’approches non-syntaxiques. Pourquoi existe-t-il une différence liée aux SN modificateurs et aux SN objets ? Comment s’explique la différence liée aux modificateurs sous forme de propositions et ceux sous forme de syntagmes ? Les théories basées sur la syntaxe 17 Il existe encore un autre résultat qui ne peut être expliqué que par une influence de la mémoire de travail : c’est le nombre généralement élevé des erreurs de singulier par rapport aux erreurs de pluriel. Cette observation est très importante pour le modèle basé sur l’activation et sera ainsi exposée dans le paragraphe 2.3.6. 22 qui seront exposées dans le prochain paragraphe essaient de rendre compte des ces observables. 2.3.3. Les modèles d’explication syntaxiques Les modèles d’explication basés sur la syntaxe ont deux points en commun : premièrement, la conception selon laquelle ce ne sont pas les distances linéaires, mais les relations syntaxiques entre les éléments d’une phrase qui déterminent la probabilité des erreurs d’accord. Deuxièmement, ils proclament qu’une phrase est transformée avant de prendre sa forme de surface et qu’il est nécessaire de prendre en compte les structures profondes afin de comprendre l’établissement de l’accord. 2.3.3.1. Clausal Packaging Comme nous l’avons mentionné ci-dessus, il est important pour Bock et Cutting (1992) de savoir si le SN local se trouve dans un syntagme modificateur ou dans une proposition modificatrice (voir phrase (10) à (13)). Ils se réfèrent en cela au modèle cadre de la production du langage, selon lequel les propositions sont les unités centrales de la production (voir paragraphe 2.1.). Ils affirment que les propositions sont traitées séparément les une des autres, et ce même dans des phrases complexes qui présentent un enchâssement dans la structure de surface. La phrase « The report that they controlled the fires was accurate. » consisterait donc en deux unités de l’encodage fonctionnel (« The report was accurate » et « they controlled the fire »), tandis que la phrase « The report about the dangerous forest fires was accurate.» ne consisterait qu’en une unité de traitement. Comme l’accord sujet-verbe s’effectue, toujours selon le modèle cadre, à l’intérieur des unités de l’encodage fonctionnel (Bock et Levelt, 1994), les éléments de la même unité devraient pouvoir interférer avec l’établissement de l’accord beaucoup plus facilement que ne le feraient ceux d’une autre unité (hypothèse intitulée clausal packaging) : This clausal packaging (...) partially insulates the information in one clause from the information in another. Since agreement is clause-bounded, the implication is that information from one clause should be unlikely to interfere with the specification of agreement in another clause. (Bock et Cutting, 1992, p. 104) Contrairement aux approches non-syntaxiques, cette théorie prédit correctement les résultats de Bock et Cutting (1992) que nous rappelons ici : Il y a plus d’erreurs d’accord après des syntagmes modificateurs, donc des éléments de la même proposition que la proposition matrice, qu’après des propositions modificatrices, et cela in- 23 dépendamment de la longueur, de la complexité ou du contenu des éléments en question. 2.3.3.2. Feature Percolation Clausal Packaging n’est cependant pas la seule approche basée sur la syntaxe qui puisse expliquer la différence liée aux syntagmes et aux propositions que nous venons d’évoquer. Nicol et ses collaborateurs (Nicol, Forster et Veres, 1997, Vigliocco et Nicol, 1998) proposent une explication alternative qu’ils ont développée à partir de l’Incremental Procedural Grammar (Kempen et Hoenkamp, 1987). L’accord en nombre dans l’ Incremental Procedural Grammar L’Incremental Procedural Grammar (IPG) se réfère explicitement au modèle cadre décrit plus haut tout en développant considérablement la description du plan de l’encodage grammatical. D’après Kempen et Hoenkamp, ce plan comporte l’armature d’un arbre syntaxique formé par différentes procédures. Ces procédures peuvent produire des constituants, établir des relations entre des constituants et actionner d’autres procédures. Par exemple, la procédure S (pour sentence) peut actionner entre autres les procédures SUBJECT et OBJECT. La procédure SUBJECT peut ensuite actionner la procédure NP (noun phrase). Quelques unes de ces procédures peuvent aussi former des traits, comme le trait [+plural]. Ces traits peuvent circuler dans l’arbre grâce aux procédures. Ainsi, le trait de pluriel de la tête du SN sujet est transmis jusqu’à la projection la plus haute du SN sujet (nœud indiqué par NP’ dans la figure 2 en bas). Ensuite, le trait est passé à la procédure S qui le passe à la procédure V (verb) qui le passe ensuite au verbe conjugué (voir Kempen et Hoenkamp, 1987, p. 210 sq.).18 Il est d’ailleurs important de noter que tous ces processus ont lieu pendant l’encodage fonctionnel et donc avant l’établissement définitif de l’ordre des mots (voir ibidem, p. 231 sq.) Le mécanisme de ‘feature percolation’ En partant de l’IPG, Nicol et ses collaborateurs supposent que les erreurs d’accord dans la condition SP (voir. p. e. phrase (3b), „The key to the cabinets“) se produisent parce que le trait de pluriel du nom local est accidentellement transmis trop haut dans 18 Au lieu de cela on pourrait aussi postuler un processus d’unification entre les traits du verbe et du SN sujet à travers la procédure S (voir Vigliocco, Hartsuiker et coll. (1996) pour une telle adaptation de l’IPG.) 24 l’arbre et est donc utilisé pour la spécification du nombre du verbe (feature percolation) : « Features for the mismatching local noun would be mistakenly passed to the highest SN projection from which they could interfere with agreement computation » (Vigliocco et Nicol, 1998, p. B17). Vigliocco et Nicol supposent à l’instar d’Eberhard (1997), qu’un nom au singulier ne possède pas de trait marqué et ne peut donc pas déclencher le mécanisme décrit. Dans ce cas, le nombre reste sous-spécifié et il est produit un verbe au singulier par défaut : « If the head noun is singular, it is unmarked. No feature is transmitted to the verb. An unmarked verb is assumed to be singular, and the singular form is produced. » (Nicol, Forster et Veres, 1997, p. 571). Dans ce modèle, la probabilité d’une erreur d’accord dépend du nombre de nœuds qu’un trait intervenant devrait passer à tort pour aller jusqu’à la projection la plus haute du SN sujet. Dans la figure 2, deux cas sont illustrés. On y voit que le nom local « books » dans la première phrase, dans laquelle le modificateur est une proposition, est plus éloigné de la plus haute projection du SN sujet en termes de nombre de nœuds que dans la deuxième phrase, dans laquelle le modificateur est un syntagme. Figure 2: Représentation syntaxique de deux fragments de phrase différents. Le chemin possible d’un trait de pluriel est indiqué par des flèches en gras. (tiré de Vigliocco et Nicol, 1998, p. B17) 25 Donc, selon ce modèle, la différence entre les syntagmes et les propositions quant aux erreurs d’accord n’est pas due au fait que les propositions sont des unités de production, mais à la distance syntaxique différente entre le nom local et la projection la plus haute du SN sujet. En somme, cette approche explique à la fois l’asymétrie entre le singulier et le pluriel et les effets de la distance syntaxique, et cela en partant d’une théorie psycholinguistique bien fondée. Cependant, elle a été critiquée par une autre approche syntaxique que nous allons présenter dans ce qui suit. 2.3.3.3. Agreement and Movement D’après Franck et coll. (soumis), les approches syntaxiques présentées jusqu’ici sont basées sur des conceptions de la syntaxe trop simplifiées : The proposed interpretation for the data is based on a very coarse approach to syntactic structure which does not provide the fine-grained analytical frame required to fully account for attraction. (Franck et coll., soumis, p. 7) Leur description de l’établissement de l’accord se fonde sur les conceptions beaucoup plus détaillées de la grammaire générative, notamment sur le Minimalist Program (voir Chomsky, 1995). L’accord en nombre en grammaire générative D’après Chomsky (1995), la relation d’accord est établie en deux étapes que Franck et coll. illustrent à partir de l’exemple (15) : (15) The author has written a letter Selon eux, une première représentation de la phrase revêt la forme suivante : (15a) ___ [AgrS have] [VP the author written a letter ] C’est sur ce plan que le sujet reçoit son rôle theta (rôle d’agent). Ensuite, toujours selon ce modèle, le nœud AgrS copie les traits importants du sujet. Ceci serait possible parce que ce nœud se trouve à ce moment-là dans une relation de c-commande avec le sujet.19 Le fait de copier les traits du sujet au nœud AgrS est appelé l’opération AGREE. En principe, cette opération suffit pour établir la relation de l’accord. AgrS copie les traits au verbe conjugué dans une étape ultérieure. Dans l’étape suivante, le sujet est transporté de sa position à l’intérieur du syntagme verbal à sa position canonique en tant que specHead d’AgrS (voir (15 b)). 19 C’est-à-dire que le sujet est dominé par un nœud sœur du nœud AgrS. Pour une explication de ce concept et des autres concepts de la grammaire générative évoqués dans ce paragraphe, voir par exemple Abraham (1988). 26 (15b) The author [AgrS has] [VP t written a letter ] Cette opération s’appelle MOVE. Elle est importante parce qu’elle permet une vérification des traits d’AgrS au moment où le sujet prend la position specHead par rapport à AgrS. Si l’opération MOVE est effectuée, il y au final deux occasions pour établir la relation d’accord. Influences interférentes sur les opérations AGREE et MOVE Comment explique-t-on l’influence interférente des SN locaux à partir de cette théorie? Franck et coll. supposent qu’il y a trois facteurs qui déterminent dans quel mesure un SN local peut exercer une influence interférente sur l’établissement de l’accord20 : 1. Est-ce que le SN interférent se trouve dans une relation de précédence par rapport au verbe au moment où l’accord est établi ?21 D’après Franck et coll., ceci est une condition nécessaire pour qu’il puisse y avoir un effet mismatch provoqué par le SN local. 2. De plus, est-ce que le SN interférent se trouve dans une relation de ccommande par rapport au verbe? D’après Franck et coll., l’influence du SN interférent devrait être plus importante dans ce cas. 3. Est-ce que l’accord est établi uniquement par l’opération AGREE, ou est-ce que le sujet est transféré dans une position de specHead par rapport au verbe grâce à l’opération MOVE dans la phrase en question ? Dans le deuxième cas, la relation d’accord serait moins susceptible d’être perturbée. A partir de ces facteurs, on peut dériver des prédictions concernant le type de phrase dans lequel un SN local peut interférer avec l’accord sujet-verbe (voir aussi le paragraphe suivant). Mais ce schéma n’offre pas d’explications à l’asymétrie entre le singulier et le pluriel, ce qui amène Franck et coll. (soumis) à se référer eux aussi à l’explication d’Eberhard (1997), tout en élargissant son concept de marquage : It has been suggested that plural nouns are better attractors because they are ‘marked’ for number, as compared to the unmarked or default singular value. (…). Markedness appears as a complex process that involves abstract syntactic representations but also morphological expression, these two levels requiring to be considered both from the standpoint of the interven- 20 Dans le cadre de ce mémoire, il serait trop long d’expliquer comment Frank et coll. aboutissent à ces facteurs (pour cela, voir Franck et coll., soumis, p. 7-11). On trouvera des exemples illustrant les différents cas dans le paragraphe suivant. 21 Ce moment peut être soit le moment de l’opération AGREE soit le moment de la vérification de l’accord après l’accomplissement de l’opération MOVE. Les deux processus sont susceptibles d’être perturbés. 27 ing noun and of the agreement target (the verb in the present studies). (Franck et coll., soumis, p. 24) Cette interprétation du terme marquage semble impliquer qu’un élément non seulement puisse être marqué ou non, mais qu’il existe différents degrés de marquage. Cette idée permet d’expliquer, dans la perspective de Franck et coll. nous semble-t-il, les différences graduelles observables dans l’asymétrie (voir paragraphe 2.3.6.3.). Les auteurs n’expliquent cependant pas en détail comment les différentes influences postulées s’unissent pour déterminer le degré de marquage d’un élément.22 Mis à part le manque de précision sur ce point, il y a tout de même un grand nombre de prédictions très précises qui peuvent être dérivées à partir de l’approche agreement and movement. Dans le paragraphe suivant, nous allons examiner dans quelle mesure ces prédictions ainsi que les prédictions des autres approches syntaxiques ont pu être vérifiées. 2.3.4. Etudes empiriques sur les modèles syntaxiques Outre les études mentionnées ci-dessus de Bock et Miller (1991) et Bock et Cutting (1992), à l’aide desquelles l’hypothèse de clausal-packaging a été développée et vérifiée, il existe des études de Branigan (1995) et de Nicol (1995) dans lesquels cette hypothèse a été testée en comparant des débuts de phrase contenant un modificateur syntagmatique avec ceux contenant un modificateur phrastique. Les expériences réalisées ont à nouveau révélé moins de fautes après les propositions qu’après les syntagmes. Elles montrent donc que les facteurs syntaxiques ont une importance. Mais, comme le soulignent Vigliocco et Nicol (1998), ces expériences ne peuvent tout de même pas valider les hypothèses selon lesquelles, d’une part, l’accord est établi sur le plan fonctionnel et, d’autre part, ce ne sont que les relations représentées sur ce plan qui jouent un rôle au niveau de l’accord. Pour tester cette hypothèse, Vigliocco et Nicol (1998) ont présenté visuellement des SN complexes à des sujets en leur donnant l’instruction de les compléter et d’en former une phrase interrogative du type (16). Un deuxième groupe de sujets devait former des phrases déclaratives du type de la phrase (17) que l’on retrouve dans d’autres expériences. (16) Is the helicopter for the flight safe? (17) The helicopter for the flight is safe. 22 Ceci est discuté de manière plus poussée chez Franck et coll. (2002). Mais la relation exacte entre des marques „syntaxiques“ et „morphologiques“ n’y est pas non plus expliquée. 28 Vigliocco et Nicol supposent que ces deux phrases ont la même structure sur le plan fonctionnel. Ce ne serait que pendant l’encodage positionnel que la phrase déclarative recevrait définitivement l’ordre des mots canonique tandis qu’une règle spéciale serait appliquée à la phrase interrogative pour réaliser l’inversion entre le sujet et le verbe (voir paragraphe 2.1. et Kempen et Hoenkamp, 1987, p. 231 sq.). Si l’accord est en effet établi pendant l’encodage fonctionnel, on devrait trouver la même quantité d’erreurs d’accord dans les deux groupes. Si, en revanche, l’ordre des mots a lui aussi une certaine influence, on devrait trouver des différences entre les deux groupes. Vigliocco et Nicol (1998) n’ont trouvé aucune différence entre les deux groupes, ni par rapport à la quantité totale d’erreurs ni par rapport à leur répartition selon les différentes conditions. Dans les deux groupes, les résultats des autres expériences ont été confirmés. En conclusion, ce résultat peut être interprété comme étayant l’hypothèse de l’importance décisive de l’encodage fonctionnel. Par ailleurs, comme cette hypothèse est étayée à la fois par l’approche de clausal-packaging et par celle de feature-percolation, l’expérimentation ne permet pas de trancher entre ces deux approches. Par conséquent, Franck et coll. (2002) ont mené une expérience qui était destinée à trancher entre ces deux approches et qui s’avéra décisive. Elles ont présenté des débuts de phrase à des sujets francophones et anglophones, débuts qui se composaient de SN complexes qui eux-mêmes se composaient de trois SN : (18) The computer with the programs for the experiments D’après l’approche de clausal-packaging, on ne devrait pas trouver de différences quant à l’influence des deux SN modificateurs : Les deux se trouvent dans la même proposition que la tête et devraient donc être pareillement susceptibles d’interférer sur l’accord (ce qui devrait se révéler à travers une manifestation identique de l’effet mismatch). En revanche, d’après l’approche de feature-percolation, le deuxième SN devrait avoir plus d’influence que le troisième : en effet, le deuxième SN est plus proche syntaxiquement de la projection la plus haute du SN complexe, ce qui rendrait plus probable un transfert fautif de son trait de pluriel que ne l’est un transfert du trait de pluriel du troisième SN. Les approches non-syntaxiques prédiraient d’ailleurs ici une influence plus grande du troisième SN, étant donné qu’il se trouve le plus proche du verbe. Mais, comme nous l’avons déjà montré plus haut, ceci ne semble pas être un facteur décisif. 29 Dans l’expérience de Franck et coll. (2002), le deuxième SN provoque un effet mismatch beaucoup plus important que le troisième SN. Les auteurs en concluent que la distance syntaxique entre le SN tête et le SN local joue un rôle primordial. Ceci vérifie la prédiction de l’approche de feature-percolation et falsifie celle de l’approche de clausal-packaging. Toutefois, Franck et coll. énumèrent d’autres résultats qui ne peuvent pas s’expliquer par l’approche de feature-percolation. Afin de prouver la validité de leur approche agreement and movement, ils ont examiné différentes constructions syntaxiques qui vérifient chacune un nombre différent parmi les trois facteurs postulés par l’approche agreement and movement (voir ci-dessus). Il s’agit des constructions suivantes : Konstruktion VPS23 : Konstruktion SPV : Konstruktion SclitV : Konstruktion OSV : Konstruktion OVS : (19) Telefonerà l’amica dei vicini [Téléphonera l’amie des voisins] (20) L’amica die vicini telefonerà [L’amie des voisins téléphonera] (21) Le professeur des élèves lit (22) Le professeur les lit (23) C’est les négociations que le ministre suspend (24) C’est les négociations que suspend le ministre. Les phrases sont données ici dans l’ordre de l’importance de l’effet mismatch prédit par Franck et coll. : Dans la construction VPS, le SN modificateur ne devrait pas provoquer d’effet mismatch, parce qu’il ne se trouve jamais dans une relation de précédence par rapport au verbe (le facteur 1 mentionné ci-dessus n’est donc pas présent). L’effet mismatch bien établi dans des phrases de construction SPV s’explique par le fait que le SN interférent se trouve dans une relation de précédence, et cela dans une étape cruciale de la construction de la phrase (plus précisément, au moment où le sujet se trouve dans une position de specHead par rapport au verbe). Dans les constructions SclitV et OSV, le nom local ne se trouve pas seulement dans une relation de précédence par rapport au verbe, mais aussi dans une relation de ccommande24, ce qui devrait renforcer l’effet mismatch (facteur 2). Les mêmes conditions sont remplies dans la construction OVS, mais l’établissement de l’accord est rendu plus difficile, selon Franck et coll., par le fait que seule la première étape (opé- 23 Nous avons repris les abréviations proposées par Franck et coll. (soumis) pour les différentes constructions : S = SN sujet, P = SN modificateur post-posé, V = verbe, clit =pronom clitique objet, O = SN objet 24 Dans la phrase (22) l’interférence se produit, comme dans la phrase (21), pendant la deuxième étape de l’établissement de l’accord, tandis que dans la phrase (23), l’objet dérange la première étape, qui est l’opération AGREE (voir Franck et coll., note 8). Les deux formes d’interférence devraient provoquer un effet mismatch. 30 ration AGREE) est réalisée.25 Ils prédisent un effet mismatch encore plus important dans cette construction (voir Franck et coll., soumis, p. 11 - 18). Franck et coll. ont présenté les SN complexes ainsi que le verbe à l’infinitif à leurs sujets. Les sujets répétaient ces éléments en les arrangeantes selon la construction demandée dans l’instruction. Un groupe donné de sujets devait toujours former la même construction. Dans ces expériences, les prédictions que nous venons de présenter ont pu être vérifiées, ce qui a permis l’établissement de la hiérarchie suivante entre les constructions : VSP > SPV > SclitV / OSV > OVS (Franck et coll., soumis, p. 39) On a trouvé le moins d’erreurs (voire quasiment aucune) dans la construction VSP (phrase (19)), et le nombre le plus élevé (jusqu`à 31.9 %) dans la condition OVS (phrase (24)). Ce qui est étonnant dans ces résultats, c’est surtout le fait que le SN local provoque moins d’erreurs dans la construction SPV (phrases (20) et (21)) que dans la construction SclitV (phrase (22)). Cet « effet d’attraction par l’objet » ne va pas dans le sens de l’hypothèse de feature-percolation : en effet, celle-ci prédit un effet mismatch moins important s’il est provoqué par des objets que s’il ne l’est par des modificateurs du sujet, car les premiers sont plus éloignés de la projection la plus haute du SN sujet que les derniers. Les résultats de Franck et coll. ne s’accordent cependant qu’en partie avec les résultats obtenus jusqu’ici. D’une part, Chanquoy et coll. (1996), Fayol et coll. (1994) et Largy et coll. (1993) ont également trouvé un effet d’attraction par l’objet assez important en français. D’autre part, Hartsuiker et coll. (2001) ont observé en néerlandais que l’effet lié aux SN objets était moins important que celui lié aux SN modificateurs du sujet. Ils rapportent de plus les résultats d’une expérience non-publiée en espagnol, dans laquelle des pronoms objets n’ont provoqué absolument aucun effet mismatch (Antón-Mendez, cité chez Hartsuiker et coll., 2001). Hemforth et Konieczny (2003), pour l’allemand, n’ont eux non plus pas trouvé d’effet mismatch avec des pronoms objets (voir ci-dessus et paragraphe 2.3.5.1). Ni l’approche de feature-percolation ni celle de agreement and movement ne peuvent expliquer ces différences inter-langues, de sorte que les données concernant les effets d’attraction par l’objet dans leur ensemble ne permettent ni de rejeter ni d’accepter définitivement une des deux approches. Il reste à savoir si l’approche de feature25 Cela est dû à l’inversion entre le sujet et le verbe. 31 percolation peut expliquer les autres résultats rapportés par Franck et coll. (soumis). Pour l’heure, nous ne voyons pas comment l’hypothèse de feature-percolation pourrait expliquer le fait qu’il n’y pas d’effet mismatch en phrase (19), car la distance entre le SN modificateur et la plus haute projection du SN sujet est la même dans cette phrase que dans la phrase (20).26 Le nombre élevé de fautes d’accord dans les constructions OSV et OVS ne peut pas non plus s’expliquer par l’hypothèse de feature-percolation sous sa forme actuelle. Ces résultats ne confirment que l’hypothèse de agreement and movement. Une évaluation conclusive de ces données sera fournie dans le paragraphe suivant. Résumé En somme, on peut constater que toutes les données qui peuvent être expliquées par l’hypothèse de clausal-packaging (Bock et Cutting, 1992, Vigliocco et Nicol, 1998) peuvent être aussi bien expliquées par l’hypothèse plus générale de featurepercolation. Par contre, il y a des données qui ne peuvent être expliquées que par l’hypothèse de feature-percolation et qui ne peuvent l’être par celle de clausalpackaging (Franck et coll., 2002). Il paraît donc justifié de rejeter l’hypothèse de clausal-packaging pour adopter l’hypothèse de feature-percolation. En revanche, il ne paraît pas possible pour le moment de trancher entre l’hypothèse de feature-percolation et celle de agreement and movement. Il est vrai que les données obtenues dans les constructions VSP, OVS et OSV ne peuvent pas être expliquées par l’hypothèse de feature-percolation. Mais il faut aussi prendre en considération le fait que ces résultats n’ont été chacun obtenus que dans une seule expérience. Avant d’avoir reproduit ces expériences, il semble être trop tôt pour rejeter l’hypothèse de feature-percolation. De plus, l’hypothèse de agreement and movement a aussi des limites. Les différences parmi les données qui concernent l’effet de l’attraction par l’objet ne peuvent être entièrement expliquées par aucune des deux hypothèses. Contrairement aux approches non-syntaxiques, les deux hypothèses peuvent expliquer de manière satisfaisante pourquoi nombre d’expériences ne dévoilent aucun signe révélant un rôle de la mémoire de travail (Bock et Miller, 1991 et Bock et Cut26 En revanche, l’hypothèse de agreement and movement peut expliquer les résultats obtenus par Vigliocco et Nicol (1998). Dans les phrases interrogatives, on observe aussi une inversion entre le sujet et le verbe, mais Franck et coll. (soumis) supposent que cette inversion n’a lieu qu’après les deux processus impliqués dans l’accord. En revanche, pour l’inversion libre en italien (phrase (19)), ils supposent que le sujet ne se trouve jamais dans sa position canonique (voir Franck et coll., soumis, p.12 sq.). 32 ting, 1992). Mais elles permettent difficilement d’expliquer d’autres effets qui montrent qu’il existe tout de même une certaine influence de la mémoire. Ceci concerne en particulier l’accroissement du nombre d’erreurs si la mémoire est soumise à une charge supplémentaire (Fayol et coll., 1994).27 Par ailleurs, notons que les processus dont l’existence est postulée par les hypothèses de feature-percolation et de agreement and movement impliquent souvent une charge importante de la mémoire de travail, car ils présupposent la représentation de structures syntaxiques parfois assez compliquées. Les auteurs n’évoquent ni l’éventualité ni, a fortiori, la réalisation de ce paramètre. En conclusion, l’hypothèse de feature-percolation et celle de agreement and movement peuvent expliquer quelques résultats qui ne peuvent pas être expliqués par les approches non-syntaxiques. Mais, si l’on reste dans l’optique des ces approches, il y a d’autres résultats qui restent inexplicables ou contradictoires. De plus, les auteurs n’expliquent pas comment les processus postulés s’inscrivent dans les conditions psychologiques réelles de la production du langage, notamment en ce qui concerne les restrictions de la mémoire de travail. Le modèle de Hemforth et Konieczny, que nous présenterons ensuite, essaie de résoudre ce problème. 2.3.5. Le modèle basé sur l’activation de Hemforth et Konieczny Comme le modèle basé sur l’activation (dans la suite : modèle d’activation) a été développé à partir de données de Hemforth et Konieczny (2003) que nous n’avons jusqu’ici que brièvement évoquées, nous résumerons d’abord ces données. Ensuite, nous présenterons le modèle en lui-même et nous étudierons finalement dans quelle mesure il peut être concilié avec les données exposées jusqu’ici. 2.3.5.1. Les données de base Deux expériences réalisées par Hemforth et Konieczny (2003) représentent la base principale du modèle d’activation. Dans ces expériences, un exercice de phrases à compléter à l’écrit à été proposé. Les sujets ont reçu un questionnaire de phrases incomplètes avec l’instruction de les compléter en mettant un auxiliaire. Il s’agissait dans la première expérience de phrases du type SPV (voir phrase (25)) et dans l’autre de phrases du type SOV (voir phrase (5), reproduite ici sous (26)). 27 La possibilité d’élargir les approches en introduisant un rôle de la mémoire de travail n’est pas à exclure. Mais jusqu’ici, cette possibilité n’a pas été réalisée. 33 (25) Die Farbe auf der Leinwand _____ trocken. (26) Es ist unwahrscheinlich, dass die Krankenschwester die Spritze vergessen ___. Comme dans la majorité des expériences présentées jusqu’ici, chaque phrase existait dans quatre versions différentes (conditions SS, SP, PS et PP, voir aussi phrases (3a) à (3d)). Les résultats pour les phrases du type SPV sont synthétisés dans la figure 3. pourcentage d'erreurs 16,0 14,0 12,0 match 10,0 mismatch 8,0 6,0 4,0 2,0 Figure 3: Erreurs d’accord en construction SPV 0,0 tête sg tête pl On observe l’effet mismatch auquel on pouvait s’attendre pour les têtes au singulier, ainsi que l’absence de cet effet pour les têtes au pluriel (asymétrie singulier-pluriel). Par ailleurs, on est frappé du nombre particulièrement élevé de fautes de singulier. Le même nombre élevé de fautes de singulier se retrouve dans la construction SOV (voir figure 4). Mais ici, il n’y a pas d’effet mismatch après les têtes au singulier (contrairement aux résultats en français). En revanche, on observe un effet mismatch pour les têtes au pluriel. Ces résultats ont été retrouvés dans deux autres expériences menées par Hemforth et Konieczny (voir également Hemforth et Konieczny, 2003). pourcentage d'erreurs 12,0 10,0 8,0 match mismatch 6,0 4,0 2,0 Figure 4: Erreurs d’accord en construction SOV 0,0 sujet sg sujet pl Au bilan, trois effets ont été observés dans ces expériences : Une tendance générale à mettre des verbes au singulier même quand le sujet est au pluriel (donc une erreur générale de singulier), l’effet mismatch pour les sujets au singulier dans la construc34 tion SPV, mais non dans la construction SOV, ainsi que l’effet mismatch pour les sujets au pluriel dans la construction SOV, mais non dans la construction SPV. 2.3.5.2. Le modèle Le modèle d’explication développé par Hemforth et Konieczny (2003) se distingue des modèles présentés jusqu’ici surtout par le fait que la description des processus de l’accord ne se fait pas indépendamment du paradigme expérimental dans lequel ces processus sont étudiés. Hemforth et Konieczny décrivent en détail les processus qui sont supposés intervenir durant l’expérience. Dans les expériences d’Hemforth et Konieczny, ainsi que dans toutes les expériences décrites jusqu’ici, la tâche expérimentale comprend des processus de compréhension comme des processus de production : Les sujets d’expériences sont toujours confrontés avec un SN complexe, qu’ils doivent nécessairement comprendre avant de procéder à la production du verbe. Hemforth et Konieczny supposent que pendant la lecture d’une tête qui se trouve au pluriel, les sujets forment un trait de pluriel pour représenter le nombre du SN, et que les effets qu’on peut observer lors de la production du verbe peuvent être expliqués pour une grande partie par des changements d’activation de ce trait de pluriel. Les auteurs ne s’attendent pas à des effets similaires pour des têtes au singulier, car ils supposent, en se basant sur Eberhard (1997), que le singulier est le nombre par défaut, et qu’il est en cela non marqué par un trait spécifique mais seulement par l’absence du trait de pluriel. L’erreur générale de singulier Comme souvent dans les modèles de la mémoire humaine (voir aussi la troisième partie de ce travail), Hemforth et Konieczny supposent que l’activation des éléments de la mémoire baisse continuellement avec le temps. Si l’activation tombe sous un seuil critique, l’élément en question ne peut plus être récupéré, il est donc « oublié ». Hemforth et Konieczny se réfèrent à ce mécanisme pour expliquer l’erreur générale de singulier : L’activation du trait de pluriel, qui est formé lors de la lecture de la tête au pluriel, baisse pendant le traitement du reste du début de la phrase. Or, au moment de la production du verbe, le locuteur doit encore être capable de se souvenir du trait de pluriel. Sinon, il va produire un verbe au singulier par défaut : When Subjects (...) are plural, the plural feature becomes activated, but its activation decays so that it eventually gets lost by the time the verb must be produced congruently. More errors (singulars) will hence be produced with plural Subjects because the reason to depart from the base tendency, the plural marking, gets lost in some cases. This is true for both Subject-PP and Subject-Object constructions followed by a verb. (Hemforth et Konieczny, 2003, p.5). 35 Hemforth et Konieczny expliquent ainsi le nombre élevé d’erreurs du singulier dans leurs expériences par le fait que l’activation du trait de pluriel puisse tomber sous le seuil critique. L’effet mismatch après les sujets au singulier Hemforth et Konieczny expliquent l’effet mismatch après les sujets au singulier en reprenant les idées développées dans l’approche de feature-percolation. Ils supposent que le trait de pluriel du modificateur marque fautivement tout le SN sujet : The only way [for modifiers] to interfere with the head noun is by percolating of the plural feature across the head, increasing the number of erroneous plural productions (Hemforth et Konieczny, 2003, p.6). En ce qui concerne les phrases avec la construction SOV (expérience 2), l’absence d’un effet mismatch pour les têtes au singulier est prédite par l’approche de featurepercolation (voir aussi le paragraphe 2.3.4.): « There is no way the number marking on the Object could percolate to the Subject of the sentence, which is a VP-external argument. »(Hemforth et Konieczny, 2003, p.5). La réactivation du trait de pluriel dans les constructions SOV Comme un SN local au singulier n’est pas marqué par un trait de nombre, il ne peut pas provoquer de feature-percolation. Il est donc tout à fait prévisible qu’il n’y ait pas d’effet mismatch après des têtes d’un SN sujet au pluriel, comme cela a été vérifié dans la première expérience. En revanche, l’effet mismatch qui a été trouvé dans la deuxième expérience n’est prédit par aucune des théories présentées jusqu’ici. Hemforth et Konieczny expliquent ce résultat par un mécanisme de réactivation : An intervening plural-Object (…) can reactivate the plural feature, so that it can be retrieved at the verb more easily. (…) We assume that the reactivation of the plural feature is restricted to verb arguments like Objects. Objects are directly integrated with the verb, so that their feature can interfere with those of other verb arguments. (Hemforth et Konieczny, 2003, p.5, 6). D’après eux, l’effet mismatch après des sujets au pluriel repose ainsi sur des bases entièrement différentes par rapport à celui qui suit des sujets au singulier : Après des sujets au pluriel, le trait de pluriel du sujet peut être réactivé par un autre SN au pluriel, ce qui réduit l’erreur générale de singulier dans la condition PP par rapport à la condition PS. Cette réactivation ne peut être effectuée que par des arguments du verbe, comme l’objet, et non pas par un SN modificateur du sujet. En somme, le modèle offre une explication aux trois effets relevés par Hemforth et Konieczny (2003). Il intègre des éléments des approches syntaxiques et des appro36 ches non-syntaxiques. L’effet mismatch après des têtes au singulier trouve son explication dans l’approche syntaxique de feature-percolation. ; en revanche, l’erreur générale de singulier et l’effet mismatch après les sujets au pluriel en construction SOV trouvent leur origine dans les propriétés de la mémoire de travail. 2.3.6. Le potentiel explicatif du modèle basé sur l’activation Le modèle d’activation a été développé pour expliquer les données obtenues par Hemforth et Konieczny (2003). Jusqu’ici, il manque à la fois une vérification empirique du modèle (voir la quatrième partie de ce travail) et une analyse détaillée de son pouvoir explicatif pour les données déjà connues. Dans les trois paragraphes suivants, nous tenterons de mener une telle analyse. Nous chercherons d’abord à savoir si et comment le modèle d’activation peut expliquer l’essentiel des données que nous avons présentées jusqu’ici. Ensuite, nous examinerons de plus près si les données connues concordent avec deux prédictions du modèle d’activation qui le distinguent justement des autres approches : premièrement, la prédiction d’effets d’accord également pendant la compréhension, deuxièmement, la prédiction d’une erreur générale de singulier. 2.3.6.1. Le potentiel explicatif pour les données présentées jusqu’ici Le modèle postule que l’établissement de l’accord représente une charge pour la mémoire de travail. Le fait qu’on n’ait trouvé que de faibles signes (parfois même aucun) d’une corrélation entre la charge de la mémoire de travail et le nombre de fautes d’accord (voir les résultats de Bock et Miller, 1991 et Bock et Cutting, 1992, présenté dans le paragraphe 2.3.2.) n’est cependant pas incompatible avec ce modèle : en effet, dans ces calculs faits à partir de ces expériences, on confondrait l’effet mismatch, sur lequel la performance de la mémoire de travail devrait avoir peu d’effet, avec l’erreur générale de singulier (voir aussi le paragraphe suivant). Le fait qu’on ait trouvé des influences de la mémoire de travail dans d’autres paradigmes expérimentaux comme le fait que le nombre d’erreurs augmente généralement en parallèle avec l’augmentation de la charge de mémoire (voir Fayol et coll., 1994 et Hemforth, Konieczny et Schimke, 2003) se trouve évidemment en accord avec le modèle. Basé sur l’approche de feature-percolation, le modèle d’activation peut également expliquer des influences de nature syntaxique. Cela concerne la différence entre les 37 syntagmes et les propositions, entre les objets et les modificateurs, entre le deuxième et le troisième SN dans les SN composés de trois SN simples, ainsi que le fait qu’on ait pu trouver l’effet mismatch jusque dans les phrases interrogatives dans lesquelles le verbe occupe la première position (voir ci-dessus).28 Comme nous l’avons montré plus haut, il existe d’autres résultats que l’approche de feature-percolation n’explique pas, notamment l’effet important de l’attraction par l’objet en français et les résultats qui concernent les constructions VSP en italien et OVS/OSV en français (Franck et coll., soumis). Ces résultats ne peuvent pas être expliqués par le modèle d’activation sous sa forme actuelle. Mais étant donné que dans le cadre proposé par ce modèle, on ne cherche pas une explication en partant exclusivement d’une hypothétique structure profonde - contrairement à l’approche de feature-percolation - un élargissement du modèle qui permette d’intégrer de manière satisfaisante les effets de l’ordre des mots n’est pas à exclure. En somme, une partie des données obtenues jusqu’ici reste en dehors du champ d’explication de ce modèle. Mais les données fondamentales qui sont relayées par les approches syntaxiques et non-syntaxiques peuvent être expliquées. De plus, il n’y a pas de données qui puissent clairement invalider le modèle. 2.3.6.2. Les effets de l’accord dans la compréhension Dans le cadre du modèle d’activation on suppose que des processus d’une grande importance pour la production du verbe (la formation du trait de pluriel et son assignation éventuellement fautive à un nœud) ont lieu pendant la lecture du préambule, c’est-à-dire du début de phrase.29 On peut en déduire des prédictions qui concernent des expériences de compréhension : On devrait trouver des difficultés de compréhen- 28 Ce résultat ne peut néanmoins pas être expliqué aussi aisément par le modèle d’activation que par l’approche de feature-percolation, parce que selon le modèle d’activation, l’ordre des mots final est considéré comme un facteur important (voir aussi la suite du paragraphe). Mais il faut aussi prendre en compte que dans l’expérience en question (Vigliocco et Nicol, 1998), le SN complexe a été présenté aux sujets avant que ceux-ci ne forment d’abord le verbe puis répètent le SN. Or, on peut considérer que les processus décrits par le modèle d’activation se déroulent déjà pendant la première présentation du préambule. Le modèle d’activation peut ainsi expliquer pourquoi il existe un effet mismatch dans les phrases interrogatives, mais il n’explique pas bien pourquoi il n’y a aucune différence entre les deux groupes expérimentaux. 29 Cette interprétation paraît très naturelle dans le paradigme de complètement qui est utilisé par Hemforth et Konieczny, car la lecture est directement suivie par la production du verbe. En revanche, il reste à savoir quelles prédictions ferait le modèle d’activation pour les expériences dans lesquelles le préambule est répété avant d’être complété. Dans ce cas, il y a deux représentations possibles de la phrase qui sont sans doute liées entre elles : la représentation qui est formée lors de la première lecture et celle qui est formée lors de la répétition du préambule. Le transfert du modèle d’activation sur d’autres paradigmes sera encore discuté dans les prochains paragraphes. 38 sion après les mêmes débuts de phrase qui ont provoqué des difficultés de production -c’est-à-dire des erreurs d’accord- dans les expériences rapportées jusqu’ici. Nicol, Forster et Verres (1997) ont mené quelques expériences de compréhension dans lesquelles les sujets ont dû lire une série de phrases complètes, grammaticalement correctes et qui comportaient des SN complexes comme sujets. Chaque phrase existait dans les quatre versions bien connues (voir phrases (27a)-(27d)). (27a) (27b) (27c) (27d) condition SS : The author of the speech is here now. condition SP : The author of the speeches is here now. condition PS : The authors of the speech are here now. condition PP : The authors of the speeches are here now. Dans une des expériences, on a présenté ces phrases mot par mot aux sujets. A chaque présentation de mot, on présentait en même temps un autre mot qui ne constituait pas une suite acceptable de la phrase. Les sujets devaient alors décider par lequel des deux mots la phrase devait être complétée (un paradigme appelé maze test). Ainsi pouvait-on mesurer pour chaque mot dans quel espace de temps il était reconnu comme étant la bonne suite de la phrase. Dans une deuxième expérience, on a présenté les phrases en entier aux sujets, qui devaient appuyer sur un bouton dès qu’ils les reconnaissaient comme bien formées (il se trouvait des phrases de distraction mal formées entre les phrases expérimentales). Le tableau 1 représente l’espace de temps dont les sujets avaient en moyenne besoin pour reconnaître que le verbe était la bonne suite de la phrase dans l’expérience 1, et pour reconnaître que la phrase en question était bien formée dans l’expérience 2. Condition Exp. 1 Exp. 2 SS 669 1920 SP 739 2044 PS 724 1995 PP 724 1994 Tableau 1 : Temps de réaction (en millisecondes) dans les différentes conditions. (tiré de Nicol, Forster et Verres, 1997, p. 576 et 577) Comme on le voit dans ce tableau, le temps de lecture, dans les deux expériences, différait considérablement entre la condition SS et la condition SP. Selon Nicol et coll., les temps de lecture longs indiquent que les sujets s’attendaient à ce que le verbe ait un autre nombre (voir Nicol et coll., 1997, p. 577).30 Des tests statistiques ont montré que la différence entre les conditions SS et SP était significative, mais 30 Cette interprétation apparaît plausible surtout en raison du fait suivant : dans une autre expérience avec les même débuts de phrases, mais avec des verbes non-marqués pour le nombre, on n’a plus du tout trouvé de différences entre les quatre conditions différentes (« The author of the speech will be well rewarded. », voir Nicol et coll., 1997, p. 579). 39 non pas celle entre les conditions PS et PP. Les auteurs constatent, dans la lignée de ces résultats, qu’il existe un effet mismatch prononcé après les sujets au singulier mais inexistant après les sujets au pluriel. En conclusion, les résultats de cette expérience de compréhension ressemblent beaucoup aux résultats des expériences de production. Par ailleurs, il est remarquable que les temps de lecture soient plus longs dans les conditions PS et PP que dans la condition SS. Nicol et coll. n’abordent pas cet aspect. Dans le cadre du modèle d’activation, nous pensons qu’il peut être interprété comme un effet de l’erreur générale de singulier : En se plaçant dans le cas où l’activation du trait de pluriel est tombée trop bas, les sujets escomptent alors un verbe au singulier. Au bilan, les résultats de cette expérience renforcent les hypothèses de Hemforth et Konieczny. Les résultats des expériences de production ont également été confirmés dans d’autres expériences de compréhension. Ainsi, Nicol, Forster et Verres (1997) ont pu démontrer que l’effet mismatch après les sujets au singulier dépend d’une liaison syntaxique étroite entre la tête du SN sujet et le SN local. Kail et coll. sont arrivés au même résultat dans une expérience en français écrit (Kail et coll., 1997). L’effet mismatch après les têtes au singulier a pu également être confirmé dans des études dans lesquelles les temps de lecture ont été mesurés soit en présentant des phrases mot par mot31 soit par l’observation des mouvements oculaires (voir p. e. Pearlmutter et coll., 1999, Pearlmutter, 2000, Branigan et coll., 1995 pour l’anglais et Hölscher et Hemforth, 2000 pour l’allemand).32 Après des têtes au pluriel, on n’a parfois pas trouvé d’effet mismatch, ce qui correspondait à ce à quoi on s’attendait (Branigan et al., 1995), mais on a également parfois trouvé un nombre élevé d’erreurs soit dans la condition PS (Pearlmutter, 2000 et Hölscher et Hemforth, 2000), soit, au contraire, dans la condition PP (Pearlmutter et al., 1999). Ce manque d’homogénéité parmi les résultats après les têtes au pluriel se retrouve dans les expériences de production (voir le paragraphe suivant). 31 Dans cette technique, appelée en anglais self paced reading, le temps de lecture pour chaque mot peut être mesuré, parce que le sujet décide lui-même du moment où il veut lire le prochain mot en appuyant sur une touche. 32 Ces études montrent de manière univoque qu’un SN au pluriel qui suit un SN sujet au singulier présente une difficulté également pendant la lecture. Mais ils soulèvent aussi de nouvelles questions, car cette difficulté s’est révélée de manière différente dans les différentes études: les temps de lecture élevés concernaient soit le verbe (Pearlmutter et al., 1999, Pearlmutter, 2000), soit le nom local luimême (Branigan et al., 1995, Hölscher und Hemforth, 2001). La cause de ces variations reste à déterminer. Pour une discussion de ces questions, voir Hölscher et Hemforth (2000). 40 En somme, la ressemblance entre les résultats des expériences de compréhension et ceux de production autorise à rapporter les effets observables lors de la production du verbe à ceux qui se produisent pendant la compréhension du préambule. 2.3.6.3. L’existence d’une erreur générale de singulier Le modèle de Hemforth et Konieczny prédit qu’il existe un nombre généralement élevé d’erreurs après des têtes au pluriel. L’effet des têtes au pluriel est rarement relaté explicitement dans la littérature, mais il était aussi rarement testé. Pour cela, il faut comparer les résultats dans les conditions PS et PP avec ceux de la condition SS. Si, en revanche, on ne compare que la moyenne d’erreurs après des têtes au singulier et après des têtes au pluriel, comme c’est le cas dans la plupart des expériences citées, une erreur générale de singulier après des têtes au pluriel peut être cachée par l’effet mismatch important après des têtes au singulier dans la condition SP. Par conséquent, nous avons analysé touts les études pertinentes pour vérifier si des indices révélant l’existence d’une erreur générale de singulier pouvaient êtres trouvés dans ces études. De plus, nous avons vérifié si l’asymétrie généralement supposée entre le singulier et le pluriel se retrouve bien dans ces études, asymétrie qui devait se manifester dans l’absence d’un effet mismatch après des têtes au pluriel. Nous considérons comme pertinentes les études dans lesquelles des sujets au pluriel ont été utilisés et dans lesquelles la construction utilisée était soit la construction SPV soit la construction SOV, car les prédictions de Hemforth et Konieczny ne se réfèrent qu’à ces ordres de mots. Les résultats sont résumés dans les tableaux 2 et 3. Dans la construction SPV (tableau 2), le modèle de Hemforth et Konieczny prédit une erreur générale de singulier. On ne s’attend pas à une différence entre les conditions PS et PP (pas d’effet mismatch). Dans la sixième colonne du tableau, les nombres d’erreurs dans les conditions respectives sont comparés entre eux. On peut d’abord constater de manière globale que, dans toutes les expériences sauf une (expérience 5), plus d’erreurs ont été commises dans les conditions PP et PS que dans la condition SS. La différence entre PP et SS ne peut pas être expliquée par un modèle autre que le modèle d’activation. 41 langue anglais allemand paradigme complètement à l’écrit complètement à l’écrit erreur d. sg?33 P>S P > S** MM? pp >* ps ps = pp allemand complètement à l’écrit P > S** ps = pp allemand complètement à l’écrit P > S** ps = pp français français français français français sp >*ps >*ss = pp sp >* P > ss sp > P >* ss sp >** P > ss complète- pp> sp >**ps > ss ps >*pp ps > pp ps >* pp ps > pp pp>**ps complète- sp > P >* ss ps > pp complète- sp >* P > ss ps = pp 11 Bock et Cutting, anglais 92 dictée dictée dictée dictée répétition et ment à l’oral répétition et ment à l’oral répétition et ment à l’oral répétition et ment à l’oral complète- sp >* P > ss ps = pp 12 Vigliocco et coll., italien 95 13 Vigliocco,Butter- espagnol worth et coll.,96 14 Vigliocco et Ni- anglais col, 98 répétition et complétion ps > sp > pp > ss à l’oral répétition et complète- sp > P > ss ment à l’oral répétition et complète- sp > P > ss ment à l’oral ps > pp étude 15 Hemforth et Konieczny, 03 16 Hemforth et coll, 03 17 Chanquoy et coll., 96 18 Fayol et coll., 94 19 Largy et coll., 93 20 Franck et coll., soumis paradigme complètement à l’écrit MM ? ps >* pp ps > pp ps > pp 1 2 3 4 5 6 7 8 étude Branigan,95 Hemforth et Konieczny, 03 Hemforth et coll., 03 Hölscher et coll., 2000 Hupet et coll., 96 Fayol et coll.,94 Fayol et coll.,91 Franck et coll.,03 Franck et coll.,03 9 Franck, et et coll., français soumis 10 Bock et Miller,91 anglais ps > pp ps = pp Tableau 2 : Etudes pertinentes quant à l’erreur générale de singulier en construction SPV34 langue allem. allem. complètement à l’écrit français dictée erreur d. sg. ? P >** S P >** S sp> ps > ss > pp français dictée ps > sp > pp > ss ps >*pp français dictée ps = sp>*pp>** ss ps >*pp français répétition et complète- P >* S pp > ps ment à l'oral Tableau 3 : Etudes pertinentes quant à l’erreur générale de singulier en construction SOV 33 Dans les articles auxquels j’ai eu accès, on ne pouvait parfois pas savoir si la différence entre deux conditions était statistiquement significative ou pas. Si cela était indiqué, nous l’avons marqué par un astérisque pour des résultats significatifs (p ≤ 0.05), et par deux astérisques pour des résultats hautement significatifs (p ≤ 0.01). Des résultats présentés comme « significatifs » dans les études sans indication de la valeur de p ont été marqués par un astérisque. S’il était indiqué qu’une différence n’était pas significative, cela est marqué par le signe =. Dans tous les autres cas, nos indications se basent sur des valeurs numériques, qui étaient plus ou moins clairement distinguées. De plus, pour ne pas rendre le tableau trop chargé, nous avons seulement énuméré le paradigme de base (répétition et/ou complètement, oral ou écrit), mais non pas d’autres variations (sans/avec surcharge de mémoire, sujets adultes/enfants, etc.). Pour des indications plus détaillées, il faut donc se rapporter aux études originelles. Les résultats en accord avec les prédictions du modèle d’activation sont imprimés en bleu, ceux qui sont en désaccord avec ces prédictions sont imprimés en rouge. 34 Les deux dernières colonnes indiquent l’existence de l’erreur générale de singulier et de l’effet mismatch (MM). ss, sp, ps et pp indiquent les conditions respectives des expériences, P signifie « ps et pp » et S signifie « ss et sp ». Le signe > signifie « plus d’erreurs que ». 42 Dans quelques études, il y a eu aussi plus d’erreurs commises dans les conditions PS et PP que dans la condition SP (études 1 à 4), mais cela n’a pas été le cas pour d’autres études (études 6 à 14). D’après le modèle d’activation cela signifie que dans les quatre premières études, le trait de pluriel tombe plus souvent sous le seuil critique que dans les autres études. On peut trouver une explication à cela dans le paradigme expérimental utilisé : Dans les études 6 à 14, les sujets sont confrontés deux fois avec les préambules : Dans un premier temps, ils lisent ou entendent le préambule, avant de les répéter à l’écrit (études 6-8) ou à l’oral (études 9-14) et de compléter la phrase. A l’inverse, dans toutes les expériences menées par Hemforth et coll. et Branigan, le préambule a dû être directement complété par les sujets. On pourrait supposer qu’à travers la répétition du préambule, le niveau d’activation des éléments dans la mémoire qui sont liés au préambule est élevé, ce qui a pour conséquence que l’activation du trait de pluriel tombe moins facilement sous le seuil critique. Grâce à cet élargissement du modèle d’activation au paradigme de répétition et de complètement, nous pensons être en mesure de rendre compte du manque d’homogénéité observé dans les données. Concernant maintenant la comparaison des conditions PS et PP, on ne devrait pas, selon le modèle d’activation, trouver de différences entre ces deux conditions. Mais cela n’est le cas que dans six des quatorze études. En revanche, on a trouvé un effet mismatch dans huit études, mais celui-ci était toujours moins important que l’effet mismatch après des têtes au singulier. Dans deux études (les études 1 et 8), il y a plus de fautes dans la condition PP que dans la condition PS. La source de ces variations reste à déterminer. Elles s’expliquent probablement par un facteur qui n’est pas encore identifié.35 En ce qui concerne la construction SOV, l’existence d’une erreur générale de singulier se vérifie à une exception prêt (étude 17).36 Pour la comparaison des conditions PS et PP, le modèle d’activation prédit un effet mismatch (effet de réactivation), qui peut en effet être observé dans cinq des six études. A considérer le nombre relative35 Franck et coll. (2002) proposent entre autres des différences inter-langues comme facteur explicatif: Dans des langues dans lesquelles l’asymétrie singulier-pluriel semble être moins prononcée qu’en anglais (il s’agit surtout des langues romanes), le marquage des verbes comme pluriel est morphophonologiquement plus complexe qu’en anglais (où la forme du pluriel correspond tout simplement à celle de l’infinitif). La formation facile du pluriel en anglais aurait pour conséquence qu’un locuteur forme rarement un verbe au singulier au lieu d’un verbe au pluriel. Cela serait la base de l’asymétrie. Mais le nombre élevé d’erreurs de singulier observé par Branigan (1995) en anglais va à l’encontre de cette interprétation. 36 On voit qu’en français, il existe en nombre élevé d’erreurs en condition SP (effet de l’attraction par l’objet). On ne tient pas compte ici de cet effet étant donné qu’il est déjà discuté dans les paragraphes 2.3.4 et 3.2.6. 43 ment faible d’études, ce résultat ne peut toutefois pas prétendre au statut de preuve bien établie. Pour conclure, on peut dire que les origines des différences entre les conditions PS et PP ne sont pas très claires, et cela particulièrement en construction SPV. Mais concernant ces deux conditions, une tendance vers une erreur générale de singulier se dégage nettement, dont l’importance varie selon le paradigme expérimental. Ce résultat cadre avec le modèle d’activation et ne peut pas être expliqué par les autres modèles.37 2.3.6.4. Résumé En somme, le modèle d’activation peut expliquer une partie importante des données. Mais étant donné que d’une part, il a été développé post hoc et que d’autre part, il n’avait jusqu’ici pas été soumis à des tests empiriques, beaucoup de ces explications restent spéculatives. Il serait bon de vérifier en particulier si l’erreur générale de singulier dépend réellement du paradigme expérimental comme cela est supposé par Hemforth et Konieczny ; de plus, il faudrait chercher des preuves supplémentaires étayant l’idée selon laquelle non seulement la production, mais aussi la compréhension est impliquée dans les expériences décrites. Par ailleurs, le modèle devrait être élargi pour pouvoir expliquer encore plus de données connues. Ceci concerne tout particulièrement certaines constructions proposées par Franck et coll. (soumis). 2.4. Résumé de l’état de la recherche Pour conclure, nous tenterons dans ce paragraphe de résumer l’état de la recherche sur l’accord entre sujet et verbe. Pour cela, nous donnerons une dernière vue d’ensemble des modèles explicatifs que nous avons présentés dans le paragraphe 2.3. en les comparant quant à leur couverture empirique. Dans ce qui suit, nous rassemblerons les approches non-syntaxiques autour d’une caractéristique que nous appellerons « approche de la mémoire de travail » et qui se compose des hypothèses des approches non-syntaxiques qui ont trouvé le plus large fondement empirique : 37 Certains auteurs ont également observé cette tendance vers une erreur générale de singulier et proposent une explication alternative: Il y aurait en général plus d’erreurs après des sujets au pluriel qu’après des sujets au singulier, parce que les premiers seraient sémantiquement plus complexes et en cela plus difficiles à traiter (voir Branigan, 1995, Bock et Miller, 1992 et Franck et coll., 2002). Mais d’après cette thèse, on devrait trouver plus d’erreurs dans la condition PP que dans toutes les autres conditions, ce qui est pourtant très rarement le cas. 44 Approche de la mémoire de travail : Il existe une tendance générale à accorder le verbe avec le nom le plus proche, qui se manifeste surtout lorsque la mémoire de travail est surchargée ou lorsqu’il y a une distance importante entre la tête du sujet et le verbe. Parmi les approches syntaxiques, l’hypothèse de clausal-packaging s’est avéré trop spécifique (voir paragraphe 2.3.4.). Les hypothèses plus générales de featurepercolation et d’agreement and movement expliquent chacune des données différentes, nous prendrons donc les deux hypothèses en compte. Enfin, nous traiterons également le modèle d’activation. Etant donné que le modèle cadre présenté dans le paragraphe 2.1. dans ses grandes lignes nous apparaît bien-fondé empiriquement, nous examinerons tout d’abord si ces quatre approches concordent avec ce modèle. C’est l’approche de feature– percolation qui s’intègre le plus facilement dans le modèle cadre, car elle est basée directement sur les suppositions de Garrett concernant l’encodage fonctionnel et leur développement ultérieur par Kempen et Hoenkamp (1987). L’approche de agreement and movement peut être conciliée avec le modèle classique, mais elle élargit considérablement le niveau de l’encodage grammatical en y intégrant la grammaire générative. L’approche de la mémoire de travail et le modèle d’activation traitent l’accord sous un autre angle de vue que le modèle cadre, sans toutefois se trouver en contradiction avec celui-ci. En somme, les quatre approches n’accordent pas la même importance au modèle cadre pour l’explication de l’accord. Mais comme aucune des approches ne se trouve dans une contradiction évidente avec le modèle, on ne peut pas les hiérarchiser en se basant sur ce point-là. De la même façon, les quatre approches peuvent toutes expliquer les données de base présentées dans le paragraphe 2.2. Chaque approche avance une explication pour l’effet mismatch après des têtes au singulier (effet de la proximité selon l’approche de la mémoire de travail, effet d’une percolation du trait selon l’approche de featurepercolation et du modèle d’activation, dérangement de l’opération AGREE par des éléments qui interviennent de différentes manières selon l’approche agreement and movement). Toutes les approches peuvent enfin expliquer l’absence fréquente d’un effet mismatch après des têtes au pluriel, donc l’asymétrie singulier-pluriel, en intégrant chacune la proposition de Eberhard (1997). Les influences des niveaux conceptuels ou morpho-phonologiques qui ont pu être démontrées, au moins dans quelques langues, rendent nécessaires des changements dans le modèle cadre. Ces changements ne devraient toutefois pas avoir de répercussion différentielle sur les quatre 45 approches analysées ici. En somme, les données de base ne permettent pas de trancher entre les quatre approches. L’unique point de départ pour l’évaluation des approches est donc fourni par les données que nous avons présentées dans le paragraphe 2.3. et qui ont été recueillies dans le but de tester des aspects spécifiques des différentes approches. Ici se pose le problème suivant : aucune approche n’est assez étendue pour pouvoir rendre compte de tous les résultats du paragraphe 2.3. Dans ce qui suit, nous essaierons quand même de donner une vue d’ensemble du pouvoir explicatif de chaque approche face à ces données. Pour cela, nous avons résumé dans le tableau quatre les résultats les plus importants du paragraphe 2.3. Nous avons également indiqué pour chaque approche si elle peut expliquer les données en question (✓), si elle se trouve en contradiction avec ces données (✕) ou si les données ne se trouvent pas en contradiction avec l’approche, mais simplement hors de son champ d’explication (?).38 Nr. Effet MT ✓ 1 plus d’erreur si surcharge cognitive (2.3.2.) 2 peu/aucune corrélation entre des mesures de la mé- ✕ moire de travail et les erreurs (2.3.2.) ✕ 3 différence proposition-syntagme (2.3.2.) 4 différence N2/N3 dans des constructions N1 N2 N3 ✕ (2.3.4.) ✕ 5 différence SV-VS en anglais (2.3.2.) 6 peu/aucune attraction par l’objet en néerlandais et en ✕ allemand (2.3.4.) ✓ 7 attraction par l’objet en français (2.3.4.) ✓ 8 différence SV-VS en italien (2.3.4.) ✓ 9 différence OSV-OVS en français (2.3.4.) ✕ 10 erreur générale de singulier (2.3.6.) 11 influence du paradigme sur l’erreur générale de singu- ✕ lier (2.3.6.) 12 effets de l’accord dans la compréhension (2.3.6.) ? 13 effet mismatch après des têtes au pluriel en construc- ✓ tion SOV en allemand (2.3.6.) 14 parfois effet mismatch après des têtes au pluriel dans ✓ la construction SPV (2.3.6.) FP AM A ✕ ✕ ✓ ✓ ✓ ✓ ✓ ✓ ✓ ✓ ✓ ✓ ✓ ✓ ? ✓ ✕ ✓ ✕ ✓ ✕ ✕ ✓ ✕ ✓ ? ? ✕ ✕ ✓ ✕ ✕ ✓ ? ? ? ✓ ✕ ✕ ? ✕ ✓ Tableau 4 : Vue d’ensemble du pouvoir explicatif des approches39 38 La légitimité des décisions que nous avons prises dans le tableau reste bien sûr ouverte à la discussion. Nos choix sont basés sur les réflexions exposées dans le paragraphe 2.3. Même en tenant compte de la possibilité d’autres choix, ce tableau devrait tout de même permettre une vue d’ensemble satisfaisante du pouvoir explicatif différent des quatre approches. 39 Les indications entre parenthèse dans la colonne „effets“ se réfèrent au paragraphe de ce travail dans lequel le résultat en question a été présenté. Les titres des quatre dernières colonnes signifient: MT = approche de la mémoire de travail, FP = approche de feature percolation, AM = approche de agreement and movement, A = modèle d’activation. 46 Comme l’approche de la mémoire de travail relie directement toutes les différences aux positions linéaires des éléments de la phrase, elle ne peut pas expliquer les résultats qui montrent une influence d’éléments placés loin du verbe, ce qui concerne les résultats énumérés dans les lignes 2 à 6 du tableau. L’erreur générale de singulier n’est pas non plus prédite par cette approche dans sa version actuelle. Les approches syntaxiques ne peuvent pas non plus expliquer l’existence de l’erreur générale de singulier. De plus, elles ne proposent ni d’explication pour les effets de la surcharge de la mémoire, ni pour l’effet de réactivation (effet mismatch) après des têtes au pluriel en construction SOV observé par Hemforth et Konieczny (2003). Dans le cadre de l’approche de feature-percolation, on ne peut pas non plus expliquer les effets liés à l’ordre des mots observés par Franck et coll. (soumis). Le modèle d’activation est le plus apte à expliquer les données existantes. Les résultats qu’il ne peut pas expliquer - l’effet de l’attraction par l’objet en français ainsi que l’effet mismatch parfois observé après des têtes au pluriel – semblent devoir être rattachés à des facteurs qui n’ont pas encore été vérifiés. Aucune des approches ne peut expliquer pourquoi il y a un effet de l’attraction par l’objet en français, mais non pas dans d’autres langues, et pourquoi on trouve parfois un effet mismatch après des têtes au pluriel, mais non pas dans la plupart du temps. Au bilan, le modèle d’activation semble couvrir un nombre important de données et, par là, présenter un intérêt à être développé. Pour l’élargir à des cas non couverts jusqu’ici, une précision du modèle est une condition préalable. C’est n’est qu’à partir du moment où l’on peut donner des descriptions précises des processus importants supposés – donc surtout de la formation du trait de pluriel et du développement de son activation – et où l’on peut identifier l’ensemble des facteurs susceptibles d’influencer ces processus, que des élargissements du modèle, qui ne soient pas uniquement des explications post hoc des données récoltées, semblent possibles. Avant un élargissement, il faut toutefois tester empiriquement le modèle dans sa forme actuelle. Nous entamerons ces deux projets dans les deux prochaines parties de ce travail. 47 3. La modélisation Dans cette partie, nous présenterons un modèle qui reproduit sur ordinateur une grande partie des processus de l’établissement de l’accord comme postulés par le modèle d’activation. Pour réaliser ce modèle, nous avons modélisé la réalisation de la tâche expérimentale utilisée par Hemforth et Konieczny (2003), c’est-à-dire le traitement de phrases allemandes dans le paradigme du complètement de phrases. Cette modélisation cognitive a pour but de préciser le modèle d’activation, de l’analyser quant à de possibles contradictions internes, d’ébaucher des possibilités d’élargissement, et de poser ainsi le fondement pour des tests empiriques du modèle. Le modèle40 a été réalisé dans le cadre de l’architecture cognitive ACT-R (Anderson et Lebiere, 1998), que nous présenterons brièvement en début de partie. Ensuite, nous décrirons le modèle en lui-même. Dans la discussion finale, nous chercherons en particulier à savoir si le modèle ACT-R peut également couvrir, parmi les résultats présentés dans la deuxième partie de ce travail, ceux qui ont été obtenus dans d’autres langues, constructions ou paradigmes que ceux actuellement modélisés. 3.1. Présentation globale d’ACT-R ACT-R (Atomic Components of Thought – rational) est conçu par ses auteurs comme une théorie intégrale de la cognition humaine. Cette théorie a pour but de compléter les théories de plus en plus spécialisés qui traitent des sous-parties ou modules de la cognition : There has been a proliferation of proposed mental modules in attempt to account for different cognitive functions but so far there has been no successful account of their integration. ACT-R has evolved into a theory that consists of multiple modules but also explains how they are integrated to produce coherent cognition. (Anderson et coll., soumis, p. 2) Une telle approche intégrative présente l’avantage que toute hypothèse avancée dans le cadre d’ACT-R doit nécessairement concorder avec les connaissances fondamentales issues de tous les domaines des sciences cognitives qui ont été intégrées à ACTR pendant son développement. De cette nécessité naissent des contraintes susceptibles de guider le développement des théories portant sur les différents domaines de la cognition. 40 Dans ce qui suit nous désignerons par le terme « modèle d’activation » toujours le modèle originel tel qu’il est décrit par Hemforth et Konieczny (2003). La réalisation du modèle d’activation en ACT-R sera appelée « le modèle ACT-R » ou tout simplement « le modèle ». 48 La théorie ACT-R est réalisée dans une architecture qui offre un cadre à la modélisation de processus cognitifs, quel que soit le domaine des sciences cognitives dans lequel on se situe. Les contraintes évoquées sont liées au fait que certaines parties de l’architecture ne peuvent être changées et sont communes à tous les modèles réalisés en ACT-R. Dans ce qui suit, nous présenterons brièvement ces parties centrales de l’architecture. 3.1.1. La structure d’ACT-R La figure 5 donne une vue d’ensemble de la structure d’ACT-R : Intentional Module (not identified) Declarative Module (Temporal/Hippocampus) Goal Buffer (DLPFC) Retrieval Buffer (VLPFC) Production Rule System (Basal Ganglia) Visual Buffer (Parietal) Manual Buffer (Motor) Manual Module (Motor/Cerebellum) Visual Module (Occipital/etc.) Environment Figure 5 : L’organisation de l’information dans ACT-R 5 (adapté de : Introduction à ACT-R) Anderson et coll. (soumis) suggèrent par ailleurs de faire correspondre aux différents modules présupposés des régions du cerveau (comme indiqué entre parenthèse dans la figure). Nous n’exposerons pas plus en avant cette idée, sans doute simplificatrice. Ce qui est important dans le cadre de notre travail, c’est qu’ACT-R émet des hypothèses empiriquement fondées sur l’existence de modules, leur nature ainsi que la coordination de leur fonctionnement respectif. Les quatre modules les plus importants d’ACT-R41 se situent aux quatre coins de la figure : le module intentionnel, le module déclaratif, le module visuel et le module manuel. Les modules visuel et manuel permettent la communication du système avec 41 Il y a d’autres modules percepteurs à côté du module visuel et d’autres modules moteurs à côté du module manuel. Mais étant donné qu’ils ne fonctionnent pas de manière fondamentalement différente par rapport aux modules visuel ou manuel, ils ne sont pas représentés ici. Ils n’ont pas d’incidence sur notre modèle et, à ce titre, ne seront pas traités dans ce travail. 49 l’environnement : Le système peut percevoir l’environnement par le module visuel et l’influencer par le module manuel. Le module intentionnel permet de fixer des objectifs, et le module déclaratif, enfin, permet le stockage et la récupération du savoir déclaratif. Par savoir déclaratif, il faut entendre un savoir sur des faits qui est accessible à la conscience. Comment fonctionne la coordination des modules, source de la cognition cohérente ? Chaque module a une mémoire tampon qui, à un moment donné, peut soit être vide soit remplie par exactement un élément. Par exemple, le module intentionnel peut déposer le but que le système s’est fixé dans la mémoire tampon destinée à cet effet (goal buffer en anglais) ; le module visuel peut quant à lui placer des informations sur l’objet perçu à un moment donné dans la mémoire tampon visuelle. Une autre mémoire tampon importante est la mémoire tampon de récupération, dans laquelle se trouve l’élément qui vient d’être récupéré de la mémoire déclarative. Un système central de règles de production a accès aux différentes mémoires tampons. Les productions correspondent au savoir procédural du système, c’est-à-dire le savoir de comment faire quelque chose qui, en règle générale, n’est pas conscient. Elles prennent la forme de règles qui vérifient quelles informations sont présentes dans les mémoires tampons et qui peuvent provoquer des changements dans les mémoires tampons (voir Anderson et coll., soumis, p. 5 sq.) Chaque modélisation dans le cadre de ce système fonctionne en même temps sur un niveau symbolique et sur un niveau sous-symbolique. Le niveau symbolique comprend la manipulation d’unités auxquels on peut attribuer un sens, donc les processus de consultation et de changement dans les mémoires tampons effectués par les règles de production que nous venons d’évoquer. Mais pour comprendre la sélection d’un élément précis dans une mémoire tampon et d’une règle de production parmi toutes les règles possibles, il faut prendre en compte les processus sous-symboliques. Ces deux niveaux seront décrits de façon plus détaillée dans ce qui suit.42 3.1.2. Le niveau symbolique Comme on l’a déjà mentionné ci-dessus, le savoir qui existe dans un modèle ACT-R peut être reparti en un savoir déclaratif et en savoir procédural. Dans ce qui suit nous 42 Tous les détails de l’environnement de programmation que nous exposerons dans la suite sont extraits du tutorat ACT-R et de l’introduction à ACT-R qui se trouve sur le site web d’ACT-R (voir bibliographie). Les exemples sont tirés, sauf indication contraire, du modèle que nous présenterons ensuite. 50 décrirons la représentation symbolique de ces deux types de savoir dans le cadre d’ACT-R. Le savoir déclaratif : Les chunks Le savoir déclaratif est représenté en ACT-R sous la forme d’unités appelées chunks. Un chunk est donc une partie de nos connaissances représentée sous la forme d’une unité, par exemple la connaissance du fait que « Un et un égal deux ». Si nous prenons maintenant un exemple du modèle que nous présenterons ci-dessous, une telle unité de savoir pourrait représenter la connaissance suivante : un SN que l’on vient de lire comprend l’article « der » et le nom « Schüler ». On peut déclarer pour chaque chunk à quel type de chunk il appartient, les types de chunk pouvant être définis eux-même. Par exemple, la connaissance du fait « Un et un égal deux » appartient à un type de chunk qui est défini par Anderson et coll. (voir tutorat ACT-R, chapitre 1) et qu’ils appellent addition-fact. La connaissance des mots dont se compose un SN est un chunk de type read-np que nous avons défini dans notre modèle. Pour définir de types de chunk, il faut utiliser la commande CHUNK-TYPE. Cette commande est suivie d’une liste de mots. Le premier mot désigne le nom du type de chunk, les mots suivants désignent ce qu’on appelle les slots des chunks de ce type. Un slot est un attribut d’un chunk auquel on peut attribuer une valeur. Pour donner un exemple, nous avons défini le type du chunk read-np de la manière suivante : (CHUNK-TYPE read-np det n case modifies parent state function) Grâce à cette commande on peut créer des chunks du type read-np et attribuer des valeurs aux attributs det, n, case, modifies, parent, state et function. La valeur d’un slot peut elle-même être un autre chunk. Pour simplifier notre exemple, nous décrirons ici uniquement les slots det et n. Les chunks attribués à ces slots dans le modèle sont du type lemma, défini comme suit : (CHUNK-TYPE lemma string category) Les chunks eux-mêmes, donc des instances concrètes d’un type de chunk donné, peuvent être directement ajoutés au système par la commande ADD-DM (add to declarative memory). Chaque chunk porte un nom et les valeurs différentes de ses slots. Le premier slot, appelé is-a-slot, reçoit comme valeur le nom du type du chunk. Avec cela il est déterminé quels autres slots existent auxquels une valeur peut être 51 attribuée. Pour illustration, le fait que « der » et « Schüler » présentent des lemmes et qu’un SN a été lu dans lequel se trouvent ces lemmes serait traduit comme suit : (ADD-DM (der-Schüler isa read-np det der n Schüler) (der isa lemma) (Schüler isa lemma)) Les slots auxquels on n’attribue pas explicitement de valeur reçoivent la valeur « nil ».43 Dans cet exemple, des chunks ont été attribué aux slots det et n du chunk « der-Schüler », de sorte qu’il en résulte un réseau de chunks. Ce réseau est représenté dans la figure 6 : „der-Schüler“ det n „der“ „Schüler“ Figure 6 : Réseau de chunks résultant de la lecture du SN « der Schüler » Les chunks peuvent non seulement être déclarés dès le début, ils peuvent aussi être crées pendant le déroulement d’un modèle. Si un type de chunk a été déclaré au début, des nouveaux chunks de ce type peuvent être formés à tout moment. Le savoir procédural : Les productions Comme nous l’avons mentionné ci-dessus, le savoir procédural est représenté en ACT-R sous forme de règles de production, appelées aussi plus simplement productions. Les productions ont accès aux mémoires tampons. Une mémoire tampon peut soit être vide soit contenir un chunk. Les productions peuvent d’une part consulter le contenu des mémoires, d’autre part les modifier. Une production se compose d’une série de conditions et d’une série d’actions. Pour que les actions puissent être exécutées, les conditions doivent être remplies. On déclare des productions par la commande « p » suivie par le nom de la production en question. Les conditions d’une production consistent en une série de tests appliquée aux mémoires tampons. Le contenu d’une mémoire tampon peut être consulté à 43 Dans la langue de programmation dans laquelle ACT-R est programmée, LISP, « nil » est l’expression pour « faux » ou « valeur manquante ». A part d’un autre chunk et de « nil », un slot peut aussi être occupé par une chaîne de caractères qui ne désigne pas de chunk. 52 l’aide du symbole = . Donc, par l’expression =goal, on peut consulter le contenu de la mémoire tampon qui contient le but. Le symbole ==> sépare la déclaration des conditions de la déclaration des actions d’une production. Une action peut soit modifier le contenu d’une mémoire tampon (symbole =), soit placer un nouveau chunk dans une mémoire tampon (symbole +). Un signe d’égalité parmi les conditions lie le chunk qui se trouve dans la mémoire ou dans le slot en question au variable qui suit le signe d’égalité. Une production concrète pourrait avoir la forme suivante : (p encode-det =goal> isa read-np state „start“ =retrieval> isa lemma cat det ==> =goal> det =retrieval state „det-encoded“) En langage naturel, il s’agit de la règle suivante : Si le but est de lire un SN, si l’on vient de commencer à poursuivre ce but, et si un chunk du type lemma appartenant à la catégorie det vient d’être récupéré de la mémoire déclarative, alors il faut attribuer ce chunk au slot det du but et marquer dans le but que l’article a été lu. Un modèle ACT-R fonctionne toujours par le concours de plusieurs productions. La production qui se trouve en action change le contenu des mémoires tampons de sorte qu’après la fin d’une production, les conditions d’une autre production soient remplies. S’il n’y a plus aucune production qui puisse faire feu le modèle s’arrête. 3.1.3. Le niveau sous-symbolique Le niveau sous-symbolique concerne les activations des chunks et l’utilité des productions ainsi que leurs possibles variations. L’activation des chunks En tant qu’unités de la mémoire déclarative, les chunks ont une certaine activation qui change avec le temps. Une demande destinée à récupérer un chunk de la mémoire déclarative n’aura de succès qu’a condition que l’activation du chunk en question ne se trouve pas au-dessous d’un seuil critique et qu’il n’y ait pas d’autre chunk qui corresponde à la demande et qui ait une activation plus haute. L’activation Ai d’un chunk i à un moment précis se compose d’une activation de base, d’une activation associative et d’une valeur aléatoire qui s’y rajoute appelée 53 « bruit ».44 En somme, l’activation d’un chunk i à un moment précis se détermine de la manière suivante : A i = B i + Aassociativ e + ε équation 1 : activation totale (voir tutorat ACT-R, chapitre 6) L’activation de base reflète le degré d’utilité du chunk dans le passé. L’activation associative s’ajoute à l’activation de base si et seulement si le chunk en question a une liaison avec le but du moment. Dans ce cas, il reçoit une activation supplémentaire de la part du but, qui reflète le fait que le but du moment et les éléments de la mémoire qui se trouvent en relation avec celui-ci reçoivent plus d’attention que les autres éléments de la mémoire. Enfin, le bruit ε représente une valeur qui est ajoutée au hasard et qui est censée modéliser les fluctuations non-systématiques dans le travail de la mémoire humaine. Dans le modèle, l’activation de base est le facteur le plus important de cette équation. On décrira donc de façon un peu plus détaillée comment cette activation de base change avec le temps : n Bi = ln ∑ t −j d équation 2 : changements de l’activation de base j =1 (voir tutorat ACT-R, chapitre 7) A chaque récupération j d’un chunk i, i reçoit une certaine quantité d’activation. Dans l’équation, tj représente l’espace de temps qui est passé depuis une apparition d’i. Plus cet espace de temps est long, plus la valeur de l’expression t −j d est petite. Plus précisément, cette valeur se détermine selon une fonction de puissance du temps, correspondant à l’allure à laquelle l’être humain oublie les choses (connu sous le nom de power law of forgetting). L’importance de la baisse dans le temps dépend du paramètre d, qui a la valeur de 0.5 par défaut. Pour déterminer l’activation d’i à un moment donné, il faut faire la somme des activations de toutes les récupérations d’i et la soumettre à une transformation logarithmique. Il en résulte également une fonction de puissance du temps qui correspond à l’allure à laquelle l’être humain apprend des choses dans beaucoup de domaines (power law of learning, pour les deux fonctions de puissance ainsi qu’une discussion de l’équation 2, voir Anderson et coll., 1999). Somme tout, l’activation de base d’un chunk est soumise à une baisse continuelle qui est interrompue à chaque nouvelle récupération du chunk. La courbe typi44 L’activation peut de plus être influencée par le degré de similarité entre le chunk et la demande grâce à laquelle on veut récupérer celui-ci. Mais cet aspect ne joue aucun rôle dans le modèle et ne sera donc pas traité ici. 54 que qui en résulte pour un chunk récupéré régulièrement est présentée dans la figure 7. 1.5 1.0 Activation Level 0.5 0.0 -0.5 -1.0 -1.5 0 50 100 150 200 Figure 7 : Développement de l’activation d’un chunk récupéré régulièrement (tiré de l’introduction à ACT-R) Seconds Pour résumer, on peut dire que plus la fréquence de récupération d’un chunk dans le passé est haute et plus la dernière récupération est récente, plus son activation sera haute. L’utilité des productions Le pendant procédural des activations des chunks est l’utilité des productions. Celleci joue un rôle si, dans une constellation donnée des contenus des mémoires tampons, plusieurs productions pourraient être activées. Dans ce cas, c’est la production qui a le plus d’utilité (U) qui fait feu. L’utilité d’une production i est déterminée par l’équation suivante : Ui = Pi G - Ci + ε équation 3 : L’utilité des productions (voir tutorat ACT-R, chapitre 8) Dans cette équation, P désigne la probabilité avec laquelle i peut contribuer à atteindre le but. G représente la valeur du but. On en soustrait les coûts C qui vont probablement être provoqués par i. Les coûts ainsi que la valeur du but sont mesurés en unités de temps. Finalement, on ajoute ici aussi un bruit aléatoire pour simuler des fluctuations non-systématiques. On peut directement attribuer des valeurs aux variables de cette équation (on peut donc déterminer la valeur d’un but pour un modèle, les probabilités de succès ainsi que les coûts de production). Dans un système donné, il est également possible d’apprendre quelles sont les probabilités de succès et les coûts des différentes pro55 ductions. De la même manière que les activations de chunks changent selon leur fréquence de récupération, l’utilité des productions change avec le nombre de fois où elles ont mené au but. On ne présentera pas ici les équations pertinentes de ce point de vue, car ce mécanisme n’est pas utilisé dans le modèle. Ce qui est important ici, c’est la possibilité de modéliser des priorités humaines en manipulant les paramètres variables de l’utilité : ainsi, on modélisera le fait qu’il soit très important d’atteindre un but par une valeur G élevée. Ceci augmentera l’influence de l’élément P*G et avec cela l’influence de la probabilité de succès sur l’utilité d’une production. Si par contre, l’importance du but diminue, ce sera l’influence des coûts de production, donc C, sur l’utilité qui augmentera. 3.2. Description du modèle Dans ce qui suit nous décrirons un modèle ACT-R qui réalise les aspects centraux du modèle d’activation. Un modèle concret comporte toujours plusieurs parties, dont toutes ne seront pas discutées ici : A côté du savoir déclaratif sous forme de chunks et du savoir procédural sous forme de productions, le modèle comporte également un code écrit en LISP qui rend possible l’interaction du modèle avec l’environnement (c’est-à-dire la présentation au modèle de phrases expérimentales et l’enregistrement des réactions du modèle, voir annexe I). Nous ne traiterons pas cette partie du modèle, car elle est sans rapport avec les questions d’établissement de l’accord qui nous intéressent ici. Nous nous limiterons, après la présentation de quelques réflexions préliminaires, à une description du modèle, d’abord au niveau symbolique en termes de chunks et de productions, ensuite au niveau sous-symbolique nécessaire à la modélisation des effets observés par Hemforth et Konieczny (2003). Nous traiterons ici l’influence des utilités et des activations ainsi que leur détermination en fonction de différents paramètres. 3.2.1. Réflexions préliminaires Le modèle d’activation de Hemforth et Konieczny (2003) prétend à une description des processus centraux pendant l’établissement de l’accord capable d’expliquer les résultats empiriques relatifs aux erreurs d’accord. L’apport de cette description ne réside pas seulement dans l’explication des erreurs d’accord. Il se situe également dans la capacité à opérer une distinction -empiriquement fondée- entre les processus 56 du traitement du langage essentiels pour l’établissement de l’accord et ceux qui ne le sont pas. Le modèle ACT-R se limite aux processus considérés comme essentiels pour l’établissement de l’accord. Nous ne prétendons pas donner l’image la plus complète possible du traitement et de la production du langage. Il nous faut ajouter que même l’ensemble des processus qui peuvent apparaître importants dans le cadre de notre problématique –soit parce qu’ils sont discutés par Hemforth et Konieczny, soit parce que leur intégration présenterait un élargissement intéressant du modèle- ne peut être modélisée et discutée dans le cadre restreint de ce travail. Notre objectif sera, dans un premier temps, de réaliser les hypothèses centrales du modèle d’activation dans un modèle ACT-R. Les principales possibilités d’élargissement, en particulier le transfert à la langue française, seront ensuite abordées dans les paragraphes ultérieurs. Nous commencerons par un résumé des aspects du modèle d’activation que nous considérons comme centraux et que nous avons à ce titre intégrés dans le modèle ACT-R. L’importance du paradigme expérimental Le modèle d’activation se distingue des autres modèles d’explication que nous avons présentés par le fait qu’il n’explique pas les processus de l’établissement de l’accord indépendamment du paradigme expérimental dans lequel ils sont étudiés (voir paragraphe 2.3.5.2.). Pour transférer le modèle d’activation vers une modélisation cognitive, il paraît donc nécessaire de modéliser également le paradigme, c’est-à-dire la tâche à accomplir par les sujets expérimentaux. ACT-R se prête bien à cela, parce que les modules visuels et manuels permettent la modélisation de l’interaction avec l’environnement. On peut ainsi donner une tâche au modèle, comme la lecture et le complètement d’un début de phrase, et les données produites par le modèle peuvent ensuite être directement comparées à des données obtenues par des sujets qui ont accompli la même tâche. Comme le modèle d’activation est basé sur la tâche de complètement utilisée par Hemforth et Konieczny (2003), c’est cette tâche-là que nous avons modélisée. Elle demande à la fois un effort de compréhension -lors de la lecture du début de phraseet un effort de production -lors de la production du verbe. Hemforth et Konieczny (2003) ont travaillé sur les constructions SPV et SOV (voir ci-dessus.). De notre côté, une modélisation des deux constructions aurait été trop vaste pour pouvoir être décrite de manière satisfaisante dans ce travail. Nous nous limiterons donc à la mo57 délisation du traitement des phrases du type SPV. Nous avons retenu cette construction parce qu’elle existe dans beaucoup de langues - contrairement à la construction SOV qui est assez spécifique – et que, par conséquent, la portée du modèle nous apparaît plus grande avec une modélisation des phrases de ce type. L’explication des erreurs d’accord par des processus de compréhension Comme nous l’avons expliqué de manière détaillée dans le paragraphe 2.3.6.2., les erreurs d’accord sont expliquées dans le cadre du modèle d’activation par des processus qui se déroulent pendant la compréhension du début de la phrase. Ceci rend nécessaire une modélisation assez détaillée de la compréhension. Nous n’avons toutefois pas modélisé des processus de compréhension au niveau sémantique, parce que sur la base des résultats de la recherche exposés dans le paragraphe 2.2.3., nous considérons que l’accord est un phénomène de nature essentiellement syntaxique.45 Au bilan, notre modélisation se limitera à la récupération des lemmes du dictionnaire mental, au traitement syntaxique et au traitement du nombre. L’importance du traitement syntaxique résulte du fait que, dans la lignée de l’approche de feature-percolation à laquelle le modèle se réfère, il est supposé que la probabilité d’erreurs d’accord augmente en fonction de la proximité syntaxique entre la tête du SN sujet et le SN intervenant. Dans des phrases du type SPV, la proximité syntaxique entre les deux SN résulte, d’un point de vue psycholinguistique, du fait qu’il faut rattacher le syntagme modificateur au syntagme modifié. Ce processus est par conséquent modélisé dans le modèle ACT-R. De plus, les processus centraux du traitement fonctionnel, qui d’après le modèle d’activation sont également d’importance, sont modélisés.46 Quant au traitement et à la production du nombre, le modèle rend compte de l’hypothèse de Hemforth et Konieczny (2003) –qui se fondent là sur Eberhard 45 Comme le montre également le paragraphe 2.2.3., des influences sémantiques ne sont néanmoins pas à exclure totalement. Hemforth et Konieczny (2003) n’abordent pas la question de la nature sémantique ou syntaxique du trait de pluriel. Nous montrerons dans la dernière partie de ce travail qu’il serait tout à fait possible d’intégrer le niveau sémantique dans la modélisation que nous allons présenter. Le niveau sémantique devrait de toute façon être intégré pour modéliser également les phrases du type SOV, car l’effet de réactivation y est expliqué par l’anticipation du verbe qui se situe clairement sur le niveau sémantique ou conceptuel. Quant au niveau morpho-phonologique, les informations de ce type sont prises en compte dans la mesure où ils sont de toute évidence nécessaires à la compréhension et au traitement syntaxique. Nous ne présupposons cependant pas d’influence importante de ces informations sur les processus d’accord et ne modélisons donc pas une telle influence. 46 On suppose en accord avec presque tous les modèles d’explication que c’est le trait de pluriel du sujet qui est pertinent pour le nombre du verbe. Or, pour pouvoir appliquer cette règle, il faut d’abord déterminer quel SN remplit la fonction de sujet. 58 (1997)- selon laquelle la forme du singulier représente la forme par défaut, tandis que le pluriel est marqué par un trait. L’influence de l’activation des éléments de la mémoire Hemforth et Konieczny (2003) supposent que les erreurs d’accord s’expliquent par des changements d’activation du trait de pluriel. Ceci peut facilement être modélisé en ACT-R : tous les éléments de la mémoire déclarative ont une certaine activation qui varie avec le temps, comme le montre la formule présentée ci-dessus. Dans le modèle, tous les syntagmes qui ont été lus ainsi que le trait de pluriel sont soumis à une baisse constante de leur activation, tant qu’ils ne sont pas récupérés ou connectés avec le but. Il serait théoriquement possible d’empêcher artificiellement la baisse de l’activation des éléments d’une phrase en formant un chunk aux slots duquel on attribue tous les éléments de la phrase qui ont été lus, et en gardant ce chunk continuellement dans la mémoire tampon du but. Un tel style de modélisation permettrait un contrôle facile des processus de traitement. Mais si le traitement du langage se passait réellement de cette manière chez l’être humain, il serait parfaitement impossible d’expliquer pourquoi nous commettons des fautes. Dans un tel cas de figure, en effet, nous devrions par exemple pouvoir retenir des phrases de n’importe quelle longueur sans jamais oublier quel était le sujet de la phrase. Vu que cela ne correspond évidemment pas à la réalité, nous avons évité un tel style de programmation. Les mots qui sont lus et les groupes qui en sont formés deviennent des unités de la mémoire déclarative qui doivent de nouveau être récupérés pour être rappelés. 3.2.2. Le modèle au niveau symbolique Dans ce qui suit nous décrirons de façon plus approfondie la réalisation des hypothèses centrales du modèle d’activation que nous venons de résumer dans le paragraphe précédent. Nous commencerons par une présentation du savoir lexical et morphologique que le modèle possède au début du traitement de la tâche. Ensuite, nous décrirons le traitement d’un début de phrase qui implique la formation de nouveaux éléments de la mémoire déclarative et qui est effectué par les productions. Nous décrirons d’abord de manière isolée les différentes parties du traitement, comme par exemple la lecture d’un mot, pour expliquer ensuite comment ces parties sont reliées dans le déroulement global du modèle pour permettre finalement la production du nombre du verbe. 59 3.2.2.1. Le savoir lexical et morphologique Comme nous l’avons expliqué plus haut, le modèle lit les débuts de phrases et les traite à un niveau syntaxique. Le nombre de phrases différentes d’un même type qui peuvent être traitées par le modèle dépend de son savoir lexical déclaratif. Etant donné que pour le moment, nous ne modélisons pas des effets de niveau sémantique, il nous suffit ici de modéliser la lecture d’une seule phrase. Le modèle lit donc uniquement une phrase du type SPV, notamment la phrase (28), qui a été prise au hasard, dans les quatre versions bien connues : (28a) (28b) (28c) (28d) SS : Die Lehrerin des Schülers __ verwundert. SP : Die Lehrerin der Schüler __ verwundert. PS : Die Lehrerinnen des Schülers __ verwundert. PP : Die Lehrerinnen der Schüler __ verwundert. Pour pouvoir lire cette phrase, le modèle est équipé d’informations supplémentaires sur les lemmes en question. Ces informations sont représentées par des chunks des types lemma et lemma-feature. Les chunks du type lemma ont la forme suivante (voir aussi ci-dessus) : (lemma category string) Chaque chunk du type lemma a ainsi deux slots à côté du isa-slot : Le slot dénommé string sert à stocker la forme graphique du lemme, donc une chaîne de caractères, et le slot dénommé category sert à stocker la catégorie à laquelle appartient le lemme. Les catégories qui peuvent apparaître dans le modèle sont l’article (det), le nom (n) et le participe (part). Afin de pouvoir récupérer des lemmes pour tous les mots de la phrase (28), le modèle renferme le savoir suivant : (der isa lemma string "der" category det) (die isa lemma string "die" category det) (des isa lemma string "des" category det) (Schüler isa lemma string "schüler" category n) (Lehrerin isa lemma string "lehrerin" category n) (Schülers isa lemma string "schülers" category n) (Lehrerinnen isa lemma string "lehrerinnen" category n) (verwundert isa lemma string "verwundert" category part) De plus, certaines propriétés morphologiques des unités lexicales sont importantes pour le traitement syntaxique. Elles sont représentées par des chunks de type lemmafeature qui ont la forme suivante : (lemma-feature type feature det n) 60 Ces chunks de propriétés ne se réfèrent pas à des lemmes isolés, mais à des syntagmes nominaux.47 Ils ont par conséquent un slot dénommé det pour stocker l’article du SN et un slot dénommé n pour stocker le nom du SN. Le slot dénommé type sert à stocker l’information sur le type de la propriété (par exemple : le nombre) et le slot feature sert à stocker l’information sur la valeur de la propriété (par exemple : le pluriel). Les informations suivantes sont présentes dans le modèle : (plural-der-Schüler isa lemma-feature type number feature plural det der n Schüler) (plural-die-Lehrerinnen isa lemma-feature type number feature plural det die n Lehrerinnen) (nominativ-die-Lehrerin isa lemma-feature type case feature nom det die n Lehrerin) (nominativ-die-Lehrerinnen isa lemma-feature type case feature nom det die n Lehrerinnen) (genitiv-des-Schülers isa lemma-feature type case feature gen det des n Schülers) (genitiv-der-Schüler isa lemma-feature type case feature gen det der n Schüler) On voit que le savoir sur le cas d’un SN est représenté de manière explicite dans la mémoire déclarative. Concernant le nombre, des chunks du type lemma-feature n’existent que pour le pluriel. Comme le singulier est la forme par défaut, une représentation explicite de ce nombre n’est pas nécessaire. A côté des chunks que nous venons de présenter, il existe un autre chunk qui se trouve dans la mémoire déclarative dès le début de la procédure, à savoir un chunk de type comprehend-sentence. Ce chunk est mis dans la mémoire tampon du but au début d’un passage du modèle par la commande GOAL-FOCUS pour rendre compte du fait que le modèle « s’attend » à lire et à traiter une phrase. Nous exposerons dans ce qui suit comment cela se passe exactement. 3.2.2.2. Les productions et les buts : introduction et vue d’ensemble Les productions assurent le traitement du début de phrase et la production du verbe. Un point important pour le bon fonctionnement du modèle à ce niveau-là est le contrôle de l’ordre des productions. Ce contrôle est réalisé avant tout par les buts, c’est-à-dire par les chunks qui se trouvent dans la mémoire tampon du but pendant le déroulement du modèle. Le contrôle que peut exercer un chunk se trouvant dans la mémoire tampon du but trouve son origine dans le fait que chaque production a parmi ses conditions un test du contenu de la mémoire tampon du but. Il en résulte que, pour chaque type de 47 Les chunks du type lemma-feature représentent une simplification par rapport à la réalité à plusieurs égards : On ne suppose pas en réalité que les propriétés de groupes de mots soient directement représentées dans le dictionnaire ni que des propriétés morphologiques soient représentées au niveau de lemmes. De plus, les propriétés en question ici, comme le cas syntaxique, ne peuvent en réalité être déterminées de manière claire que dans un énoncé donné en utilisant aussi l’ordre des mots. Ces simplifications nous paraissent justifiables parce que les questions d’organisation du dictionnaire et de la compréhension au niveau morphologique ne sont pas d’une grande importance pour l’établissement de l’accord selon le modèle d’activation. 61 chunk dont les instances peuvent être mises dans la mémoire tampon du but, il n’y a qu’un nombre restreint de productions qui présuppose parmi leur conditions ce type de chunk et qui peut donc s’activer pendant que l’instance en question se trouve dans la mémoire tampon du but. L’ordre des productions est de plus contrôlé par la possibilité de hiérarchiser les buts : pour cela, on déclare un slot dans le type de chunk réservé au but superordonné du but poursuivi. De cette manière, on garde l’accès au but superordonné et on peut le remettre dans la mémoire tampon du but dès que le premier but est terminé. Ce slot est par convention appelé parent (voir tutorat ACTR, chapitre 9). Dans les paragraphes suivants, nous décrirons de façon plus précise les différentes étapes du déroulement du modèle. Pour chaque étape, nous présenterons le type de chunk se trouvant dans la mémoire tampon du but pendant le déroulement de cette sous-tâche précise. De plus, nous présenterons les productions qui réalisent la tâche en question. Par souci de lisibilité, nous décrirons uniquement les fonctions des productions sans nous attarder sur leurs formes précises (mis à part celles des productions revêtant une importance majeure). Une liste de l’ensemble des productions figure dans l’annexe I. Afin de donner un aperçu de la répartition du travail entre les différentes productions, nous avons retranscrit un déroulement du modèle dans le tableau 5. Dans la colonne de gauche figure le type du chunk correspondant au but poursuivi ; dans la colonne du milieu, on trouve la production qui fait feu; dans la colonne de droite, enfin, on peut lire le mot qui est traité ou produit par le modèle.48 Dans les prochaines pages, nous décrirons dans le détail ce qui est concrètement réalisé par les différentes productions. 3.2.2.3. Le traitement lexical des syntagmes Le traitement lexical des syntagmes est effectué en deux étapes : à un niveau inférieur, chaque mot qui est présenté au modèle est lu pour lui-même. Selon la catégorie à laquelle appartiennent les mots en question, le modèle instancie ensuite un but superordonné qui rassemble les différents mots dans des syntagmes. 48 ACT-R produit un protocole lors de chaque déroulement du modèle. Le tableau 5 a été construit à partir du protocole 1 de l’annexe II. 62 Nr. but Production 1 comprehend-sentence check-item 2 read-item attend-item 3 read-item retrieve-item 4 read-item end-subgoal 5 comprehend-sentence comprehend-sentence-start-process-np 6 process-np start-process-np 7 read-np start-read-np 8 read-item attend-item 9 read-item retrieve-item 10 read-item end-subgoal 11 read-np encode-n 12 read-np encode-nominativ-np 13 process-np start-check-plural-2 14 check-plural search-plural-feature 15 plural-feature no-plural 16 check-plural stop-check-plural 17 process-np stop-process-np 18 comprehend-sentence search-subject-np 19 comprehend-sentence encode-subject-np 20 comprehend-sentence check-item 21 read-item attend-item 22 read-item retrieve-item 23 read-item end-subgoal 24 comprehend-sentence comprehend-sentence-start-process-np 25 process-np start-process-np 26 read-np start-read-np 27 read-item attend-item 28 read-item retrieve-item 29 read-item end-subgoal 30 read-np encode-n 31 read-np encode-genitiv-np 32 process-np start-search-modified-np 33 search-modified-np search-modified-np 34 search-modified-np encode-modified-np 35 search-modified-np end-search-modified-np 36 process-np start-check-plural-1 37 check-plural search-plural-feature 38 plural-feature search-plural-np 39 plural-feature encode-plural-np 40 check-plural stop-check-plural 41 process-np stop-process-np 42 comprehend-sentence process-modifier-np 43 comprehend-sentence check-item 44 read-item attend-item 45 read-item retrieve-item 46 read-item continue-subgoal-no-retrieval 47 read-item attend-item 48 read-item retrieve-item 49 read-item end-subgoal 50 comprehend-sentence comprehend-sentence-start-read-vp 51 read-vp start-read-vp 52 read-item no-more-items 53 read-vp encode-no-more-items 54 comprehend-sentence end-comprehend 55 comprehend-sentence answer-plural 56 comprehend-sentence answer-singular-2 Tableau 5 : Déroulement possible des productions dans la condition SP mots traités/produits die Lehrerin des Schülers __ verwundert ist 63 La lecture de mots isolés : read-item La lecture de mots isolés présentés au modèle peut se faire lorsque le but est constitué d’un chunk du type read-item. Comme on peut le voir dans le tableau 5, un tel but est formulé à plusieurs moments : au début d’un déroulement du modèle et au cours de celui-ci, plus exactement à chaque moment où le traitement d’un mot est terminé et le traitement du mot suivant est à commencer (voir lignes 2-4, 8-10, 21-23, 27-29, 44-49 et 52). Le tableau 6 énumère les slots du type d’un chunk read-item ainsi que les productions qui peuvent être activées lorsqu’un tel chunk représente le but poursuivi. slots productions lemma, category, parent, state attend-item no-more-items retrieve-item continue-subgoal-no-retrieval end-subgoal Tableau 6 : Les buts du type read-item, leurs slots et les productions possibles Lorsque le modèle lit un mot pour lequel il existe un chunk du type lemma dans sa mémoire déclarative, la lecture se fait uniquement au travers de trois productions : La production attend-item fait que l’attention du module visuel est concentrée sur le mot à lire. Cette première étape permet le stockage de la forme graphique du mot dans la mémoire tampon visuelle. Dans un deuxième temps, la production retrieve-item récupère le lemme qui correspond à cette forme de la mémoire déclarative. Finalement, la production end-subgoal attribue le lemme au slot lemma et la catégorie du lemme au slot category et remet ensuite le but superordonné, qui est stocké dans le slot parent, dans la mémoire tampon du but. La production no-more-items fait feu lorsqu’il n’y a plus de mots présentés au modèle. Elle remet directement le but superordonné dans la mémoire tampon du but. Dans le tableau 5, ligne 52, figure la trace de ce procès, qui correspond, comme nous venons de le dire, au moment où tous les mots ont été lus et où le module visuel ne peut plus trouver de mots nouveaux. En revanche, la production continue-subgoal-no-retrieval fait feu dans les cas où un mot a bien été lu, mais où il n’existe pas d’entrée correspondante dans la mémoire déclarative. Dans le tableau 5, cette situation figure à la ligne 46. La forme graphique qui est lue à ce moment (le signe _ ) ne correspond pas à un lemme dans la mémoire 64 déclarative du modèle. La production continue-subgoal-no-retrieval active alors la production attend-item afin de faire porter l’attention sur le mot suivant. En somme, le but read-item effectue la récupération du lemme et de la catégorie d’un mot à partir de la mémoire déclarative et stocke ces informations dans deux de ses slots. La lecture des syntagmes nominaux : read-np Le type de chunk read-np a déjà été présenté brièvement dans l’introduction à ACTR. Le tableau 7 donne une vue globale des slots et des productions possibles. slots productions det, n, case, modifies, parent, state, function start-read-np encode-n encode-nominativ-np encode-genitiv-np Tableau 7 : Les buts du type read-np, leurs slots et les productions possibles Le modèle instancie des chunks de type read-np lorsqu’un lemme de la catégorie de l’article vient d’être lu. Dans ce cas, on peut conclure que le syntagme à lire est un syntagme nominal. La production start-read-np attribue l’article qui vient d’être lu au slot det et instancie un nouveau but subordonné du type read-item pour déclencher la lecture du nom (voir tableau 5, ligne 7 et ligne 27). Après la lecture du nom, le but read-np est remis dans la mémoire tampon du but (tableau 5, lignes 11 et 30). Ensuite, la production encode-n récupère de la mémoire déclarative l’information sur le cas syntaxique qui prend la combinaison de l’article et du nom. Cette information est ensuite stockée dans le slot case par la production encode-nominativ-np et encodegenitiv-np respectivement. De plus, ces productions remettent le but superordonné du chunk read-np dans la mémoire tampon du but. Dès que le chunk read-np lui-même ne se trouve plus dans la mémoire tampon du but, il devient une unité de la mémoire déclarative qui doit être récupérée si le modèle a besoin de « se souvenir » de ce SN.49 Cela est le cas dans la suite du processus, où slots modifies et function entrent en jeu (voir le paragraphe suivant). En somme, le but read-np sert à stocker les lemmes et le cas syntaxique d’un SN. 49 Dans le cadre de la description du modèle, le terme « SN » désigne donc toujours un chunk du type read-np, ainsi que les termes « article », « nom » etc. désignent des chunks du type read-item. 65 Le but read-vp Le but read-vp est le pendant verbal de read-np. Il stocke les lemmes qui font partie d’un syntagme verbal (SV). Un but de ce type est mis dans la mémoire tampon du but dès qu’un lemme de la catégorie du participe a été lu (voir tableau 5, ligne 51). La production start-read-vp instancie alors un but subordonné du type read-item, qui sert en principe à rassembler les autres mots du SV. Cette étape n’est jamais terminée avec succès dans le modèle sous sa forme actuelle : en effet, le modèle ne trouve jamais d’auxiliaire, étant donné que celui-ci est à produire. C’est alors la production encode-no-items qui fera feu en remettant le but superodonné dans la mémoire tampon du but. Pour arriver à un modèle plus complet, il faudrait ajouter d’autres productions pour pouvoir traiter des SVs complets. Mais cela n’est pas essentiel pour la modélisation de l’accord. Les slots des buts de type read-vp et les deux productions possibles sont résumés dans le tableau 8. slots productions aux, part, parent, state, function start-read-vp encode-no-more-items Tableau 8 : Les buts du type read-vp, leurs slots et les productions possibles 3.2.2.4. Le rattachement des syntagmes modificateurs Le rattachement des syntagmes modificateurs aux syntagmes modifiés rend possible la modélisation de la proximité syntaxique. Ce rattachement peut être effectué si un chunk de type search-modified-np se trouve dans la mémoire tampon du but. Les slots et les productions possibles de ce type de but sont résumés dans le tableau 9. slots productions modifying, modified, parent, state search-modified-np encode-modified-np end-search-modified-np Tableau 9 : Les buts de type search-modified-np, leurs slots et les productions possibles Un but de type search-modified-np est instancié lorsqu’un SN qui vient d’être lu porte le cas syntaxique du génitif.50 Chaque début de phrases qui est lu est concerné une fois (voir par exemple la ligne 33 du tableau 5). Le rattachement du SN au génitif au SN au nominatif est réalisé au travers de trois productions : D’abord, la production search-modified-np cherche un SN au nominatif 50 Pour l’adaptation du modèle à d’autres langues, envisagé en bas, ce mécanisme devrait être déclenché par le fait que le deuxième syntagme soit un syntagme prépositionnel. 66 dans la mémoire déclarative. Cette recherche mène à la récupération du dernier SN au nominatif (sous la forme d’un chunk du type read-np) à avoir été lu. La production encode-modified-np désigne celui-ci au slot modified du but. Ensuite, la production end-search-modified-np récupère encore une fois le SN au génitif pour le désigner au slot modifies du chunk représentant le SN au nominatif (voir ci-dessus pour le type de chunk read-np). En résumé, ce but amène le SN au nominatif dans le slot modifies du SN au génitif. 3.2.2.5. La représentation et le traitement du nombre Le nombre d’un SN à traiter est déterminé après que les buts read-np et, si nécessaire, search-modified-np ont terminé leur contribution au traitement. La représentation du nombre dans le modèle reflète l’idée selon laquelle le singulier est le nombre par défaut, tandis que le pluriel est un trait marqué (voir paragraphe 2.2.2.). Un tel trait de pluriel est formé lorsqu’un SN a été reconnu comme étant au pluriel. Le but check-plural Le but check-plural a pour seule fonction d’instancier un but subordonné du type plural-feature après que le traitement d’un SN est par ailleurs terminé (voir tableau 5, lignes 14 et 37). Il n’a donc pas d’autres slots que le slot parent et le slot state qui ne sert qu’à suivre le déroulement des productions (voir tableau 10). La production search-plural-feature instancie un chunk de type plural-feature, qui est ensuite placé dans la mémoire tampon du but lui-même. En même temps, elle provoque la recherche d’un trait de pluriel attaché au SN en question.51 Après que les productions liées à ce nouveau but du type plural-feature ont fait feu (voir le paragraphe suivant), le chunk du type check-plural est remis dans la mémoire tampon du but. La production stop-check-plural place ensuite le but superordonné à celui-ci dans la mémoire tampon du but. slots productions parent, state search-plural-feature stop-check-plural Tableau 10 : Les buts de type check-plural, leurs slots et les productions possibles Le but plural-feature 51 Ce chunk du type lemma-feature n’est pas à confondre avec le trait de pluriel syntaxique. Il ne s’agit que de la connaissance d’ordre morpho-phonologique du fait qu’une forme comme par exemple „die Schüler“ constitue une forme du pluriel. Ceci est à distinguer du pluriel syntaxique d’un SN dans un énoncé concret. 67 Comme les chunks du type plural-feature ont un rôle essentiel dans le modèle, nous décrirons leur structure de façon assez détaillée. Comme on le voit dans le tableau 11, un chunk de type plural-feature possède les quatre slots feature, np, parent et state. slots productions feature, np, parent, state no-plural search-plural-np encode-plural-np Tableau 11 : Les buts de type plural-feature, leurs slots et les productions possibles Le modèle n’attribue au slot state jamais un autre chunk, mais toujours une chaîne de caractères qui permet de suivre le déroulement de la détermination du nombre. Quant au slot parent, il reçoit toujours le but superordonné de type ceck-plural. Ces deux slots ne contribuent donc pas directement à la représentation du nombre. Les slots np et feature sont les slots décisifs. Si un SN traité se trouve au pluriel, on désigne le chunk de type read-np qui correspond à ce SN au slot np du but de type plural-feature. Pour cela, le chunk de type read-np doit d’abord être cherché dans la mémoire déclarative, ce qui est déclenché par la production search-plural-np. Si le SN a été récupéré avec succès, un chunk « plural » est attribué au slot feature du chunk plural-feature. Ce chunk n’appartient à aucun des types que nous avons définis, mais au type prédéfini chunk qui n’a pas de slots et qui est utilisé à chaque fois qu’un chunk est instancié sans que son type ait été déclaré. La constellation qui en résulte est présentée dans la figure 8. „plural-feature1“ feature np „plural“ „read-np1“ Figure 8 : La représentation du pluriel d’un SN Le fait qu’un SN soit au pluriel n’est donc pas représenté directement dans le chunk du type read-np, mais sous forme d’un chunk du type plural-feature. Cette représentation du nombre rend compte de deux résultats empiriques fondamentaux : D’une part, le fait que le nombre ne soit pas lié de façon indissociable au SN en question. Visiblement, il arrive qu’un sujet se souvienne encore de beaucoup de propriétés d’un SN (sinon, il serait impossible de produire un verbe adapté), mais choisisse tout de même le mauvais nombre pour le verbe. Ce phénomène s’observe dans toutes les expériences présentées dans la deuxième partie. 68 D’autre part, cette forme de représentation rend compte de tous les résultats empiriques qui soulignent la pertinence d’un marquage différentiel des deux nombres dans le sens d’Eberhard (1997). Il n’existe pas de trait de singulier correspondant au trait de pluriel. Un SN au singulier se distingue d’un SN au pluriel par le simple fait de ne pas être lié à un trait de pluriel. Dans le cas où un SN examiné dans le cadre d’un but plural-feature ne se trouveerait pas au pluriel, la production no-plural remet simplement le but superordonné du type check-plural dans la mémoire tampon du but. 3.2.2.6. Les processus de traitement superordonnés Les buts présentés jusqu’ici ont en commun de n’avoir pas plus qu’un but subordonné. Ils ne servent pas tellement au contrôle du traitement de la phrase, mais plutôt à l’accomplissement de sous-tâches précises. Les processus de traitement superordonnés sont effectués dans le cadre des buts process-np et comprehend-sentence. Pour donner une vue d’ensemble des relations entre les différents buts, la figure 9 indique tous les types de chunk qui prennent la fonction du but pendant le déroulement du modèle ainsi que leurs relations hiérarchiques. Une flèche qui mène d’un but à un autre indique que le dernier est un but superordonné au premier. comprehend-sentence process-np read-np read-item search-modified-np read-item check-plural read-vp plural-feature read-item Figure 9 : Les buts du modèle et leurs relations hiérarchiques On voit dans cette figure que tous les buts qui servent au traitement des syntagmes nominaux sont rassemblés sous le but superordonné process-np. De plus, tous les buts sont subordonnés au but comprehend-sentence. Le fonctionnement de ces deux buts sera décrit avec plus de détail dans ce qui suit. Le but process-np Le fait que le but process-np ait une fonction de contrôle se reflète dans deux choses : premièrement, dans le peu de slots que possède le type chunk process-np ; deuxièmement, dans le nombre relativement élevé de productions associées à ce type 69 (voir tableau 12). Un but de type process-np ne sert pas à stocker des informations, mais plutôt à déclencher au bon moment les différentes étapes du traitement. slots productions parent, state start-process-np start-search-modified-np start-check-plural-1 start-check-plural-2 stop-process-np Tableau 12 : Les buts de type process-np, leurs slots et les productions possibles Comme on le voit dans la figure 9, un chunk de type process-np peut être le but superordonné de trois types de buts subordonnés possibles, qui servent tous au traitement des SN : read-np, search-modified-np et check-plural. Un but de type process-np sert à contrôler le fonctionnement de ces trois types de but. Un but de type process-np est mis dans la mémoire tampon du but par un but comprehend-sentence si un article vient d’être lu et que le syntagme à lire sera donc un syntagme nominal. La production start-process-np instancie ensuite un but subordonné de type read-np (voir tableau 5, lignes 6 et 25). Après la lecture du SN, le but de type process-np est remis dans la mémoire tampon du but. Dans le même temps, le but read-np qui est terminé est placé dans la mémoire tampon de récupération. Les productions peuvent ainsi vérifier le cas du SN qui vient d’être lu, cette information étant représentée dans les chunks de type read-np. S’il s’agit du nominatif, c’est la production start-checkplural-1 qui fait feu (voir tableau 5, ligne 13). Elle instancie un but subordonne de type check-plural afin de déterminer le nombre du SN. Si le dernier SN lu est au contraire un SN au génitif, c’est la production start-searchmodified-np qui fait feu afin de trouver le SN modifié (voir tableau 5, ligne 32). Lorsque le processus de rattachement est terminé, la production start-check-plural-2 fait feu pour déterminer finalement le nombre du SN au génitif (voir tableau 5, ligne 36). Lorsqu’un but subordonné de type check-plural est terminé, la production stopprocess-np remet le but superordonné de type comprehend-sentence dans la mémoire tampon du but. Le but comprehend-sentence Comme on le voit dans le tableau 13, les chunks de type comprehend-sentence ont eux aussi peu de slots, mais en revanche beaucoup de productions associées. Cela est d’autant plus vrai que même les slots subject et predicat ne servent pas au stockage 70 de chunks , mais indiquent seulement si le sujet et le prédicat ont oui ou non été lus (les deux valeurs possibles de ces slots sont « nil » et la chaîne de caractères « complete »). Dans ce paragraphe, nous présenterons les six premières productions énumérées dans le tableau 13. Les cinq autres productions servent à la production du verbe et seront traitées dans le paragraphe suivant. slots productions subject, predicate, state check-item comprehend-sentence-start-process-np comprehend-sentence-start-read-vp search-subject-np encode-subject-np process-modifier-np end-comprehend answer-singular answer-singular-2 answer-plural answer-plural-2 Tableau 13 : Les buts de type comprehend-sentence, leurs slots et les productions possibles Lorsqu’un tour de modèle débute - nous l’avons déjà dit plus haut - c’est un chunk de type comprehend-sentence qui se trouve dans la mémoire tampon du but. Le slot state de ce chunk a comme valeur la chaîne de caractères « start-check-item ». La production check-item est la seule à pouvoir faire feu dans cette configuration. Elle instancie un but subordonné de type read-item pour lire le premier mot (voir tableau 5, ligne 2). Cela montre d’ailleurs que les chunks du type read-item ne sont pas toujours subordonnés à des buts de type read-np ou read-vp, mais peuvent être directement instanciés par un but de type comprehend-sentence (ceci est représenté dans la figure 9 par la flèche entre read-item et comprehend-sentence). On modélise ainsi une forme de traitement plutôt ascendant (bottom-up) : Les buts subordonnés du type process-np ou read-np ne sont instanciés que lorsque le premier mot de la phrase a déjà été lu, et leur instanciation dépend de la catégorie de ce mot. Ainsi, la production comprehend-sentence-start-process-np instancie un but de type process-np, si un article vient d’être lu, et la production comprehend-sentence-start-read-vp instancie un but de type read-vp, si un participe a été lu. En théorie du moins, cette forme de traitement permet, sans grandes difficultés, l’élargissement du modèle à des phrases plus complexes. Le traitement fonctionnel des syntagmes est également réalisé au niveau des buts de type comprehend-sentence. La fonction d’un syntagme peut être déterminée après que son traitement syntaxique a été terminé et que le but superordonné de type com71 prehend-sentence se trouve à nouveau dans la mémoire tampon du but. Si le syntagme en question est un syntagme nominal et que la fonction de sujet n’a pas encore été attribuée (le slot sujet du but comprehend-sentence doit alors avoir la valeur « nil »), on attribue la fonction de sujet au syntagme en question. Cette information n’est pas directement inscrite dans le but superordonné de type comprehendsentence, mais dans le syntagme lui-même, c’est-à-dire dans un chunk de type readnp.52 Pour cela, le chunk en question doit d’abord être récupéré de la mémoire déclarative, ce qui est fait par la production search-subject-np. La production encodesubject-np attribue ensuite le chunk « subject » au slot function du syntagme qui vient d’être récupéré. De plus, la chaîne de caractères « complete » est attribuée au slot subject du but de type comprehend-sentence. Lorsque le traitement d’un autre SN est terminé, ce SN ne reçoit plus de fonction. La production process-modifier-np déclenche la lecture du mot suivant.53 Ici, un élargissement du modèle aux fonctions de l’objet direct et de l’objet indirect serait facilement possible réalisable. Cet élargissement n’est pas nécessaire dans la version actuelle, car il n’existe pas de SN dans le modèle qui remplissent ces fonctions. L’assignement de la fonction du « prédicat » au SV est effectué par la production end-comprehend, qui fait feu dès qu’il n’y a plus de nouveaux mots à lire. L’assignement de la fonction est réalisé à ce moment-là parce que le SV est toujours le dernier syntagme à lire, du moins dans la version actuelle du modèle. Il s’ensuit que le modèle devrait être élargi pour pouvoir traiter des phrases plus complexes. 3.2.2.7. La production du nombre du verbe Les sujets expérimentaux des expériences de Hemforth et Konieczny (2003) ont eu à produire un auxiliaire après avoir lu le début de la phrase. Dans le cadre de notre réflexion, la partie la plus importante de cette tâche est la décision qui doit être prise quant au nombre du verbe. Par conséquent, nous avons simplifié le modèle : seule la sélection du nombre a été modélisée, et non pas l’ensemble des processus de la production du verbe. Comme des appuis sur des touches sont plus faciles à modéliser et 52 Cela correspond au principe que nous avons présenté dans les réflexions préliminaires selon lequel on ne devrait pas stocker un nombre trop élevé d’informations dans des buts superordonnés. 53 En somme, c’est donc le premier des deux SN qui reçoit la fonction de sujet Ceci n’est toutefois pas entièrement correct, parce qu’en principe, c’est le SN complexe en entier qui constitue le sujet de la phrase. D’un autre côté, la fonction du sujet est importante dans le modèle uniquement parce que le sujet détermine le nombre du verbe. Il nous paraît donc justifié de traiter la fonction de sujet comme un trait caractérisant le SN qui détermine le nombre du verbe. Pour ces raisons, une distinction entre « SN sujet » et « tête du SN sujet » ne nous paraît pas nécessaire. 72 à dépouiller que par exemple des réactions orales, la « décision » du modèle se traduit par le fait d’appuyer sur une touche : la touche « s » traduit alors une décision pour le singulier, et la touche « p » traduit une décision pour le pluriel.54 En même temps, les mots « ist » respectivement « sind » sont émis.55 Les cinq dernières productions du tableau 13 contribuent à former la réponse du modèle. Elles seront présentées de manière détaillée dans ce qui suit. La première de ces productions à faire feu est la production end-comprehend, qui a la forme suivante : (p end-comprehend =goal> isa comprehend-sentence subject "complete" state "encode" =retrieval> isa read-vp state "no-more-items" ==> =retrieval> function predicate =goal> state "answer" predicate "complete" +retrieval> isa read-np function subject) Cette production fait feu si un but subordonné du type read-vp a été terminé (ce qui se montre par le fait qu’il ne se trouve plus dans la mémoire du but, mais dans celle de récupération, où chaque but terminé est placé par convention) et si la chaîne de caractères « no-more-items » se trouve dans le slot state de ce but, ce qui signifie qu’il n’y a plus de mots à lire. Concernant les actions de cette production, il importe tout d’abord que le slot state reçoive comme valeur la chaîne de caractères « answer ». Ceci permet aux productions qui produisent la réponse de faire feu. De plus, la récupération d’un chunk de type read-np de la mémoire déclarative est provoquée par le signe +retrieval. Le slot function de ce chunk doit avoir la valeur « subject ». Il s’agit donc du chunk read-np qui a été formé lors de la lecture du SN sujet. La récupération de ce chunk est nécessaire pour pouvoir déterminer son nombre si besoin. 54 Une telle expérience avec des sujets humains n’aurait pas de sens, car le caractère artificiel de la tâche brouillerait les résultats. En revanche, dans le modèle ACT-R, ce risque n’existe pas. Par ailleurs, une modélisation de l’ensemble du processus de la production du verbe n’augmenterait pas l’intérêt du modèle, car nous partons du principe que ces processus sont sans influence sur les erreurs d’accord. 55 « émettre » signifie ici que le mot en question apparaît dans le protocole du passage. Une émission peut être provoquée par la commande !output! qui compte parmi les actions d’une production. 73 Il existe deux productions qui peuvent faire feu dans la situation qui émerge, answersingular et answer-plural : (p answer-singular =goal> isa comprehend-sentence state "answer" =retrieval> isa read-np function subject =manual-state> isa module-state modality free ==> +manual> isa press-key key "s" =goal> state "stop" !output! "ist") (p answer-plural =goal> isa comprehend-sentence state "answer" =retrieval> isa read-np function subject ==> +retrieval> isa plural-feature np =retrieval) Au regard des conditions, il n’y pas de différence importante entre ces deux productions.56 A chaque fois qu’une des deux peut faire feu, l’autre pourrait le faire aussi. Parmi les actions, answer-singular provoque une « décision » du modèle pour un auxiliaire au singulier : Cela est révélé par le fait que la touche « s » est pressée (ce qui est provoqué en mettant un chunk de type prédéfini press-key dans la mémoire tampon manuelle). Cette production provoque une « décision » pour le singulier sans que le nombre du SN sujet ait été vérifié. En revanche, answer-plural déclenche la recherche d’un chunk de type pluralfeature, dont le slot np soit rempli par le chunk de type read-np qui se trouve dans la mémoire tampon de récupération. Comme nous venons de l’expliquer ci-dessus, le SN qui est représenté par ce chunk est le SN sujet. Après qu’answer-plural a fait feu, il y a de nouveau deux productions qui peuvent faire feu : 56 Nous ne tenons ici pas compte du fait qu’answer-singular, contrairement à answer-plural, teste le contenu de la mémoire tampon qui enregistre les informations concernant les mouvements ou l’absence de mouvement des mains (simulées) du modèle (manual-state-buffer). Ce test est appliqué parce qu’une des actions provoquées par answer-singular actionne les mains qui doivent alors être dans un état stationnaire au départ (Le slot modality doit avoir la valeur free). Comme il n’y a pas d’autres mouvements des mains pendant le déroulement du modèle, cette condition est toujours remplie. Au bilan, les deux productions posent des conditions équivalentes. 74 (p answer-plural-2 =goal> isa comprehend-sentence state "answer" =retrieval> isa plural-feature =manual-state> isa module-state modality free ==> +manual> isa press-key key "p" =goal> state "stop" !output! "sind") (p answer-singular-2 =goal> isa comprehend-sentence state "answer" =retrieval> isa error =manual-state> isa module-state modality free ==> +manual> isa press-key key "s" =goal> state "stop" !output! "ist") Answer-plural-2 fait feu si un chunk de type plural-feature a été trouvé dans la mémoire déclarative et placé dans la mémoire tampon de récupération. Cela n’est le cas que si le SN sujet de la phrase est au pluriel. Answer-plural-2 provoque une « décision » pour un verbe au pluriel : le modèle appuie sur la touche « p » et émet la forme verbale « sind ». Si, au contraire, un chunk de type plural-feature ne peut pas être trouvé dans la mémoire déclarative, un message d’erreur est placé dans la mémoire tampon de récupération. Dans ce cas, c’est la production answer-singular-2 qui fait feu. Possédant les mêmes actions que la production answer-singular, elle produit comme elle un verbe au singulier. Quelles sont les hypothèses concernant l’établissement de l’accord qui sont à la base de ces schémas de productions ? Il s’agit surtout de l’hypothèse selon laquelle il existe une tendance de base vers le singulier (voir ci-dessus). Cette tendance se reflète dans les deux productions answer-singular et answer-singular-2 : Elles ne font pas feu grâce à l’existence d’un trait spécifique comme les productions qui produisent le pluriel, mais par défaut, soit lorsqu’une recherche de trait de pluriel n’a pas eu lieu (answer-singular), soit lorsque celle-ci n’a pas été couronnée de succès (answersingular-2). Sans le test de la mémoire tampon de récupération, on pourrait même rassembler les deux productions dans une seule. Cette programmation rendrait encore plus claire le fait que ces productions expriment une tendance de base qui est présente sans devoir être déclenchée par la présence de chunks spécifiques, et qui en revanche ne peut être refrénée que par la présence de certains chunks.57 57 L’idée de départ était de rassembler les deux productions answer-singular et answer-singular-2 en une seule production. La dissociation artificielle en deux productions était nécessaire pour des raisons purement techniques et n’est pas censée refléter une quelconque hypothèse sur l’organisation psychique réelle. Les raisons techniques étaient les suivantes : On ne peut pas mettre en concurrence en ACT-R deux productions qui n’effectuent pas des tests sur les mêmes mémoires tampons. Comme answer-singular se trouve en concurrence avec answer-plural et que answer-plural effectue un test 75 En revanche, le fait que le pluriel ne puisse être produit que par les actions conjointes de deux productions est voulu. Cela reflète le fait qu’il est plus difficile de produire un verbe au pluriel que de produire un verbe au singulier : Pour produire un verbe au pluriel, un locuteur doit se souvenir du fait que la tête du SN sujet en question était au pluriel. Transposé au modèle ACT-R, cela signifie qu’un chunk du type pluralfeature qui est lié au SN remplissant la fonction du sujet doit être cherché dans la mémoire déclarative. Ce processus de recherche est modélisé à l’aide de la production answer-plural. Answer-plural-2 ne peut ensuite faire feu que lorsque cette recherche a été exécutée avec succès. En somme, le modèle peut aboutir à une réponse par trois voies différentes : Premièrement, la production answer-singular peut faire feu à la place de la production answer-plural. Dans ce cas, la modèle « se décide » toujours pour un singulier, ce qui est juste dans 50 % des cas (tête au singulier), et faux dans les 50 autres % (tête au pluriel). Deuxièmement, si c’est par contre la production answer-plural qui fait feu, une recherche du trait de pluriel est déclenchée. Le modèle « se décide » alors pour le pluriel si un trait est trouvé et pour le singulier si la recherche n’est pas concluante (ce qui correspond à la troisième voie envisagée). Dans la plupart des cas, le modèle produit donc une réponse qui est correcte. Par exemple, dans le passage consigné dans le tableau 5, c’est answer-plural qui fait feu et non pas answer-singular (ligne 55). Ensuite, aucun trait de pluriel n’ayant été trouvé, answer-singular-2 fait feu au lieu d’answer-plural-2 et la phrase « die Lehrerin der Schüler __ verwundert » est correctement complétée par le mot « ist » (ligne 56). Toutefois, on peut trouver des erreurs même après qu’answer-plural a fait feu. Pour comprendre comment cela se produit, il faut prendre en compte le niveau soussymbolique du modèle. Avant d’entreprendre cela, nous résumerons brièvement dans le paragraphe qui suit les processus du niveau symbolique. 3.2.2.8. Résumé En conclusion, nous avons montré dans cette partie que les processus modélisés en ACT-R sont ceux qui sont considérés par le modèle d’activation comme essentiels pour l’établissement de l’accord en construction SPV. sur la mémoire tampon de récupération, il n’était pas possible de former une seule production qui produise le singulier en laissant le contenu de cette mémoire sous-spécifié. 76 Le modèle reproduit le déroulement d’une tâche expérimentale précise qui se compose des processus de compréhension et de production. Pour reproduire la compréhension, le modèle lit des mots en les regroupant en syntagmes qui deviennent des éléments de la mémoire déclarative. De plus, des syntagmes modificateurs sont rattachés aux syntagmes modifiés, ce qui correspond à l’aspect de proximité syntaxique. Finalement, le modèle reproduit également le marquage différentiel du singulier et du pluriel ainsi que la règle de base selon laquelle le nombre du verbe dépend du nombre du sujet de la phrase. Afin de pouvoir appliquer cette règle, le modèle reproduit aussi un traitement fonctionnel. Avec cela, les processus du niveau symbolique sont décrits de façon complète. Pour permettre de mieux comprendre le fonctionnement du modèle et l’émergence des erreurs, nous décrirons dans la prochaine sous-partie le modèle en nous plaçant au niveau sous-symbolique. 3.2.3. Le modèle au niveau sous-symbolique La majorité des processus sous-symboliques qui ont lieu pendant le déroulement du modèle ne contribue pas directement au fonctionnement du modèle ou à l’établissement de l’accord. Les processus sous-symboliques ne sont importants pour nous que dans la mesure où ils permettent la modélisation d’erreurs. Si le modèle n’existait qu’au niveau symbolique, ses réponses seraient soit toujours justes soit toujours fausses soit toujours totalement accidentelles. La modélisation d’erreurs qui apparaissant avec une certaine probabilité n’est possible qu’au niveau soussymbolique. Concernant les phrases de type SPV qui ont jusqu’ici été utilisées pour la modélisation, Hemforth et Konieczny (2003) ont observé deux types d’erreurs : L’erreur générale de singulier ainsi que l’effet mismatch après des têtes au singulier qui ne s’observe pas après des têtes au pluriel (voir ci-dessus). Nous décrirons dans ce qui suit la genèse de ces deux erreurs au niveau soussymbolique. Pour cela, nous résumerons d’abord quelles productions et quels chunks contribuent à l’erreur en question. Ensuite, nous décrirons la manière dont des changements au niveau sous-symbolique portant sur les activations des chunks et les utilités des productions influent sur ces processus. Les changements en question sont influençables et dans leur nature et dans leur impact par les valeurs que prennent certains paramètres prédéfinis. Chacun de ces paramètres a une valeur de défaut de 77 laquelle un modèle peut s’écarter afin de parvenir à une meilleure couverture des données. Une telle modification de la valeur semble justifiée dans la mesure où les valeurs de défaut elles-mêmes présentent nécessairement une simplification. D’un autre côté, il est toujours préférable d’éviter d’ajuster des paramètres, parce qu’un modèle est particulièrement convaincant s’il fonctionne sur des valeurs qui se sont déjà avérées bonnes dans d’autres modèles. Par conséquent, nous indiquerons si les valeurs des paramètres ont pu être conservées ou non et nous justifierons à chaque fois la valeur en question (pour une liste de tous les paramètres, l’annexe I). Par ailleurs, nous illustrerons par des passages concrets du modèle l’émergence des erreurs de l’ensemble des processus sous-symboliques. 3.2.3.1. L’erreur générale de singulier Comme décrit plus haut, Hemforth et Konieczny (2003) expliquent l’erreur générale de singulier par une baisse trop importante de l’activation du trait de pluriel qui empêche la récupération de celui-ci, ce qui a pour conséquence que la tendance générale vers des verbes au singulier l’emporte (voir paragraphe 2.3.6.3.). Les mécanismes qui réalisent cette hypothèse en ACT-R seront décrits dans la suite. Answer-singular vs. answer-plural : Des utilités divergentes La production answer-singular a pour caractéristique de produire des verbes au singulier sans avoir nullement essayé de chercher un trait de pluriel. Si cette règle n’existait pas, un verbe au singulier ne pourrait être produit qu’après la recherche – infructueuse- d’un trait de pluriel. Ceci serait en contradiction avec l’idée fondamentale selon laquelle le singulier est le nombre par défaut. Nous avons déjà mentionné que la production answer-singular se trouve dans une situation de concurrence directe avec la production answer-plural. De plus, nous avons déjà expliqué que 50 % des réponses de la production answer-singular sont fausses. Au niveau symbolique, cela n’a pas de conséquences : La question de savoir si une production fait feu ou non ne dépend pas de sa probabilité de succès, mais uniquement de la correspondance entre ses conditions et la situation donnée. En revanche, au niveau sous-symbolique, la probabilité de succès d’une production devrait être reflétée par son utilité. Pour simuler cela, de différentes utilités ont été attribuées à answer-singular et answer-plural dans le modèle. 78 Pour ce faire, nous avons directement attribué des valeurs aux variables de équation de l’utilité que nous avons déjà présentée (l’équation 3 : Ui = Pi G - Ci + ε ). Les valeurs par défaut des variables de cette équation sont les suivantes : P (probabilité de succès ) = 1 seconde G (valeur du but) = 20 secondes C (coûtes) = 0,05 secondes ε (bruit) = nil (voir tutorat ACT-R, chapitre 8, p. 7) Il en résulte une utilité de défaut de 19.950 secondes par production. Cette valeur a été conservée pour la majorité des productions du modèle. Comme il n’y a presque toujours qu’une seule production qui puisse faire feu à un moment donné du déroulement du modèle, l’utilité de ces productions n’a de toute façon pas beaucoup d’importance. Seules les productions answer-singular et answer-plural se trouvent dans une situation de concurrence, ce qui fait que leurs utilités ont beaucoup d’influence sur les résultats du modèle. Nous avons changé ces utilités et abaissé P à une valeur de 0.55 pour answer-singular, mais de 0.6 pour answer-plural. Il en résulte une utilité totale de 10.950 pour answer-singular, mais de 11.950 pour answer-plural. Ces valeurs se justifient par le succès différent des deux productions décrites plus haut. S’il n’y avait pas de bruits dans le système, cette répartition des utilités provoquerait la sélection systématique d’answer-plural. Ceci est illustré par le passage suivant extrait du protocole pour lequel nous avons éliminé tout bruit du calcul des utilités : 1 productions out of 1 considered; expected gain of chosen is : 19.950 Time 3.409 : End-Comprehend Selected Time 3.459 : End-Comprehend Fired Time 3.468 : Goal215 Retrieved 1 productions out of 2 considered; expected gain of chosen is : 11.950 Time 3.468 : Answer-Plural Selected Time 3.518 : Answer-Plural Fired Time 3.540 : Goal220 Retrieved 1 productions out of 1 considered; expected gain of chosen is : 19.950 Time 3.540 : Answer-Plural-2 Selected sind Time 3.590 : Answer-Plural-2 Fired (extrait du protocole 2, annexe II) Ce protocole énumère toutes les productions qui font feu ainsi que, pour chaque production, son utilité et le nombre de productions parmi lesquelles elle a été sélectionnée.58 Dans cet extrait, la sélection des trois dernières productions, c’est-à-dire endcomprehend, answer-plural et answer-plural-2, est documentée. On voit qu’il n’y a 58 ACT-R permet de faire un choix parmi nombre d’informations différentes susceptibles d’être représentées dans les protocoles. Les protocoles de l’annexe dont nous présentons ici des extraits se distinguent quant aux informations contenues, parce que nous avons utilisé des protocoles différents pour la démonstration de phénomènes différents. Les protocoles qui contiennent toutes les informations ne nous paraissent pas assez lisibles. 79 pas d’alternatives pour les productions end-comprehend et answer-plural-2, il n’existe à chaque fois qu’une production qui remplisse toutes les conditions (ceci est également vrai pour toutes les autres productions qui font feu avant end-comprehend, voir le protocole complet dans l’annexe II). Il n’y que la production answer-plural pour qui une alternative aurait été possible. Tant que les utilités ne sont pas soumises à des fluctuations, l’utilité de la production alternative answer-singular sera toujours plus basse que celle d’answer-plural et ce sera toujours cette dernière qui sera sélectionnée. Pour ajouter du bruit aux utilités, il faut assigner une valeur au paramètre de bruit, s. Si ce paramètre a une valeur autre que «nil», il y a une valeur supplémentaire qui est ajoutée lors de chaque calcul d’une utilité (valeur désignée par ε dans l’équation 3). Si s est petit, les valeurs varient autour de 0 avec une variance qui est peu importante. Plus s augmente, plus la variance augmente et avec elle l’influence du bruit. Dans le modèle actuel, nous avons désigné à s la valeur assez petite de 0.05 (ceci se fait par le paramètre :egs, voir annexe I). Si l’on regarde à nouveau l’extrait du protocole dans lequel la sélection des trois dernières productions est documentée, on observe des fluctuations de l’utilité : 1 productions out of 1 considered; expected gain of chosen is : 19.788 Time 3.394 : End-Comprehend Selected Time 3.444 : End-Comprehend Fired Time 3.451 : Goal355 Retrieved 1 productions out of 2 considered; expected gain of chosen is : 11.905 Time 3.451 : Answer-Plural Selected Time 3.501 : Answer-Plural Fired Time 3.522 : Goal360 Retrieved 1 productions out of 1 considered; expected gain of chosen is : 19.854 Time 3.522 : Answer-Plural-2 Selected sind Time 3.572 : Answer-Plural-2 Fired (extrait du protocole 3, annexe II) End-comprehend et answer-plural-2 n’ont plus l’utilité exacte de 19.950, mais respectivement celle de 19.788 ou de 19.854. L’utilité d’answer-plural est elle aussi relativement basse avec une valeur de 11.905. Mais l’utilité de la production answersingular aurait dû été beaucoup plus haute que la moyenne de 10.950 pour dépasser 11.905, ce qui n’est visiblement pas le cas. L’utilité d’answer-singular dépasse somme toute très rarement celle d’answerplural, et cela est dû au bruit relativement modéré de s = .05 (voir aussi paragraphe 3.2.3.). Nous pouvons dire pour résumer que les fluctuations dans les utilités des productions peuvent provoquer la formation d’une forme verbale au singulier sans qu’une recher80 che d’un trait de pluriel ait été entamée. Ce mécanisme est toutefois extrêmement rare étant donné les valeurs actuelles des paramètres. En conséquence, le mécanisme qui mène à des erreurs de singulier même après que la production answer-plural a fait feu est plus important. Il sera présenté dans ce qui suit. La baisse de l’activation du trait de pluriel Selon la proposition de Hemforth et Konieczny (2003), l’erreur générale de singulier est due principalement à une baisse de l’activation du trait de pluriel. Le trait de pluriel dont nous parlons ici, c’est-à-dire celui de la tête du SN sujet (et non pas celui d’un SN local dans les conditions PP et SP, qui ne devrait pas avoir d’importance pour l’accord), est formé assez tôt dans le traitement du début de la phrase. L’extrait suivant d’un protocole permet d’observer la formation du trait de pluriel : Time 0.849 : Search-Plural-Feature Selected Modifying CHUNK Goal275. Creating CHUNK goal276. Switching to goal Goal276. Sources of activation are : (Goal275) Computing a base level of 9.407 from 1000 references from creation time -10.000 CHUNK Plural-Die-Lehrerinnen Activation 9.407 Latency 0.000 Time 0.899 : Search-Plural-Feature Fired (…) Time 0.955 : Encode-Plural-Np Selected Modifying CHUNK Goal276. Switching to goal Goal275. Sources of activation are : (Goal270) Computing a base level of 4.815 from 1 references from creation time 0.899 CHUNK Goal276 Activation 4.815 Latency 0.008 Time 1.005 : Encode-Plural-Np Fired (extrait du protocole 4, annexe II59) L’extrait du protocole commence au moment où la production search-plural-feature fait feu. Elle instancie le but subordonné de type plural-feature, qui constitue le trait de pluriel qui nous intéresse ici et qui reçoit, dans ce passage concret le nom de « goal276 ». Ce chunk représente le but pendant que le nombre est traité comme décrit ci-dessus. Comme le SN qui vient d’être lu à ce moment, « die Lehrerinnen », se trouve véritablement au pluriel, « goal276 » est connecté avec le chunk de type readnp qui représente ce SN et en même temps avec le chunk « plural » (partie omise dans l’extrait). Pour terminer le traitement, le but superordonné est remis dans la 59 Ce protocole est à lire de la manière suivante : Lors de chaque mise en marche d’une production, il est d’abord indiqué le nom de la production en question. Ensuite, les chunks qui sont modifiés par les actions de cette production sont énumérés. Si le but a été changé par la production, le chunk représentant le nouveau but est ensuite indiqué. Enfin, il est indiqué le calcul de l’activation pour tout chunk à récupérer ainsi que la nature du chunk dont il s’agit. 81 mémoire tampon du but et le but actuel jusqu’alors, c’est-à-dire « goal276 », est placé dans la mémoire tampon de récupération. On voit dans l’extrait que le trait de pluriel a alors une activation de 4.815. L’activation va baisser continuellement pendant le traitement ultérieur. Cette baisse ne sera enrayée qu’aux moments où le but actuel sera connecté à « goal276 ». « Goal276 » ne sera plus récupéré avant le moment où le nombre du verbe sera à déterminer et ne recevra pas d’activation supplémentaire par cette voie. Le moment de la production du verbe est documenté dans l’extrait suivant : Time 3.463 : Answer-Plural Selected Sources of activation are : nil Computing a base level of 3.906 from 2 references from creation time 0.899 CHUNK Goal276 Activation 3.906 Latency 0.020 Time 3.513 : Answer-Plural Fired Time 3.533 : Goal276 Retrieved Time 3.533 : Answer-Plural-2 Selected Modifying CHUNK Goal. sind Time 3.583 : Answer-Plural-2 Fired Time 3.583 : Module :MOTOR running command PRESS-KEY Time 3.833 : Module :MOTOR running command PREPARATION-COMPLETE Time 3.883 : Module :MOTOR running command INITIATION-COMPLETE Time 3.983 : Device running command OUTPUT-KEY << Window "Agreement Experiment" got key #\p at time 3983 >> (extrait du protocole 4, annexe II) Ici, c’est d’abord la production answer-plural qui fait feu. Elle provoque la recherche du trait de pluriel. Le système calcule alors l’activation du trait de pluriel recherché. Comme il n’est pas associé au but du moment, il ne reçoit pas d’activation associative : Sources of activation are : nil Pour l’activation de base, la durée de l’existence du chunk et le nombre de récupérations sont importants. On compte deux récupérations pour le trait de pluriel : premièrement, la formation d’un chunk compte comme première récupération, et deuxièmement, la placement du trait de pluriel dans la mémoire tampon de récupération au moment où s’est effectué le changement de ce but vers un but superordonné. Il en résulte une activation de base de 3.906 60 : Computing a base level of 3.906 from 2 references from creation time 0.899 Comme le protocole documente un passage sans bruit, cette activation de base correspond exactement à l’activation totale, soit : 60 En condition PS, l’activation de base du trait de pluriel, à ce stade du traitement, a une valeur de 3.909, c’est-à-dire une valeur un peu plus haute. Cela est dû au fait que, contrairement à la condition PP, il n’y a qu’un SN au pluriel à traiter dans la condition PS, ce qui fait que le modèle arrive plus vite à la fin et que l’activation du trait de pluriel a un peu moins baissé. Toutefois, la différence est si petite qu’elle n’est pas perceptible dans les résultats. 82 CHUNK Goal276 Activation 3.906 Latency 0.020 Comme cette activation se trouve au-dessus du seuil critique, answer-plural-2 peut faire feu et produire un verbe au pluriel. Pour modéliser le processus que nous venons de décrire, deux ajustements de paramètres ont été nécessaires : D’une part, tous les chunks qui existent dès le début dans le modèle reçoivent une activation de départ assez importante (9.450). Ceci semble justifié parce qu’il s’agit d’un savoir lexical standard. Il nous semble naturel de supposer que ces informations existent depuis longtemps dans la mémoire et qu’ils ont depuis souvent été récupérés. D’autre part, chaque chunk nouvellement formé reçoit une activation de départ de 3. Cette valeur aurait pu être laissée à sa valeur de défaut de 0. Mais, dans ce cas, le modèle se déroule assez lentement, car les récupérations s’effectuent à une vitesse qui dépend du niveau d’activation. Une augmentation uniforme de 3 de l’activation de tous les chunks n’introduit aucune différence entre les chunks et ne nous semble donc pas problématique. En plus de ces deux valeurs, la vitesse de la baisse de l’activation (influencée par la variable d à laquelle on attribue une valeur par le paramètre :bll) est bien sûr elle aussi importante pour la modélisation. Elle a été laissé à sa valeur de défaut, d = 0.05. Pour faire émerger des erreurs de singulier dans le modèle, il faut changer les valeurs de deux autres paramètres : le seuil de récupération et le bruit. Plus le seuil de récupération est haut et plus le bruit est important, plus le nombre de fois où l’activation du trait de pluriel chute en-dessous du seuil sera haute. Les valeurs de ces deux paramètres ont été déterminées empiriquement, c’est-à-dire dans des passages de test du modèle. La valeur de 3.82 pour le seuil critique (désigné par le paramètre :rt) et la valeur de 0.052 pour le bruit (désigné par le paramètre :ans) se sont ainsi avérées comme étant les meilleures valeurs. L’activation moyenne qui a le trait de pluriel à la fin d’un passage dans la condition PP, 3.906, se trouve ainsi légèrement au-dessus du seuil, et tombe de temps en temps en-dessous de celui-ci à cause des fluctuations provoquées par le bruit. Dans ce cas, le trait de pluriel ne peut pas être récupéré, même s’il a bien été formé au départ. C’est ce que montre l’extrait suivant de protocole : Time 3.461 : Answer-Plural Selected Sources of activation are : nil Computing a base level of 3.906 from 2 references from creation time 0.898 Adding noise -0.160 CHUNK failure Activation 3.820 Latency 0.022 Time 3.511 : Answer-Plural Fired Time 3.533 : Failure Retrieved Time 3.533 : Answer-Singular-2 Selected 83 Modifying CHUNK Goal. ist (extrait du protocole 5, annexe II) L’activation du trait de pluriel avant que le bruit ne soit ajouté est ici toujours à 3.906. Le bruit qui y est ajouté se chiffrant à –0.160, l’activation totale ne s’élève toutefois qu’à 3.764. Le seuil de récupération a donc une activation plus haute (3.82) que le trait de pluriel, et celui-ci ne peut pas être récupéré. C’est la production answer-singular-2 qui fait feu et produit un verbe au singulier. En conclusion, l’erreur générale de singulier s’explique en partie par des fluctuations dans les utilités des productions answer-plural et answer-singular, mais surtout par des changements dans l’activation du trait de pluriel du SN sujet. 3.2.3.2. L’effet mismatch après les têtes au singulier Hemforth et Konieczny (2003) n’expliquent pas en détail comment la proximité syntaxique peut provoquer un attachement fautif du trait de pluriel au SN sujet. Dans le cadre du modèle d’activation, il est concevable de chercher une explication explication à cet effet basée sur l’activation. Une telle explication entraîne l’hypothèse selon laquelle le trait de pluriel du SN local serait attaché au SN sujet dans les cas où le SN sujet aurait plus d’activation que le SN local. C’est cette idée fondamentale qui a été réalisée dans le modèle ACT-R. Pour comprendre cet aspect du modèle, il faut d’abord se rendre compte de la manière exacte dont est formé un trait de pluriel dans le modèle : Elle implique que le SN en question ainsi que le chunk « plural » soient attribués à des slots du trait de pluriel (voir figure 8). Pendant le traitement du trait de pluriel, le SN en question doit être récupéré. Cela se fait par la production search-plural-np, qui comporte parmi ses actions la demande de recherche suivante : +retrieval> isa read-np state "complete" (voir annexe I) Le modèle cherche ici simplement un SN dont le traitement soit terminé, sans l’identifier de manière plus exacte. Une telle identification n’aurait été possible que si le SN en question avait été lié à un slot du but. Comme nous l’avons expliqué dans les réflexions préliminaires, un tel style de programmation ne nous paraît pas justifiable. La demande de récupération sous sa forme actuelle a d’ailleurs une assez haute probabilité de succès, parce que normalement, c’est le SN qui a été lu le plus récemment qui a l’activation la plus haute parmi tous les SN qui peuvent se trouver 84 dans la mémoire déclarative. Toutefois, dans notre cas, les activations du SN sujet et du SN local sont assez proches l’une de l’autre, et cela parce que le SN sujet doit être encore une fois récupéré lors du traitement du SN local pour permettre le rattachement de ce dernier (cela se passe, comme expliqué plus haut, dans le cadre d’un but de type encode-modified-np). C’est pour cela que le premier SN a une activation plus haute dans des phrases du type SPV que dans des phrases du type SOV, dans lesquelles il n’est évidemment pas nécessaire de récupérer le premier SN pour traiter le deuxième SN. L’encodage fautif du nombre n’est ainsi pas directement dû à une erreur d’encodage, mais plutôt à une erreur de récupération61 : Le premier SN est récupéré au lieu du deuxième au moment où le trait de pluriel du deuxième SN est traité. Cela est susceptible de se produire uniquement en raison des fluctuations nonsystématiques des activations. L’extrait suivant d’un protocole montre un tel cas où, sous l’effet du bruit, l’activation du SN tête est plus haute que celle du SN modificateur, bien que l’activation de base de ce dernier soit plus élevée : Time 2.321 : Search-Plural-Np Selected Modifying CHUNK Goal7637. Sources of activation are : (Goal7636 Plural) Computing a base level of 4.961 from 5 references from creation time 0.392 Adding noise 0.137 Computing a base level of 5.207 from 4 references from creation time 1.596 Adding noise -0.112 CHUNK Goal7621 Activation 5.098 Latency 0.006 Time 2.371 : Search-Plural-Np Fired (extrait du protocole 6, annexe II) Le protocole documente le moment où le trait de pluriel du deuxième SN – « der Lehrerinnen » dans « der Schüler der Lehrerinnen » – est formé. On voit que deux chunks différents sont susceptibles d’être récupérés à ce moment : Un chunk avec une activation de base de 5.207, qui est en fait le chunk de type read-np qui représente le SN modificateur qui vient d’être traité, et un autre chunk d’une activation de base de 4.961 représentant le SN tête. A l’activation de base de ce dernier chunk s’ajoute un bruit de 0.137, tandis qu’un bruit de 0.112 est soustrait du premier chunk. Ainsi, c’est le chunk qui représente le SN tête qui a l’activation la plus haute (5.089) et qui est en conséquence récupéré (le paramètre de bruit a d’ailleurs toujours la valeur de 0.052 dans ce passage). Ensuite, le trait de pluriel est formé comme décrit plus haut. Ce processus terminé, il existe donc dans la mémoire déclarative du système un trait de pluriel qui est connecté au SN sujet. En conséquence, ce trait de plu61 Théoriquement, il nous semble également justifié de supposer une véritable erreur d’encodage. Mais dans le cadre d’ACT-R, une erreur de ce genre n’est pas prévue. 85 riel est récupéré vers la fin du traitement de la phrase par une action de la production answer-plural, ce qui provoque la formation d’une forme verbale au pluriel : Time 3.475 : Answer-Plural Fired Time 3.486 : Goal7637 Retrieved Time 3.486 : Answer-Plural-2 Selected Modifying CHUNK Goal. sind Time 3.536 : Answer-Plural-2 Fired (extrait du protocole 6, annexe II). Nous pouvons dire pour résumer que l’effet mismatch après des têtes au singulier dans des phrases du type SPV s’explique, selon ce modèle, par une activation encore relativement haute de la tête du SN au moment où le trait de pluriel du deuxième SN est formé. Cette modélisation permet d’expliquer l’absence d’effet mismatch après des têtes au pluriel : Comme il n’y a pas de trait de nombre formé pour un SN modificateur au singulier, un tel trait ne peut évidemment pas être attribué fautivement à la tête du SN (ceci revient toujours à l’explication d’Eberhardt).62 De plus, on peut expliquer grâce à cela pourquoi il n’y a pas d’effet mismatch comparable dans des phrases du type SOV : Le traitement de l’objet ne demande pas – contrairement à celui d’un SN modificateur – que la tête du SN sujet soit une nouvelle fois récupérée. Par conséquent, elle aura une activation plus basse dans les phrases de ce type que dans des phrases du type SPV. 3.2.4. Résultats Pour analyser la distribution des erreurs qui émergent dans le modèle et pour pouvoir la comparer à celle trouvée par Hemforth et Konieczny (2003), nous avons étudié 100 passages du modèle (voir protocole 7, annexe II). Lors de ces passages, les erreurs se sont réparties sur les différentes conditions comme indiqué dans le tableau 14. Une analyse détaillée des passages du modèle a montré que toutes les erreurs du singulier sont dues à une baisse trop importante de l’activation du trait de pluriel, et que toutes les erreurs dans la condition SP sont dues à l’erreur d’encodage comme décrite plus haut. Pour faciliter la comparaison, le 62 Il faut toutefois prendre en compte ici que l’effet décrit n’existe pas uniquement dans la condition SP, mais aussi dans la condition PP. C’est-à-dire que dans cette condition, il arrive que deux traits de pluriel soient formés qui se réfèrent tous les deux au premier SN, au lieu d’un trait par SN. Dans ce cas, il ne devrait plus du tout arriver qu’aucun trait de pluriel ne soit trouvé lors de la production du verbe. L’effet décrit devrait toutefois être relativement rare. De plus, il devrait être compensé par l’effet de l’activation différente du trait de pluriel dans les conditions PS et PP décrit dans la note 60 dessous. Comme nous n’avons pas de résultat fiable qui atteste d’une différence entre les conditions PS et PP dans des passages de test du modèle, ceci semble bien être le cas. 86 nombre d’erreurs trouvé par Hemforth et Konieczny (2003) dans les quatre conditions respectives est également indiqué. Condition erreurs dans 100 passages du modèle erreurs observées par Hemforth et Konieczny (2003) SS 0 2,2 SP 3 5,2 PS 13 14,2 PP 11 13,9 Tableau 14 : Pourcentage d’erreurs dans les différentes conditions De toute évidence, la répartition des erreurs se ressemble : Dans les deux articles de données, on peut observer l’erreur générale de singulier et l’effet mismatch pour les têtes au singulier. Il nous faut toutefois remarquer que le nombre d’erreurs dans son ensemble est un peu plus élevé dans les données de Hemforth et Konieczny (2003) que dans les données produites par le modèle. 3.2.5. Discussion Le nombre plus élevé d’erreurs dans les données empiriques que dans les données produites par le modèle pourrait être interprété comme le signe d’une sous-estimation dans le modèle du nombre d’erreurs d’origine non-systématique. Vu l’impact assez restreint de cet effet, une adaptation du modèle dans ce sens nous paraît tout de même prématurée. En outre, les deux articles de données dans le tableau 14 s’accordent bien. On ne peut pas exclure que les processus réalisés par le modèle ressemblent aux processus cognitifs réels. Cette supposition ne peut toutefois pas être prouvée par la ressemblance entre les données : D’une part, on peut concevoir d’autres modèles qui pourraient produire les même données, et d’autre part, la ressemblance entre les articles de données n’a pas été quantifiée et testée statistiquement.63 Dans les lignes qui suivent, nous chercherons à savoir quel bénéfice on peut tout de même tirer des résultats fournis jusqu’ici par le modèle et dans quelle mesure l’objectif de la modélisation, que nous avons explicité dans l’introduction, a pu être atteint. Le modèle ACT-R satisfait à l’objectif de préciser le modèle d’activation et de vérifier sa consistance interne. Il était possible de modéliser la baisse du trait de pluriel ainsi que l’erreur d’encodage et d’intégrer ces effets dans un modèle général de la compréhension. De plus, comme nous l’avons montré dans le texte, les processus modélisés ne s’écartent généralement pas des conceptions courantes sur la compré63 Une telle vérification statistique nous paraît prématurée, parce que nous n’avons pas prétendu à une modélisation complète des processus pertinents pour l’établissement de l’accord. L’objectif était pour nous de réaliser seulement les idées centrales du modèle d’activation en ACT-R. Cela impliquait déjà que nous ne considérions pas le modèle comme complet. 87 hension et la production du langage (cela concerne la représentation des unités lexicales et du nombre aussi bien que la pertinence des catégories et unités syntaxiques employées). Le modèle d’activation a été précisé en ce que nous avons formulé quels sont les représentations et les processus impliqués dans l’établissement de l’accord, et cela d’une manière plus détaillée que Hemforth et Konieczny (2003). Cela concerne en particulier la description de l’origine de l’effet mismatch dans la condition SP, description qui s’écarte plus clairement de celle du mécanisme de featurepercolation par Vigliocco et Nicol (1998). Le modèle ACT-R propose ainsi une réalisation de l’attribution fautive du trait de pluriel qui ne repose pas sur l’hypothèse problématique de l’approche de feature-percolation selon laquelle il existerait une analyse syntaxique complète du début de phrase qui est stockée dans le mémoire de travail. Toutefois, toutes les parties du modèle ne sont pas aussi bien motivées que celles mentionnées jusqu’ici. Ainsi, le fait que l’ordre des processus impliqués soit crucial pour l’émergence de l’effet mismatch pose problème : C’est seulement parce que le SN modificateur est rattaché au SN sujet avant la formation du trait de pluriel que l’erreur d’encodage peut avoir lieu. Or, il n’y a aucune raison de privilégier cet ordre plutôt que l’ordre inverse. Par ailleurs, certaines valeurs de paramètres sont peu justifiables en dehors du modèle : Les valeurs du seuil de récupération et du paramètre de bruit ont été choisies en fonction des données des Hemforth et Konieczny (2003) auxquelles nous voulions nous approcher. Il reste à vérifier si ces valeurs s’avéreront bonnes dans des élargissements du modèle. De plus, nous n’avons pas encore satisfait à l’objectif d’analyser des possibilités d’élargissement du modèle et de les vérifier empiriquement. Pour remédier à ce manque, il faudrait d’abord analyser si des élargissements du modèle permettant de couvrir ces résultats sont concevables. Une telle analyse ne peut pas remplacer une validation plus directe du modèle, mais elle est aussi nécessaire que cette dernière. Dans un deuxième temps, on devrait déduire des prédictions empiriques du modèle pour les tester ensuite. Dans le paragraphe suivant, nous discuterons d’abord des possibilités d’élargissement du modèle. Un premier test empirique sera ensuite décrit dans la quatrième partie du travail. 88 3.2.6. Couverture des données obtenues jusqu’ici Nous allons maintenant examiner si le modèle ACT-R peut contribuer à mieux expliquer les données connues que le modèle d’activation et, le cas échéant, comment il devrait être élargi pour y parvenir. Dans un premier temps, nous discuterons de la possibilité pour notre modèle de couvrir les données concernant les phrases SOV, parce que le modèle d’activation se réfère directement à cette construction. Dans un deuxième temps, nous examinerons plus brièvement si les autres données présentées dans la deuxième partie de ce travail peuvent être expliquées mieux ou autrement par le modèle ACT-R que par le modèle d’activation. La construction SOV en allemand L’élargissement à la construction SOV nous semble naturel pour le modèle ACT-R, étant donné que le modèle d’activation traite de ce type de phrase. Pour les têtes au singulier, un tel élargissement serait très simple : Le modèle effectuerait les même processus que ceux décrits plus haut, mais le SN objet - contrairement au SN modificateur – ne serait pas rattaché au SN sujet. Ce processus de rattachement est de toute façon déclenché dans la version actuelle du modèle par l’identification du deuxième SN comme génitif, qui n’aurait bien sûr pas lieu pour un SN objet. Si le rattachement n’a pas lieu, la baisse de l’activation du premier SN ne sera pas interrompue et ne sera pas récupérée faussement plus tard de sorte qu’on ne trouvera pas d’effet mismatch dans cette construction. En revanche, le cas des têtes au pluriel nécessiterait un plus grand élargissement du modèle : Pour expliquer l’effet mismatch qui a été observé ici, Hemforth et Konieczny (2003) proposent un effet de réactivation qui serait dû au statut particulier des arguments verbaux. Ils supposent que le trait de pluriel de l’objet pourrait réactiver le trait de pluriel du sujet, parce que les deux SN en question sont des arguments du verbe (voir ci-dessus). Pour intégrer cette proposition dans le modèle ACT-R, il serait nécessaire de clarifier comment se passe exactement le traitement des arguments verbaux. Konieczny (voir Konieczny, 1996, Konieczny et Döring, 2003) propose le concept d’anticipation pour traiter les arguments verbaux dans des structures dans lesquels le verbe est le dernier élément de la phrase. Selon ce concept, les arguments d’un verbe sont utilisés pour anticiper celui-ci dans de telles structures. Une application de cette proposition fondamentale en ACT-R pourrait avoir la forme suivante : Avant la production ou même la compréhension du verbe, le modèle devrait récupérer les 89 concepts liés aux arguments verbaux ainsi que l’information sur leur nombre afin de chercher dans sa mémoire déclarative une relation qui puisse lier ces différentes informations et qui correspondrait donc à peu près à la sémantique du verbe. Ce mécanisme entraînerait, comme on le voit, une intégration du niveau sémantique dans le modèle.64 Si un tel mécanisme était intégré dans le modèle, le trait de pluriel du sujet pourrait effectivement être réactivé dans la condition PP, et cela par le mécanisme de l’activation associative : Si le but est d’anticiper le verbe et si ce but entraîne une récupération des concepts liés à l’objet et au sujet ainsi que leurs traits de pluriel s’ils existent, et cela en commençant avec le dernier SN lu - donc l’objet -, le chunk « plural » sera en connexion avec le but par l’intermédiaire du trait pluriel de l’objet après sa récupération. Comme le chunk « plural » se trouve aussi dans un des slots du trait de pluriel du sujet, celui-ci recevra une activation associative par le but, ce qui augmentera sa probabilité d’être récupéré lui aussi pendant l’anticipation du verbe. Ceci augmentera en revanche fortement la probabilité que le trait de pluriel du sujet soit également récupéré au moment de la production du verbe par la production answerplural. Si au contraire l’objet n’est pas au pluriel (comme dans la condition PS), le chunk « plural » ne sera pas connecté au but pendant l’anticipation du verbe. Pour cette raison, il est plus probable que le trait de pluriel du sujet ne sera soit ni retrouvé pendant l’anticipation du verbe ni lors de sa production. L’erreur générale de singulier devrait donc être moins prononcée dans la condition PP que dans la condition PS. En somme, il paraît possible d’élargir le modèle à la construction SOV de l’allemand. Il semble que le modèle pourra alors expliquer les données de Hemforth et Konieczny d’une manière plus détaillée que le modèle d’activation ne le fait sous sa forme actuelle. En même temps, cet élargissement devrait probablement permettre d’expliquer d’autres effets d’ordre sémantique (voir paragraphe 2.2.3.). Les constructions SOV dans d’autres langues Le mécanisme décrit en haut devrait fonctionner dans toutes les langues dans lesquelles existent des constructions avec le verbe à la fin. Le modèle prédit les mêmes effets dans toutes les langues qui connaissent la construction SOV : pas d’effet mismatch pour les têtes au singulier, mais un effet mismatch pour des têtes au pluriel. 64 Cette idée se base sur la conceptualisation du traitement sémantique dans une modèle ACT-R par Budiu et Anderson (soumis). Pour une discussion plus approfondie, voir Konieczny, Schimke et Hemforth (2004). 90 Comme nous l’avons déjà exposé plus haut, cela ne correspond toutefois pas aux résultats trouvés dans les autres langues étudiées sous cet aspect, à savoir le néerlandais et le français : On a bien observé dans ces deux langues des indices pour un effet de réactivation après les sujets au pluriel (voir ci-dessus, en particulier le tableau 3), mais les résultats pour des sujets au singulier étaient contradictoires : On a trouvé un effet mismatch faible en néerlandais et un effet mismatch très fort en français (l’effet de l’attraction par l’objet, voir tableau 4). Comme nous l’avons déjà mentionné, il n’existe jusqu’ici pas d’explication satisfaisante pour cette différence inter-langue. Dans ce qui suit, nous avancerons de nouvelles hypothèses sur cette question difficile en partant du modèle ACT-R. Comme le modèle se réfère nécessairement à un paradigme expérimental concret, nous allons analyser les paradigmes expérimentaux dans lesquels les résultats cités ont été obtenus. Dans l’expérience de Hartsuiker et coll. (2001) en néerlandais, les sujets ont été incités à travailler le plus vite possible. Ils ont vu le début de phrase sur un écran et avaient comme tâche de produire le verbe dans un espace de temps très court, visualisé par l’apparition d’une ligne sur l’écran dont la longueur diminuait rapidement. Les sujets devaient donner la réponse avant que la ligne n’ait totalement disparu. Une simulation de cette expérience en ACT-R inclurait sans doute les conséquences de cette hâte sur les utilités des productions : Pour rendre compte de la situation de cette expérience, on devrait baisser la valeur du but, G, ce qui aurait pour conséquence que des productions menant rapidement au but recevraient une utilité relativement élevée même si leur probabilité de succès est petite. D’un côté, cela entraînerait une activation plus fréquente de la production answer-singular, qui quant à elle provoquerait plus d’erreurs de singulier. De l’autre côté, on pourrait penser que la formation du trait de pluriel sera raccourcie dans un tel système. Le trait de pluriel pourrait en effet être formé sans être rattaché à un SN concret. Lors de la production du verbe, un tel trait sous-spécifié pourrait de temps en temps mener à la production d’un verbe au pluriel, même avec un sujet au singulier. Ce mécanisme devrait se dérouler de la même façon pour des SN modificateurs que pour des SN objets, ce qui pourrait expliquer le faible effet d’attraction par l’objet observé Hartsuiker et coll. (2001). Il reste toutefois difficile d’expliquer le fort effet d’attraction par l’objet qui a été observé en français. Franck et coll. (soumis) l’ont trouvé d’abord dans des construc91 tions de type SclitV, comme la phrase (22), « Le professeur les lit ». On pourrait concevoir que l’effet d’attraction de l’objet s’explique ici simplement par la brièveté des pronoms clitiques. Les pronoms laissant moins de temps de traitement au modèle que les SN complets, un trait de pluriel qui se réfère à un pronom pourrait peut-être aussi laisser sous-specifié de temps en temps. Il y a toutefois des arguments importants contre cette hypothèse : D’une part, Hartusiker a également utilisé dans son expérience des SN complets et des pronoms, sans trouver de différences entre ces deux cas. D’autre part, l’effet d’attraction par l’objet a également été observé avec des SN objets complets, même si l’ordre de mots étaient nécessairement différent dans ce cas. Il s’agit des constructions citées au-dessus en (23) et en (24) du type « C’est les négociations que le ministre suspend » ainsi que « C’est les négociations que suspend le ministre.». Dans ces constructions, le SN objet « les négociations » a fortement interféré avec l’établissement correct de l’accord (cf. supra). Il n’est pas certain que cet effet soit dû aux mêmes mécanismes que ceux provoqués par les pronoms clitiques, parce qu’on peut supposer ici une influence de l’ordre de mots non-canonique. Une partie des erreurs pourrait ainsi être due à une confusion entre sujet et objet. Un tel effet serait d’ailleurs facile à modéliser en ACT-R. Le nombre très élevé d’erreurs mismatch dans des constructions différentes avec un objet semble tout de même indiquer l’existence d’un véritable effet d’attraction par l’objet en français qui ne s’explique pas par des simples confusions. Dans le cadre du modèle ACT-R, l’explication la plus immédiate semble résider dans l’ordre de récupération des différents éléments d’une phrase, facteur crucial dans le modèle. L’ordre de traitement différent en français par rapport à d’autres langues pourrait s’expliquer par le fait que contrairement à d’autres langues, il peut exister en français un accord entre le participe et l’objet. La réalisation concrète de ce mécanisme en ACT-R reste à faire. Somme toute, les explications restent spéculatives. Toutefois, le modèle ACT-R a l’avantage d’ouvrir des pistes de réflexion pour expliquer pourquoi l’effet de l’attraction par l’objet est inexistant en allemand, faible en néerlandais et fort en français. Autres effets syntaxiques A côté de l’effet d’attraction par l’objet, il existe d’autres résultats qu’on ne peut expliquer qu’en ayant recours à la syntaxe. Cela concerne la différence entre les syntagmes et les propositions en fonction de modificateur, entre N2 et N3 dans des cons92 tructions N1 N2 N3 ainsi que le résultat observé pour les phrases interrogatoires anglaises (voir lignes 3 à 5 du tableau 4). Tous ces effets syntaxiques peuvent être aussi bien expliqués par le modèle ACT-R que par le modèle d’activation originel : L’attachement d’un troisième syntagme dans des constructions N1 N2 N3 et d’une proposition – plutôt qu’un syntagme - ont en commun la caractéristique suivante : un plus grand nombre de processus devraient se dérouler entre la récupération nécessaire du sujet et la formation du trait pluriel du nom local si on compare ces cas au cas d’un SN qui modifie directement le sujet. L’expérience de Vigliocco et Nicol (1998) a déjà été discuté plus haut : Il faut supposer ici que la représentation cruciale du préambule est déjà formée pendant la première lecture, et que donc la formation du verbe avant ou après la répétition du préambule n’est pas un facteur qui a beaucoup d’influence. En partant de cette supposition, les résultats pour l’inversion libre en italien restent toutefois surprenants (voir ci-dessus.). Ils sont peut-être à expliquer par le fait qu’il existe des dialectes italiens dans lesquels un verbe préposé n’est effectivement pas accordé avec le sujet, comme le remarquent également Franck et coll. eux-mêmes (voir Franck et coll., soumis). Les effets de la mémoire de travail Les effets de la mémoire de travail (voir lignes une et deux du tableau 4) pourraient être aisément intégrés dans le modèle ACT-R. En particulier, les effets d’une surcharge correspondent aux prédictions naturelles d’ACT-R : Si un modèle doit accomplir deux tâches à la fois, il y a une baisse générale des activations due à une répartition de l’activité associative sur plus de chunks et à une plus grande influence de la baisse dans le temps, étant donné que le travail sur deux tâches va durer plus longtemps que celui sur une seule tâche. Ceci devrait augmenter le nombre d’erreurs, ce qui a effectivement été observé. Autres effets Concernant les effets des différents paradigmes expérientiels également présents dans le tableau 4 (moins d’erreurs du singulier si le préambule n’est pas répété et les effets de l’accord dans la lecture, voir lignes onze et douze), les hypothèses formulées pour le modèle d’activation peuvent être directement transférées au modèle ACT-R : Une modélisation de ces tâches comporterait en gros les mêmes processus que le modèle actuel, l’importance de l’erreur générale de singulier variant avec le 93 nombre de fois que des chunks liés au trait pluriel du sujet sont récupérés en plus dû à des particularités du paradigme. Quant aux questions que posent les résultats contradictoires après les têtes au pluriel, elles restent toujours ouvertes. Résumé de la couverture des effets En conclusion, les résultats après les têtes au pluriel posent problèmes pour le modèle ACT-R comme pour le modèle d’activation. Pour les autres effets marqués par une croix ou par un signe d’interrogation dans le tableau 4 (effets de l’ordre des mots et effet de l’attraction par l’objet), on peut déduire de nouvelles explications du modèle ACT-R, mais celles-ci restent spéculatives. Le bénéfice du modèle ACT-R est surtout d’expliquer de façon beaucoup plus précise les effets pour lesquels le modèle d’activation proposait déjà certaines explications. De plus, le fait même que le modèle d’activation ait pu être réalisé dans le cadre empiriquement bien fondé d’ACT-R représente une validation supplémentaire du modèle. 3.3. Résumé Nous avons montré dans la partie 3. que le modèle d’activation peut être réalisé en ACT-R. De plus, la modélisation a permis de préciser le modèle d’activation. Ceci concerne en particulier l’explication de l’effet mismatch après des têtes au singulier. Une première validation de notre modèle consiste dans le fait que les résultats de Hemforth et Konieczny (2003) pour les constructions SPV ont pu y être reproduits. Nous avons également montré dans la discussion qu’une couverture des données obtenues jusqu’ici semble théoriquement possible. Dans toutes ces réflexions il s’agit toutefois d’une explication post hoc de données existantes. Il faut compléter cette démarche en déduisant de nouvelles hypothèses du modèle pour les tester empiriquement. La précision du modèle ACT-R devrait le permettre relativement aisément. Une première tentative de vérification empirique sera présentée dans la partie suivante. 94 4. Vérification empirique: Le transfert à la langue française La discussion du paragraphe précédent devrait avoir montré qu’on peut déduire du modèle des prédictions concernant différentes constructions, différents paradigmes expérimentaux et différentes langues. Une prédiction particulièrement importante, car non triviale, est celle selon laquelle on devrait toujours trouver une erreur générale de singulier dans les expériences du paradigme de complètement des phrases. Le fait qu’on n’ait pas toujours trouvé une telle erreur dans les expériences précédemment citées pourrait être dû à l’utilisation d’autres paradigmes expérimentaux. Cette hypothèse n’a pas encore été vérifiée empiriquement, de sorte qu’un premier test du modèle peut consister en sa vérification. Il nous semble particulièrement utile de mener ce test en français pour deux raisons : premièrement, il n’existe pour l’heure pas beaucoup d’indices témoignant d’une erreur générale de singulier dans cette langue ; deuxièmement, le paradigme de complètement n’y a pas encore été appliqué. 4.1. Introduction Le modèle reproduit l’expérience de complètement de phrases menée par Hemforth et Konieczny (2003) en allemand pour la construction SPV. Dans le cadre du modèle, il n’existe aucune raison de croire que les effets trouvés soient spécifiques à l’allemand. En conséquence, les résultats du modèle devraient se retrouver, en appliquant le paradigme de complètement, dans toutes les langues dans lesquelles la construction SPV existe. En d’autres termes, on devrait retrouver, à côté de l’effet mismatch et de l’effet d’asymétrie, l’erreur générale de singulier, c’est-à-dire un nombre généralement élevé d’erreurs d’accord après des têtes au pluriel. Un tel résultat a été rapporté par Branigan (1995) pour l’anglais (voir tableau 2). Concernant les expériences menées en français (voir tableau 2, lignes 5-9), il faut d’abord souligner la variance extrême dans la proportion d’erreurs trouvée selon les études, allant de pourcentages situés entre 0 et 14 % selon la condition chez Franck et al. (2003) jusqu’à 56.7 % d’erreurs dans l’étude de Hupet et al. (1996), dans la condition SP avec une surcharge importante de mémoire. Il semble donc hasardeux de tirer des conclusions définitives à partir d’expériences probablement difficilement comparables. La vue d’ensemble permet quand même de constater que dans toutes les expériences, une forme du paradigme avec répétition du préambule a été utilisée, et que des signes clairs indiquant l’existence d’une erreur générale de singulier ont 95 rarement été observés. Celle-ci aurait dû se révéler à travers un nombre élevé d’erreurs dans les conditions PS et PP, plus élevé que dans la condition SS. Un résultat de ce type n’a pas pu être trouvé dans une des expériences (Hupet et coll., 1996) et n’était présent que numériquement dans les autres études sans avoir été testé systématiquement (voir tableau 2). De plus, contrairement aux résultats de Braingan (1995) et de Hemforth und Konieczny (2003), il se trouvait dans toutes les expériences moins d’erreurs dans les conditions PS et PP que dans la condition SP (à l’exception de Franck et al., 2003, qui ont trouvé un nombre particulièrement élevé d’erreurs dans la condition PP). Nous avons interprété cela comme un signe d’une importance moins grande de l’erreur générale de singulier dans le paradigme de répétition (cf. supra). En revanche, l’effet mismatch après des têtes au singulier et l’asymétrie singulier-pluriel ont pu être vérifiés clairement dans ce paradigme. Le modèle prédit que l’erreur générale de singulier devrait être plus forte si on étudie la même construction dans le paradigme de complètement. En revanche, l’effet mismatch et l’asymétrie singulier-pluriel ne devraient pas être influencés par un tel changement de paradigme. En somme, on peut déduire du modèle les quatre hypothèses suivantes pour la construction SPV en français dans le paradigme de complètement : 1. Il y a plus d’erreurs dans la condition SP que dans la condition SS (effet mismatch après des têtes au singulier) 2. Il n’y a pas de différence entre les conditions PS et PP (effet d’asymétrie) 3. Il y a plus d’erreurs dans les conditions PS et PP que dans la condition SS (existence de l’erreur générale de singulier) 4. Il y a plus d’erreurs dans les conditions PS et PP que dans les conditions SS et SP (importance élevée de l’erreur générale de singulier dans ce paradigme) 4.2. Methode Sujets 46 personnes de langue maternelle française âgées de 18 à 39 ans (âge moyen: 20.7 ans) ont participé volontairement à l’expérience. Matériel Pour parvenir à une bonne comparabilité de l’expérience présente avec celle de Hemforth et Konieczny (2003), nous avons pris le matériel de cette expérience comme 96 matériel de départ pour la notre. Ce matériel présente de plus l’avantage d’être testé empiriquement pour des différences de plausibilité entre les différentes conditions d’un préambule (voir sur ce point Hölscher et Hemforth, 2000), ce qui élimine un facteur perturbateur potentiel. 13 des 16 préambules utilisés par Hemforth et Konieczny ont été traduits le plus fidèlement possible en français. Pour les trois autres préambules, une telle traduction n’était pas possible, le SN modificateur ne pouvant pas être attaché au SN sujet par une préposition en français. Ces trois préambules ont été remplacés par des préambules nouvellement construits. Quatre autres préambules ont été construits et ajoutés pour élargir la base de données. L’absence de fautes de français et de différences évidentes de plausibilité entre les différentes versions d’un même préambule a été vérifiée par deux personnes de langue maternelle française. Dans l’expérience de Hemforth et Konieczny, tous les sujets ont complété toutes les phrases par un seul auxiliaire, étant donné que le SN complexe et un adjectif attributif leur étaient présentés (voir phrase (25), reproduite ici): Die Farbe auf der Leinwand .............. trocken. Cette configuration n’était pas possible en français, parce que la grande majorité des adjectifs porte une marque de nombre, ce qui aurait représenté un facteur perturbateur très important. En conséquence, nous avons seulement présenté le SN complexe aux sujets, avec l’instruction de le compléter librement. Ceci correspond exactement à l’expérience de Branigan (1995). Il y avait en tout 20 préambules expérimentaux dans quatre conditions (voir phrase (29a) –(29d)). Une liste de toutes les phrases figure dans l’annexe III. (29a) (29b) (29c) (29d) condition SS : La couleur sur la toile ………………… condition SP : La couleur sur les toiles…………………. condition PS : Les couleurs sur la toile ……………….. condition PP : Les couleurs sur les toiles ……………….. 60 phrases de distraction ont été construites dans lesquelles il manquait également un verbe que les sujets devaient insérer. 20 d’entre eux étaient des SN complexes disjoints, 20 présentaient la construction SVO (avec un espace blanc à la place du verbe qui devrait être inséré) et 20 consistaient en un SN simple. Les sujets des phrases de distraction étaient pour moitié au singulier et pour moitié au pluriel. Quatre listes différentes ont été construites, chaque liste contenant une version différente de chaque préambule. L’ordre des phrases dans les listes différentes a été randomisé. 97 Procédure Les sujets ont reçu un questionnaire avec une des listes, donc 80 fragments de phrase, et l’instruction de compléter les phrases par le premier mot qui leur venait à l’esprit. Pour clarifier la tâche, deux exemples leur étaient donnés. Il leur était dit de travailler les phrases rapidement et dans l’ordre donné. Il était possible de remplir le questionnaire en environ 15 minutes. Design statistique et analyse des données Deux analyses de variance à trois facteurs ont été effectuées avec le facteur « match » (match/mismatch) et « nombre » (tête au singulier/pluriel) comme facteurs fixes et « sujets » (calcul de F1) ou respectivement « phrases » (calcul de F2) comme facteur aléatoire. La variable dépendante était le nombre d’erreurs d’accord. 4.3. Résultats Les sujets ont complété 742 des 920 préambules expérimentaux présentés dans l’expérience par un verbe par un verbe au nombre univoque. Tous les autres cas (la réponse ne consistait pas en un verbe, n’était pas lisible ou manquait totalement) n’ont pas été dépouillés. Parmi les 742 réponses, 50 erreurs d’accord ont été trouvées (6.74%). Le pourcentage d’erreurs d’accord se chiffrait à 0.9% (condition SS), 9.4% (condition SP), 9.0% (condition PS) et 7.4% (condition PP) pour les différentes pourcentage d'erreurs conditions. Cette répartition est illustrée dans la figure 10. 10,0 9,0 8,0 7,0 6,0 5,0 4,0 3,0 2,0 1,0 0,0 match mismatch tête sg tête pl Figure 10: Erreurs d’accord en construction SPV, en français L’analyse statistique a fait ressortir un effet significatif de la variable « match » (F1(1,45) = 6.65, p < 0.05, F2(1,19) = 7,32, p < 0.05) et une interaction significative entre cette variable et la variable « nombre » (F1(1,45) = 4.69, p < 0.05, F2(1,19) = 98 5.98, p < 0.05). Il n’y avait a pas d’effet significatif de la variable « nombre » toute seule (F1(1,45) = 2.663, p = 0.11, F2(1,19) = 1.75, p = 0.20). Dans l’analyse F2, l’interaction entre les variables „nombre“ et „phrases“ est elle aussi significative (F2(1,19) = 2.93, p < 0.05). Tous les autres effets sont non-significatifs (tous les Fs < 1,2). Des comparaisons entre des conditions isolées ont révélé que l’effet de la variable « match » est uniquement dû à la différence entre les conditions SS et SP, différence hautement significative (F1(1,45) = 11.34, p = 0.001, F2(1,19) = 14.14, p = 0.001). La différence entre les conditions PS et PP n’était en revanche pas significative (les deux Fs < 0.3). Une comparaison des conditions SS et PP, enfin, a révélé une différence significative entre ces deux conditions (F1(1,45) = 10.25, p = 0.002 F2(1,19) = 9.24, p = 0.007). 4.4. Discussion Parmi les effets trouvés, seule l’interaction entre les variables « nombre » et « phrases » n’avait pas été prévue. Elle réside dans le fait qu’il n’y pas d’erreur de singulier dans sept des vingt préambules (phrases 1, 4, 5, 7, 13, 17 et 20, voir annexe III). Ces phrases ne différant pas des autres quant à leur longueur ou leur structure, il semble s’agir ici d’un effet d’ordre sémantique qui peut être interprété comme l’indice supplémentaire d’une influence du niveau sémantique sur l’établissement de l’accord. Il ne nous est toutefois pas possible, à partir de cet effet, de tirer des conclusions supplémentaires sur la nature exacte de cette influence, parce que nous ne voyons pas de différence systématique, même au niveau sémantique, entre les phrases en question et les autres phrases. Mis à part cela, les données valident trois des quatre prédictions énumérées cidessus : L’effet de la variable « match » ainsi que l’interaction entre les variables « match » et « nombre » reflètent l’effet mismatch après les têtes au singulier et l’asymétrie singulier-pluriel (hypothèse 1 et 2). Ce résultat n’est pas surprenant, parce qu’il reproduit les résultats précédents. Il est plus intéressant d’examiner l’erreur générale de singulier. Comme il apparaît dans la figure 10, cet effet n’est pas plus marqué que celui de mismatch après les têtes au singulier. Il faut donc rejeter l’hypothèse 4 : De manière générale, il n’y a pas plus d’erreurs dans les conditions de têtes au pluriel que dans les conditions de têtes au singulier. D’un autre côté, une erreur générale de singulier existe bel et bien dans les données, vu qu’il y a une diffé99 rence entre les conditions SS et PP qui autrement reste inexplicable (vérification de l’hypothèse 3). Pour comparer ce résultat directement avec les prédictions du modèle et avec les résultats obtenus jusqu’ici dans le paradigme de complètement, toutes les données pertinentes sont résumées dans le tableau 15. Condition 100 passages du modèle Branigan (1995)65 Hemforth et Konieyzny (2003) expérience décrite ici SS 0 0.35 2.2 0.9 SP 3 2.8 5.2 9.4 PS 13 9.4 14.2 9.0 PP 11 11 13.9 7.4 Tableau 15: Les pourcentages d’erreurs dans les expériences et dans les passages du modèle La comparaison directe des données obtenues avec les prédictions du modèle et les résultats des expériences comparables montre que la non-validation de l’hypothèse quatre ne semble pas s’expliquer par une faible importance de l’erreur générale de singulier. Il est vrai que le nombre d’erreurs de singulier est légèrement inférieur dans l’expérience actuelle par rapport à celui auquel on pouvait s’attendre étant donné les autres résultats. Mais l’existence de l’erreur générale de singulier a surtout été voilée dans les analyses statistiques par l’importance inattendue du nombre d’erreurs dans la condition SP. Ces deux effets n’ont pas été prédits par le modèle. On peut toutefois essayer de les expliquer de la façon suivante : L’importance relativement faible de l’erreur générale de singulier, surtout en comparaison avec les résultats de Hemforth und Konieczny (2003) et les prédictions du modèle, pourrait résider dans le fait que les fragments de phrase utilisés étaient plus courts dans notre expérience, étant donné qu’il n’y avait pas d’adjectif. Dans un espace de temps plus court, l’activation du trait de pluriel devrait moins baisser. Cette explication s’accorde bien avec les données obtenues par Branigan (1995), qui n’a pas présenté d’adjectif non plus et qui a trouvé une erreur générale de singulier qui était également un peu moins importante. Il s’y ajoute que, dans les expériences sur le français résumées ci-dessus qui étaient menées dans le paradigme de répétition, et dans lesquels les sujets n’étaient pas confrontés à une difficulté supplémentaire, il y avait moins d’erreurs de singulier que dans la présente expérience (au plus 6.8 %, Franck et al., 2003). On peut conclure de l’ensemble de toutes ces données qu’une 65 voir Branigan (1995), p. 104. Branigan a mené des expériences avec différents types de modificateurs post-posés. Nous reprenons les résultats pour modificateurs de type syntagme prépositionnel qui correspondent à notre matériel. 100 erreur générale de singulier existe, mais qu’elle est très sensible aux changements de paradigme. Pour l’effet mismatch après les têtes au singulier, qui est plus important dans notre expérience qu’en anglais et en allemand, il y a plusieurs explications envisageables. D’une part, le fait que la majorité des sujets ait rempli le questionnaire assez vite pourrait être à prendre en considération. Même si l’instruction ne les pressait pas outre mesure, la simple longueur du questionnaire a peut-être incité certains sujets à travailler très vite. Si c’était le cas, l’augmentation de l’effet mismatch n’a plus rien de surprenant (voir aussi paragraphe 3.2.6.). D’autre part, l’effet pourrait être dû à une spécificité de la langue française. Des indices ont été trouvés qui témoignent d’un nombre d’erreurs généralement élevé en français (pour une discussion, voir Franck et al., 2002). Les résultats sur cette question sont toutefois très peu clairs, parce que, comme nous l’avons déjà dit, le niveau général d’erreurs est très variable selon les études. Pour cette raison, on ne peut pas conclure, à partir d’un nombre élevé d’erreurs dans une expérience, à une spécificité de la langue étudiée, étant donné qu’il pourrait aussi bien s’agir d’une spécificité du matériel, du paradigme ou autre. De plus, il n’apparaît pas clairement comment une telle tendance générale vers plus d’erreurs en français pourrait s’expliquer ni pourquoi elle se révèlerait tout particulièrement dans la condition SP. En somme, ces questions ne pourront être résolues qu’au travers d’expériences qui compareront systématiquement les différentes langues et les différents paradigmes. Les comparaisons que nous avons tentées entre différentes expériences sont toujours parasitées par le manque de comparabilité entres les conditions dans lesquelles les expériences ont été menées. Pour compléter l’expérience que nous venons de présenter, il serait nécessaire de mener une expérience avec le même matériel, mais dans un autre paradigme, notamment celui de répétition. Ce n’est que de cette façon que nous pourrions démontrer de façon univoque notre hypothèse : si l’erreur générale de singulier est plus importante dans notre expérience que dans d’autres, cela est dû au paradigme. Notre expérience ne constitue donc qu’un premier pas pour vérifier les prédictions du modèle. Nous donnerons une évaluation terminale du bénéfice de cette expérience et des prolongements possibles dans la dernière partie de ce travail. 101 5. Discussion générale et perspectives de recherche L’objectif de ce travail a été de contribuer à l’étude des origines d’erreurs d’accord en nombre entre sujet et verbe, en français et en allemand. Dans cet objectif, nous avons d’abord résumé, dans la deuxième partie, les résultats empiriques les plus importants. Nous avons ensuite pu montrer que, parmi les modèles d’explication existants, le modèle d’activation proposé par Hemforth et Konieczny est le plus apte à couvrir les données dans ces langues et dans des langues apparentées, car il peut expliquer à la fois des influences d’ordre syntaxique et des influences d’ordre non-syntaxique. Ensuite, nous avons présenté, dans la troisième partie, un modèle ACT-R qui réalise les idées centrales du modèle d’activation. Nous avons pu montrer par là même que le modèle d’activation peut être intégré dans un modèle général de la compréhension et qu’il se trouve en harmonie avec les principes généraux de la cognition humaine intégrés dans ACT-R. Par ailleurs, le modèle d’activation a pu être précisé sur beaucoup de points. En particulier, nous avons avancé une explication basée sur l’activation qui touchait également l’effet mismatch après les têtes au singulier. Nous avons également pu montrer qu’il est possible d’élargir le modèle afin de couvrir les principales données obtenues jusqu’ici par la recherche. Cela concerne en particulier les résultats contradictoires sur l’effet d’attraction par l’objet dans différentes langues, pour lequel nous avons pu avancer les premières hypothèses d’explication en partant de la modélisation. Finalement, nous avons pu vérifier une prédiction importante du modèle pour la langue française, notamment celle de l’existence d’une erreur générale de singulier, ce qui constitue un premier support expérimental pour le modèle. Il reste toutefois des questions empiriques ouvertes et des lacunes dans la modélisation. Les questions empiriques ouvertes sont d’une part quelques-unes des questions évoquées dans la deuxième partie et qui n’ont pas été résolues jusqu’ici. Il s’agit surtout des résultats contradictoires après des têtes au pluriel dans la construction SPV. D’autre part, l’importance inattendue de l’effet mismatch et la faiblesse également inattendue de l’erreur générale de singulier dans notre expérience ont fait surgir de nouvelles questions quant à des effets spécifiques reliés à des langues et paradigmes différents. 102 Les lacunes dans la modélisation consistent d’une part en un manque de motivation indépendante de certains aspects du modèle et d’autre part dans un excès de simplification dans le modèle qui ne rend pas compte de beaucoup d’aspects pertinents. On pourra probablement remédier aux deux sortes d’insuffisances par un circuit d’élargissements du modèle, des vérifications empiriques de ceux-ci, et de nouveaux élargissements prenant en compte les résultats. Dans ce qui suit nous allons ébaucher les prochains étapes envisageables d’un tel projet. Pour améliorer le modèle, il faudrait d’abord réaliser les élargissements dont nous avons seulement discuté dans la troisième partie. Pour cela, il faudrait surtout intégrer le niveau sémantique dans le modèle. Cela signifierait qu’à chaque traitement syntaxique d’un syntagme, il suivrait un traitement sémantique. Il faudrait alors rechercher le concept lié au lemme en question pour l’intégrer dans un modèle de discours. De la même façon, le traitement du nombre devrait avoir un pendant sur le niveau sémantique. Il conviendrait de clarifier quelles fonctions un trait de pluriel sémantique remplirait différemment du trait de pluriel syntaxique. L’intégration du niveau sémantique permettrait de modéliser l’effet de réactivation en construction SOV. Si on suppose qu’un trait de pluriel sémantique peut aussi contribuer à la détermination du nombre du verbe, il serait également possible de remédier à la lacune évoquée dans la troisième partie : l’ordre peu motivé entre la connexion syntaxique d’un SN modificateur et la détermination de son nombre. On pourrait renoncer à cet ordre si on suppose qu’après le traitement syntaxique, il se produit encore la formation d’un trait de pluriel sémantique susceptible de se référer fautivement au premier SN en condition SP. Eventuellement, une explication basée sur la combinaison des influences sémantiques et syntaxiques pourrait également éclairer les fluctuations des résultats après les têtes au pluriel. Il serait également intéressant d’élargir le modèle à d’autres paradigmes expérimentaux. Cet élargissement rendrait justice à l’influence importante du paradigme sur les résultats. Il montrerait également que le paradigme expérimental joue sur l’ordre des étapes du traitement et peut requérir d’ajouter ou d’enlever certains étapes, sans toutefois changer les principes généraux du traitement sur lesquels est fondé le modèle actuel. Ceci serait vrai aussi pour un élargissement particulièrement intéressant, notamment celui qui viserait à intégrer des paradigmes qui tentent de provoquer une production pure sans avoir recours à la compréhension. Dans un tel paradigme, le modèle devrait partir de concepts prédéfinis pour former toute la phrase. Cela chan103 gerait sans doute la dynamique des activations, mais il y aurait tout de même des processus qui resteraient les mêmes que ceux de la modélisation de la compréhension. Par exemple, le modèle formerait lors de la production un trait de pluriel qui aurait la même forme que dans les expériences de compréhension et qui devrait aussi être récupéré pour la production du verbe. Ces changements devraient être accompagnés d’études empiriques. Certaines questions empiriques se posent déjà à partir du modèle existant et de notre premier test expérimental : Ainsi pourrait-on, par une réplique exacte de l’expérience décrite dans la quatrième partie en allemand, vérifier si l’absence de l’adjectif peut véritablement influencer l’erreur générale de singulier. Les interprétations concernant la présente expérience pourraient aussi être testées par l’utilisation d’un autre paradigme expérimental en français. De plus, les idées développées pour expliquer l’effet d’attraction par l’objet dans la troisième partie seraient à tester par des expériences dans des langues différentes, dans lesquelles non seulement la construction, mais aussi le paradigme expérimental resteraient constants. Les élargissements du modèle feraient émerger de nouvelles questions empiriques. Il serait bon, par exemple, d’accompagner l’élargissement sémantique par des études empiriques concernant les influences sémantiques, dont peu jusqu’ici ont été réalisées en allemand. Enfin, le rôle important attribué au paradigme expérimental suggère d’étudier de façon systématique les effets d’autres paradigmes expérimentaux. Pour créer une situation plus proche de la production réelle, on pourrait par exemple inciter des sujets à décrire des images. Ce n’est que de cette façon qu’il nous semble possible d’identifier tous les facteurs pertinents dans l’établissement de l’accord, afin de nous approcher du but superordonné de la recherche sur les erreurs d’accord, évoqué dans l’introduction : ce but est de mieux comprendre, dans la production du langage, l’établissement global des dépendances sur de longues distances. 104 Bibliographie Abraham, W. (1988). Terminologie zur neueren Linguistik. Tübingen: Max Niemeyer Verlag. ACT-R, site web: http://act-r.psy.cmu.edu/ ACT-R, tutorat: http://act-r.psy.cmu.edu/tutorials/ ACT-R, introduction: http://act-r.psy.cmu.edu/tutorials/ACT-R_intro_tutorial.ppt Anderson, J. R., Bothell, D., Byrne M. D. et Lebiere, C. (soumis). An Integrated Theory of the Mind. Psychological Review. Anderson, J. R., Fincham, J. M. et Douglass, S. (1999). Practice and retention: A unifying analysis. Journal of Experimental Psychology: Learning, Memory, and Cognition, 25, 1120-1136. Anderson, J. R. et Lebiere, C. (1998). The atomic components of thought. Mahwah, NJ: Erlbaum. Baddeley, A. D. (1986). Working Memory. Oxford: Oxford University Press. Bock, J. K. et Cutting, J. C. (1992). Regulating mental energy: Performance units in language production. Journal of Memory and Language, 31, 99-127. Bock, J. K. et Eberhard, K. N. (1993). Meaning sound and syntax in English number agreement. Language and Cognitive Processes, 8, 57-99. Bock, J. K., Eberhard, K., Cutting, C. J., Meyer, A. S. et Schriefers, H. (2001). Some attractions of verb agreement. Cognitive Psychology, 43, 83-128. Bock, J. K. et Levelt, W. (1994). Language Production. Grammatical Encoding. in Gernsbacher, M. A. (Edit.) Handbook of Psycholinguistics. San Diego: Academic Press. Bock, J. K. et Miller, C. A. (1991). Broken Agreement. Cognitive Psychology, 23, 35-43. Branigan, H. P. (1995). Language processing and the mental representation of syntactic structure. Thèse de doctorat, Edinburgh University. Branigan, H. P., Liversedge, S. P. et Pickering, M. J.(1995). Verb agreement in written comprehension and production. Paper présenté au 8th Annual CUNY Sentence Processing Conference, Tuscon, AZ. Budiu, R. & Anderson, J. R. (soumis). Interpretation-Based Processing: A Unified Theory of Semantic Sentence Processing. 105 Chanquoy, L. et Negro, I. (1996). Subject-Verb Agreement in written productions: a study on French children and adults. Journal of Psycholinguistic research, 25, 553570. Chomsky, N. (1995). The Minimalist Program. Cambridge, MA: MIT Press. Dubois, J. (1965). Grammaire structurale du Français: Nom et Pronom. Paris : Larousse. Eberhard, K. (1997). The Marked Effect of Number on Subject-Verb Agreement. Journal of Memory and Language, 36, 147-164. Fayol, M. et Got, C. (1991). Automatisme et contrôle dans la production écrite / Les erreurs d’accord sujet-verbe chez l’enfant et l’adulte. L’année Psychologique, 91, 187-205. Fayol, M., Largy, P. et Lemaire, P. (1994). Cognitive Overload and Orthographic Errors : When Cognitive Overload Enhances Subject-Verb-Agreement errors. A Study in French Written Language. The quarterly Journal of Experimental Psychology, 47A (2), 437- 464. Francis, W. N. (1986). Proximity Concord in English. Journal of English linguistics, 19, 309-318. Fodor, J. A. (1983). The modularity of mind. Cambridge, MA: MIT Press. Franck, J., Bowers, J. S., Frauenfelder, U. H. et Vigliocco, G. (2003): Orthographic influences on agreement: a case for modality-specific form effects of grammatical encoding. Language and cognitive processes, 18(1), 61-79. Franck, J., Lassi, G., Frauenfelder, U. H. et Rizzi, L. (soumis). Agreement and movement: a syntactic analysis of attraction. Franck, J., Vigliocco, G. et Nicol, J. (2002). Subject-Verb agreement errors in French and English: The role of syntactic hierarchy. Journal of Language and Cognitive Processes. Garrett, M. F. (1975). The analysis of sentence production. in G. H. Bower (Edit.), The Psychology of Learning and Motivation, 133-177. New York: Academic Press. Garrett, M. F. (1980). Levels of processing in sentence production. In Butterworth, B. (Edit.) Language production, Vol. 1, 177-220. London: Academic Press. Gathercole, S. E. et Baddeley, A. D. (1993). Working memory and language. Hove: Lawrence Earlbaum Associates Ltd. Hartsuiker, R., Antón-Méndez, I. et van Zee, M. (2001). Object attraction in SubjectVerb agreement Construction. Journal of Memory and Language 45, 546-572. 106 Haskell, T. et MacDonald, M. (2002). Proximity does matter: Evidence for distributional effects in the production of subject-verb agreement. Poster présenté au 15thannual CUNY conference on human sentence processing, New York. Haskell, T. et MacDonald, M. (2003). Conflicting cues and competition in subjectverb agreement. Journal of Memory and Language 48, 760-778. Hemforth, B. et Konieczny, L. (2003). Proximity in Agreement Errors. in Proceedings of the 25th Annual Conference of the Cognitive Science Society, Boston, MA. Hemforth, B. Konieczny, L. et Schimke, S. (2003). Modifier attraction and object attraction. Poster présenté au Conference on architectures and Mechanisms of Language Processing (AMLaP), August 2003, Glasgow. Hölscher, C. et Hemforth, B. (2000). Subject-verb agreement in German. In B. Hemforth & L. Konieczny, German sentence processing (279-310). Dordrecht: Kluwer Academic publishers. Hupet, M., Fayol, M. et Schelstraete, M.-A. (1998). Effects of semantic variables on the subject-verb agreement process in writing. British Journal of Psychology, 89, 5975. Hupet, M., Schelstraete, M.A., Demaeght, N. et Fayol, M. (1996). Les erreurs d’accord sujet-verbe en production écrite. L’Année Psychologique, 96, 587-610. Jakobson, R. (1957). Shifters, verbal categories and the russian verb (Russian Language Project Report). Cambridge: Harvard University, Department of Slavic Languages and Literatures. Jespersen, (1924). The philosophy of Grammar. London: Allen & Unwin. Kail, M. et Bassamo, D. (1997). Verb Agreement Processing in French: A study of on-line grammaticality judgements. Language and Speech, 40, 25-46. Kempen, G. et Hoenkamp, E. (1987). An incremental procedural grammar for sentence formulation. Cognitive science, 11, 201-258. Konieczny, L. (1996). Human sentence processing: A semantics-oriented parsing approach. Thèse de doctorat. Freiburg, Allemagne: IIG-Berichte, 6-96. AlbertLudwigs-Universität. Konieczny, L. et Döring, P. (2003). Anticipation of clause-final heads. Evidence from eye-tracking and SRNs. in Slezak, P. P. (Edit.): Proceedings of the 4th International Conference on Cognitive Science, July 13-17, 2003, University of New South Wales, Sydney, Australia, 330-335. Konieczny, L., Schimke, S. et, Hemforth, B. (2004). An activation-based model of agreement errors in production and comprehension. Poster à présenter au 26th Annual Meeting of the Cognitive Science Society, Chicago, août 2004. 107 Largy, P., Chanquoy, L. et Fayol, M. (1993). Automatic and controlled writing: subject-verb agreement errors in French native speakers. In Eigler, G. et Jechle, T. (Edit.), Writing: Current trends in European research, 109-120. Freiburg, Allemagne: Hochschul Verlag. Largy, P. et Fayol, M. (2001). Oral cues improve subject-verb-agreement in written French. International Journal of Psychology, 36, 121-131. Levelt, W. (1989). Speaking: From intention to articulation. Cambridge: MIT Press. Nicol, J. (1995). Effects of clausal structure on Subject-Verb Agreement Errors. Journal of psycholinguistic Research, 24, 507-516. Nicol, J. Forster, K.L. et Veres, C. (1997). Subject-verb Agreement Processes in Comprehension. Journal of Memory and Language, 36, 569 – 587. Pearlmutter, N. J. (2000). Linear versus hierarchical agreement feature processing in comprehension. Journal of psycholinguistic research, 29, 89-98. Pearlmutter, N. J., Garnsey, S. M. et Bock, J. K. (1999). Agreement processes in sentence comprehension. Journal of Memory and Language, 41, 427-456. Power, M. J. (1985). Sentence Production and Working memory. Quarterly Journal of Experimental Psychology, 37A, 376-385. Schriefers, H. et van Kampen, A. (1993). Syntaktische Prozesse bei der Sprachproduktion: Zur Numerus-Kongruenz zwischen Subjekt und Verb. Sprache und Kognition, 12, 205-216. Sternberger, J. P. (1985). An interactive actvation model of language production. in Ellis, A. (Edit.). Progress in the Psychology of language, 143-186. Hove, UK: Lawrence Erlbaum Asoociates Ltd. Vigliocco, G. , Butterworth, B. et Garrett, M. (1996). Subject-Verb-Agreement in Spanish and English: Differences in the role of conceptual constraints. Cognition, 61, 261-298. Vigliocco, G., Butterworth, B. et Semenza, C. (1995). Constructing Subject-VerbAgreement in speech: the role of semantic and morphological factors. Journal of memory and language, 34, 186-215. Vigliocco, G., Hartsuiker, R., Jarema, G. et Kolk, H. (1996). One or More Lables on the Bottles? Notional Concord in Dutch and French. Language and Cognitive Processes, 11 (4), 407-442. Vigliocco, G. et Nicol, J. (1998). Separating hierarchical relations and word order in language production: is proximity concord syntactic or linear? Cognition (68), B13B29. 108 Annexe I. Le modèle Les types de chunk (chunk-type comprehend-sentence subject predicate state) (chunk-type process-np parent state ) (chunk-type read-vp aux part parent state function) (chunk-type read-np det n case modifies parent state function) (chunk-type read-item lemma category parent state) (chunk-type search-modified-np modifying modified parent state) (chunk-type check-plural parent state) (chunk-type plural-feature feature np parent state) (chunk-type lemma-feature type feature det n) (chunk-type lemma string category) La mémoire déclarative (add-dm (goal isa comprehend-sentence state "start-check-item") (der isa lemma string "der" category det) (die isa lemma string "die" category det) (des isa lemma string "des" category det) (Schüler isa lemma string "schüler" category n) (Lehrerin isa lemma string "lehrerin" category n) (Schülers isa lemma string "schülers" category n) (Lehrerinnen isa lemma string "lehrerinnen" category n) (verwundert isa lemma string "verwundert" category part) (plural-der-Schüler isa lemma-feature type number feature plural det der n Schüler) (plural-die-Lehrerinnen isa lemma-feature type number feature plural det die n Lehrerinnen) (nominativ-die-Lehrerin isa lemma-feature type case feature nom det die n Lehrerin) (nominativ-die-Lehrerinnen isa lemma-feature type case feature nom det die n Lehrerinnen) (genitiv-des-Schülers isa lemma-feature type case feature gen det des n Schülers) (genitiv-der-Schüler isa lemma-feature type case feature gen det der n Schüler) ) Les productions (p check-item =goal> isa comprehend-sentence state "start-check-item" ==> =goal> state "check-item" +visual-location> isa visual-location screen-x greater-than-current nearest current +goal> isa read-item parent =goal state "attend") (p comprehend-sentence-start-process-np =goal> isa comprehend-sentence state "check-item" =retrieval> isa read-item state "complete" lemma =det category det ==> =goal> state "encode" +goal> isa process-np parent =goal state "start") (p comprehend-sentence-start-read-vp isa comprehend-sentence state "check-item" =retrieval> isa read-item state "complete" lemma =part category part ==> =goal> state "encode" 109 =goal> isa read-item state "attend" =visual-location> isa visual-location =visual-state> isa module-state modality free +goal> isa read-vp parent =goal part =part state "start") (p start-read-vp =goal> isa read-vp state "start" ==> =goal> state "encode" +visual-location> isa visual-location screen-x greater-than-current nearest current +goal> isa read-item parent =goal state "attend") (p start-process-np =goal> isa process-np state "start" =retrieval> isa read-item lemma =det category det state "complete" ==> =goal> state "encode" +retrieval> =goal +goal> isa read-np det =det parent =goal state "start") (p start-read-np =goal> isa read-np det =det state "start" =retrieval> isa process-np state "encode" ==> =goal> state "encode" +visual-location> isa visual-location screen-x greater-than-current nearest current +goal> isa read-item parent =goal state "attend") (p attend-item ==> +retrieval> =goal +visual> isa visual-object screen-pos =visual-location =goal> state "retrieve") (p no-more-items =goal> isa read-item parent =parent state "attend" =visual-location> isa error ==> =goal> state "no-more-items" +goal> =parent +retrieval> =goal) (p retrieve-item =goal> isa read-item parent =parent state "retrieve" =retrieval> isa read-item =visual> isa text value =val ==> +retrieval> isa lemma string =val =goal> state "retrieved") (p continue-subgoal-no-retrieval isa read-item state "retrieved" =retrieval> isa error ==> =goal> state "attend" +visual-location> isa visual-location screen-x greater-than-current nearest current) (p end-subgoal =goal> isa read-item 110 state "retrieved" parent =parent =retrieval> isa lemma category =cat ==> =goal> lemma =retrieval category =cat state "complete" +retrieval> =goal +goal> =parent) (p encode-n =goal> isa read-np det =det state "encode" =retrieval> isa read-item category n lemma =n ==> =goal> n =n state "search-case" +retrieval> isa lemma-feature type case det =det n =n) (p encode-no-more-items =goal> isa read-vp parent =parent state "encode" =retrieval> isa read-item state "no-more-items" ==> =goal> state "no-more-items" +goal> =parent +retrieval> =goal) (p encode-nominativ-np =goal> isa read-np parent =parent state "search-case" =retrieval> isa lemma-feature type case feature nom ==> =goal> case nom state "complete" +retrieval> =goal +goal> =parent) (p encode-genitiv-np =goal> isa read-np parent =parent state "search-case" =retrieval> isa lemma-feature type case feature gen ==> =goal> case gen state "complete" +retrieval> =goal +goal> =parent) (p start-search-modified-np =goal> isa process-np state "encode" =retrieval> isa read-np case gen state "complete" ==> =goal> state "search-modified-np" +goal> isa search-modified-np modifying =retrieval parent =goal state "start") (p search-modified-np =goal> isa search-modified-np state "start" ==> +retrieval> isa read-np case nom state "complete" =goal> state "search-modified") (p encode-modified-np =goal> isa search-modified-np modifying =modifying state "search-modified" =retrieval> isa read-np case nom ==> =goal> modified =retrieval state "search-modifying" +retrieval> =modifying) (p end-search-modified-np =goal> 111 isa search-modified-np parent =parent modified =modified state "search-modifying" =retrieval> isa read-np state "complete" ==> =goal> state "complete" =retrieval> modifies =modified +retrieval> =goal +goal> =parent) (p start-check-plural-1 =goal> isa process-np state "encode" =retrieval> isa read-np - case gen state "complete" ==> =goal> state "check-plural" +retrieval> isa read-np - case gen state "complete" +goal> isa check-plural parent =goal state "start") (p start-check-plural-2 =goal> isa process-np state "search-modified-np" =retrieval> isa search-modified-np state "complete" ==> =goal> state "check-plural" +retrieval> isa read-np case gen state "complete" +goal> isa check-plural parent =goal state "start") (p search-plural-feature =goal> isa check-plural state "start" =retrieval> isa read-np det =det n =n state "complete" ==> +retrieval> isa lemma-feature type number feature plural det =det n =n =goal> state "search-plural-feature" +goal> isa plural-feature parent =goal state "start") (p no-plural =goal> isa plural-feature parent =parent state "start" =retrieval> isa error ==> =goal> state "complete" +goal> =parent +retrieval> =goal) (p search-plural-np =goal> isa plural-feature state "start" =retrieval> isa lemma-feature feature plural ==> +retrieval> isa read-np state "complete" =goal> feature plural state "search-plural-np") (p encode-plural-np =goal> isa plural-feature parent =parent state "search-plural-np" =retrieval> isa read-np state "complete" ==> =goal> np =retrieval state "complete" +goal> =parent +retrieval> =goal) (p stop-check-plural =goal> isa check-plural parent =parent 112 state "search-plural-feature" =retrieval> isa plural-feature state "complete" ==> =goal> state "complete" +goal> =parent +retrieval> =goal) (p stop-process-np =goal> isa process-np parent =parent state "check-plural" =retrieval> isa check-plural state "complete" ==> =goal> state "complete" +goal> =parent +retrieval> =goal) (p search-subject-np =goal> isa comprehend-sentence subject nil state "encode" =retrieval> isa process-np state "complete" ==> +retrieval> isa read-np parent =retrieval state "complete" =goal> state "search-subject-np") (p encode-subject-np =goal> isa comprehend-sentence state "search-subject-np" =retrieval> isa read-np det =det n =n state "complete" ==> =retrieval> function subject =goal> subject "complete" state "start-check-item") (p process-modifier-np; =goal> isa comprehend-sentence subject "complete" state "encode" =retrieval> isa process-np state "complete" ==> =goal> state "start-check-item") (p end-comprehend =goal> isa comprehend-sentence subject "complete" state "encode" =retrieval> isa read-vp state "no-more-items" ==> =retrieval> function predicate =goal> state "answer" predicate "complete" +retrieval> isa read-np function subject) (p answer-singular =goal> isa comprehend-sentence state "answer" =retrieval> isa read-np function subject =manual-state> isa module-state modality free ==> +manual> isa press-key key "s" =goal> state "stop" !output! "ist") (p answer-singular-2 =goal> isa comprehend-sentence state "answer" =retrieval> isa error =manual-state> isa module-state modality free ==> +manual> isa press-key key "s" =goal> state "stop" !output! "ist") (p answer-plural =goal> isa comprehend-sentence 113 =retrieval> isa plural-feature =manual-state> isa module-state modality free state "answer" =retrieval> isa read-np function subject ==> ==> +retrieval> isa plural-feature np =retrieval) +manual> isa press-key key "p" =goal> state "stop" !output! "sind") (p answer-plural-2 =goal> isa comprehend-sentence state "answer" Les valeurs de paramètres (sgp :esc t :dmt nil :gt nil :mt nil :cst nil :act nil :blc 3 :ga 1 :ans 0.052 :v nil :bll 0.5 :rt 3.82 :egs 0.05) (pm-set-params :visual-num-finsts 10 :visual-finst-span 100 :real-time nil :show-focus nil) (setallbaselevels 1000 -10) (goal-focus goal) (spp answer-singular :p .55) (spp answer-plural :p .6) Code pour le déroulement de l’expérience (defvar *response* nil) (defvar *response-time* nil) (defconstant *hem-kon-02-data* '(2 5 14 13.9)) (defparameter *materials* '( (1 ss Lehrerin des Schülers _ verwundert") (2 sp Lehrerin der Schüler _ verwundert") (3 ps Lehrerinnen des Schülers _ verwundert") (4 pp Lehrerinnen der Schüler _ verwundert") "Die "Die "Die "Die )) (defun get-s-num (sentence) (first sentence)) (defun get-condition (sentence) (second sentence)) (defun get-sentence (sentence) (third sentence)) (defun correct-response-p (response condition) (if (or (equal condition 'ss) (equal condition 'sp)) (string= "s" response) (string= "p" response))) (defun test-sentence (test) (if *actr-enabled-p* (test-sentence-model test) (test-sentence-person test))) (defun test-sentence-model (test) (let ((window (open-exp-window "Agreement Experiment" :visible t))); :width 300))) (reset) (pm-install-device window) (add-text-to-exp-window :text (third test) :x 50 :y 100) (pm-proc-display); :clear t) (setf *response-time* nil) (setf *response* nil) (let ((start-time (pm-get-time))) (pm-run 30.00 :full-time nil) (setf *response-time* (if *response-time* (- *response-time* starttime) 30000))) (list (get-s-num test) (get-condition test) (/ *response-time* 1000.0) (correct-response-p *response* (getcondition test))))) (defun test-sentence-person (test) (let ((window (open-exp-window "Sentence Experiment" :visible t :width 300))) ;(reset) (add-text-to-exp-window :text (third test) :x 25 :y 150 :width 250) (setf *response-time* nil) (setf *response* nil) (sgp :v nil) (let ((start-time (pm-get-time))) (while (null *response*) (allow-event-manager window)) (setf *response-time* (- *response-time* start-time))) 114 (list (get-s-num test) (get-condition test) (/ *response-time* 1000.0) (correct-response-p *response* condition test))))) (get- (defun test-sentences (set) (let ((results nil)) (dolist (x set) (push (test-sentence x) results)) (pprint results) results)) (defun do-experiment (&key (in-order t) (vpn 1)) (let ((all-results nil)) (do ((i 0 (1+ i))) ((= i vpn)) (let ((tests (if in-order *materials* (permute-list *materials*)))) (reset) (push (cons (1+ i) (test-sentences tests)) all-results))) (report-data all-results))) (defun collect-condition (condition alist) (let ((selected nil)) (dolist (trial alist) (when (equal condition (first trial)) (push trial selected))) selected)) (defun mean (lst) (/ (apply #'+ lst) (length lst))) (defun mean-rt (items) (mean (mapcar #'second items))) (defun percent-errors (items) (* (mean (mapcar #'(lambda (item) (if (third item) 0 1)) items)) 100)) (pp-err nil) (mean-rts nil) (mean-err nil)) (dolist (vpn lis) (let ((ss (collect-condition 'ss (mapcar #'rest (rest vpn)))) (sp (collect-condition 'sp (mapcar #'rest (rest vpn)))) (ps (collect-condition 'ps (mapcar #'rest (rest vpn)))) (pp (collect-condition 'pp (mapcar #'rest (rest vpn))))) (push (mean-rt ss) ss-rts ) (push (mean-rt sp) sp-rts ) (push (mean-rt ps) ps-rts ) (push (mean-rt pp) pp-rts ) (push (percent-errors ss)ss-err ) (push (percent-errors sp) sp-err ) (push (percent-errors ps) ps-err ) (push (percent-errors pp) pp-err ) )) (setf mean-rts (list (mean ss-rts) (mean sp-rts) (mean ps-rts) (mean pp-rts))) (setf mean-err (list (mean ss-err) (mean sp-err) (mean ps-err) (mean pp-err))) (format t "~%~% Mean RT Percent errors~%") (format t "SS: ~9,3F ~9,1F~%" (first meanrts) (first mean-err)) (format t "SP: ~9,3F ~9,1F~%" (second mean-rts) (second mean-err)) (format t "PS: ~9,3F ~9,1F~%" (third meanrts) (third mean-err)) (format t "PP: ~9,3F ~9,1F~%" (fourth mean-rts) (fourth mean-err))) 'done) (defmethod rpm-window-key-event-handler ((win rpm-window) key) (setf *response-time* (pm-get-time)) (setf *response* (string key))) ;(percent-errors '((ss 3.4 t) (ss 3.4 nil) (ss 3.4 nil) (ss 3.4 nil) (ss 3.4 nil) (ss 3.4 t))) ;(mean-rt '((ss 3.4 t) (ss 3.4 nil) (ss 3.4 nil) (ss 3.4 nil) (ss 3.4 nil) (ss 3.4 t))) ;(mean '(1 2 3 4)) (defun go () (do-experiment)) (defun report-data (lis) (let ((ss-rts nil) (sp-rts nil) (ps-rts nil) (pp-rts nil) (ss-err nil) (sp-err nil) (ps-err nil) (clear-all) (pm-reset) (defun go2 (n) (do-experiment :vpn n)) 115 II. Protocoles de passages du modèle66 protocole 1 Condition SP Time 0.000: Check-Item Selected Time 0.050: Check-Item Fired Time 0.050: Module :VISION running command FIND-LOCATION Time 0.050: Attend-Item Selected Time 0.100: Attend-Item Fired Time 0.100: Goal198 Retrieved Time 0.100: Module :VISION running command MOVE-ATTENTION Time 0.185: Module :VISION running command ENCODING-COMPLETE Time 0.185: Retrieve-Item Selected Time 0.235: Retrieve-Item Fired Time 0.235: Die Retrieved Time 0.235: End-Subgoal Selected Time 0.285: End-Subgoal Fired Time 0.291: Goal198 Retrieved Time 0.291: Comprehend-Sentence-StartProcess-Np Selected Time 0.341: Comprehend-Sentence-StartProcess-Np Fired Time 0.341: Start-Process-Np Selected Time 0.391: Start-Process-Np Fired Time 0.392: Goal200 Retrieved Time 0.392: Start-Read-Np Selected Time 0.442: Start-Read-Np Fired Time 0.442: Module :VISION running command FIND-LOCATION Time 0.442: Attend-Item Selected Time 0.492: Attend-Item Fired Time 0.492: Goal202 Retrieved Time 0.492: Module :VISION running command MOVE-ATTENTION Time 0.577: Module :VISION running command ENCODING-COMPLETE Time 0.577: Retrieve-Item Selected Time 0.627: Retrieve-Item Fired Time 0.627: Lehrerin Retrieved Time 0.627: End-Subgoal Selected Time 0.677: End-Subgoal Fired Time 0.683: Goal202 Retrieved Time 0.683: Encode-N Selected Time 0.733: Encode-N Fired Time 0.733: Nominativ-Die-Lehrerin Retrieved Time 0.733: Encode-Nominativ-Np Selected Time 0.783: Encode-Nominativ-Np Fired Time 0.798: Goal201 Retrieved Time 0.798: Start-Check-Plural-1 Selected Time 0.848: Start-Check-Plural-1 Fired Time 0.848: Goal201 Retrieved 66 En règle générale, les passages documentés ici ont été faits par le modèle comme présenté à l’annexe 1. Tout changement de paramètre par rapport à cette forme du modèle est indiqué. Time 0.848: Search-Plural-Feature Selected Time 0.898: Search-Plural-Feature Fired Time 0.920: Failure Retrieved Time 0.920: No-Plural Selected Time 0.970: No-Plural Fired Time 0.978: Goal206 Retrieved Time 0.978: Stop-Check-Plural Selected Time 1.028: Stop-Check-Plural Fired Time 1.039: Goal205 Retrieved Time 1.039: Stop-Process-Np Selected Time 1.089: Stop-Process-Np Fired Time 1.100: Goal200 Retrieved Time 1.100: Search-Subject-Np Selected Time 1.150: Search-Subject-Np Fired Time 1.158: Goal201 Retrieved Time 1.158: Encode-Subject-Np Selected Time 1.208: Encode-Subject-Np Fired Time 1.208: Check-Item Selected Time 1.258: Check-Item Fired Time 1.258: Module :VISION running command FIND-LOCATION Time 1.258: Attend-Item Selected Time 1.308: Attend-Item Fired Time 1.308: Goal207 Retrieved Time 1.308: Module :VISION running command MOVE-ATTENTION Time 1.393: Module :VISION running command ENCODING-COMPLETE Time 1.393: Retrieve-Item Selected Time 1.443: Retrieve-Item Fired Time 1.443: Der Retrieved Time 1.443: End-Subgoal Selected Time 1.493: End-Subgoal Fired Time 1.499: Goal207 Retrieved Time 1.499: Comprehend-Sentence-StartProcess-Np Selected Time 1.549: Comprehend-Sentence-StartProcess-Np Fired Time 1.549: Start-Process-Np Selected Time 1.599: Start-Process-Np Fired Time 1.600: Goal210 Retrieved Time 1.600: Start-Read-Np Selected Time 1.650: Start-Read-Np Fired Time 1.650: Module :VISION running command FIND-LOCATION Time 1.650: Attend-Item Selected Time 1.700: Attend-Item Fired Time 1.700: Goal212 Retrieved Time 1.700: Module :VISION running command MOVE-ATTENTION Time 1.785: Module :VISION running command ENCODING-COMPLETE Time 1.785: Retrieve-Item Selected Time 1.835: Retrieve-Item Fired Time 1.835: Schüler Retrieved Time 1.835: End-Subgoal Selected Time 1.885: End-Subgoal Fired Time 1.891: Goal212 Retrieved Time 1.891: Encode-N Selected Time 1.941: Encode-N Fired Time 1.941: Genitiv-Der-Schüler Retrieved Time 1.941: Encode-Genitiv-Np Selected 117 Time 1.991: Encode-Genitiv-Np Fired Time 2.007: Goal211 Retrieved Time 2.007: Start-Search-Modified-Np Selected Time 2.057: Start-Search-Modified-Np Fired Time 2.057: Search-Modified-Np Selected Time 2.107: Search-Modified-Np Fired Time 2.115: Goal201 Retrieved Time 2.115: Encode-Modified-Np Selected Time 2.165: Encode-Modified-Np Fired Time 2.166: Goal211 Retrieved Time 2.166: End-Search-Modified-Np Selected Time 2.216: End-Search-Modified-Np Fired Time 2.227: Goal215 Retrieved Time 2.227: Start-Check-Plural-2 Selected Time 2.277: Start-Check-Plural-2 Fired Time 2.277: Goal211 Retrieved Time 2.277: Search-Plural-Feature Selected Time 2.327: Search-Plural-Feature Fired Time 2.327: Plural-Der-Schüler Retrieved Time 2.327: Search-Plural-Np Selected Time 2.377: Search-Plural-Np Fired Time 2.383: Goal211 Retrieved Time 2.383: Encode-Plural-Np Selected Time 2.433: Encode-Plural-Np Fired Time 2.441: Goal217 Retrieved Time 2.441: Stop-Check-Plural Selected Time 2.491: Stop-Check-Plural Fired Time 2.504: Goal216 Retrieved Time 2.504: Stop-Process-Np Selected Merging chunk Goal210 into chunk Goal200 Time 2.554: Stop-Process-Np Fired Time 2.563: Goal200 Retrieved Time 2.563: Process-Modifier-Np Selected Time 2.613: Process-Modifier-Np Fired Time 2.613: Check-Item Selected Time 2.663: Check-Item Fired Time 2.663: Module :VISION running command FIND-LOCATION Time 2.663: Attend-Item Selected Time 2.713: Attend-Item Fired Time 2.713: Goal218 Retrieved Time 2.713: Module :VISION running command MOVE-ATTENTION Time 2.798: Module :VISION running command ENCODING-COMPLETE Time 2.798: Retrieve-Item Selected Time 2.848: Retrieve-Item Fired Time 2.870: Failure Retrieved Time 2.870: Continue-Subgoal-No-Retrieval Selected Time 2.920: Continue-Subgoal-No-Retrieval Fired Time 2.920: Module :VISION running command FIND-LOCATION Time 2.920: Attend-Item Selected Time 2.970: Attend-Item Fired Time 2.970: Goal218 Retrieved Time 2.970: Module :VISION running command MOVE-ATTENTION Time 3.055: Module :VISION running command ENCODING-COMPLETE Time 3.055: Retrieve-Item Selected Time 3.105: Retrieve-Item Fired Time 3.105: Verwundert Retrieved Time 3.105: End-Subgoal Selected Time 3.155: End-Subgoal Fired Time 3.160: Goal218 Retrieved Time 3.160: Comprehend-Sentence-StartRead-Vp Selected Time 3.210: Comprehend-Sentence-StartRead-Vp Fired Time 3.210: Start-Read-Vp Selected Time 3.260: Start-Read-Vp Fired Time 3.260: Module :VISION running command FIND-LOCATION Time 3.260: No-More-Items Selected Time 3.310: No-More-Items Fired Time 3.316: Goal224 Retrieved Time 3.316: Encode-No-More-Items Selected Time 3.366: Encode-No-More-Items Fired Time 3.377: Goal223 Retrieved Time 3.377: End-Comprehend Selected Time 3.427: End-Comprehend Fired Time 3.435: Goal201 Retrieved Time 3.435: Answer-Plural Selected Time 3.485: Answer-Plural Fired Time 3.507: Failure Retrieved Time 3.507: Answer-Singular-2 Selected ist Time 3.557: Answer-Singular-2 Fired Time 3.557: Module :MOTOR running command PRESS-KEY Time 3.707: Module :MOTOR running command PREPARATION-COMPLETE Time 3.757: Module :MOTOR running command INITIATION-COMPLETE Time 3.767: Device running command OUTPUT-KEY << Window "Agreement Experiment" got key #\s at time 3767 >> Time 3.857: Module :MOTOR running command FINISH-MOVEMENT Time 3.857: Checking for silent events. Time 3.857: * Nothing to run: No productions, no events. protocole 2 condition PP, :egs 0 (pas de bruits dans les utilités) , :cst t (sélection de productions documentée) 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 0.000: Check-Item Selected Time 0.050: Check-Item Fired Time 0.050: Module :VISION running command FIND-LOCATION 118 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 0.050: Attend-Item Selected Time 0.100: Attend-Item Fired Time 0.100: Goal212 Retrieved Time 0.100: Module :VISION running command MOVE-ATTENTION Time 0.185: Module :VISION running command ENCODING-COMPLETE 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 0.185: Retrieve-Item Selected Time 0.235: Retrieve-Item Fired Time 0.235: Die Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 0.235: End-Subgoal Selected Time 0.285: End-Subgoal Fired Time 0.291: Goal212 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 0.291: Comprehend-Sentence-StartProcess-Np Selected Time 0.341: Comprehend-Sentence-StartProcess-Np Fired 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 0.341: Start-Process-Np Selected Time 0.391: Start-Process-Np Fired Time 0.392: Goal214 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 0.392: Start-Read-Np Selected Time 0.442: Start-Read-Np Fired Time 0.442: Module :VISION running command FIND-LOCATION 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 0.442: Attend-Item Selected Time 0.492: Attend-Item Fired Time 0.492: Goal216 Retrieved Time 0.492: Module :VISION running command MOVE-ATTENTION Time 0.577: Module :VISION running command ENCODING-COMPLETE 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 0.577: Retrieve-Item Selected Time 0.627: Retrieve-Item Fired Time 0.627: Lehrerinnen Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 0.627: End-Subgoal Selected Time 0.677: End-Subgoal Fired Time 0.684: Goal216 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 0.684: Encode-N Selected Time 0.734: Encode-N Fired Time 0.734: Nominativ-Die-Lehrerinnen Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 0.734: Encode-Nominativ-Np Selected Time 0.784: Encode-Nominativ-Np Fired Time 0.800: Goal215 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 0.800: Start-Check-Plural-1 Selected Time 0.850: Start-Check-Plural-1 Fired Time 0.850: Goal215 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 0.850: Search-Plural-Feature Selected Time 0.900: Search-Plural-Feature Fired Time 0.900: Plural-Die-Lehrerinnen Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 0.900: Search-Plural-Np Selected Time 0.950: Search-Plural-Np Fired Time 0.956: Goal215 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 0.956: Encode-Plural-Np Selected Time 1.006: Encode-Plural-Np Fired Time 1.015: Goal220 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 1.015: Stop-Check-Plural Selected Time 1.065: Stop-Check-Plural Fired Time 1.078: Goal219 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 1.078: Stop-Process-Np Selected Time 1.128: Stop-Process-Np Fired Time 1.141: Goal214 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 1.141: Search-Subject-Np Selected Time 1.191: Search-Subject-Np Fired Time 1.197: Goal215 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 1.197: Encode-Subject-Np Selected Time 1.247: Encode-Subject-Np Fired 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 1.247: Check-Item Selected Time 1.297: Check-Item Fired Time 1.297: Module :VISION running command FIND-LOCATION 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 1.297: Attend-Item Selected Time 1.347: Attend-Item Fired Time 1.347: Goal221 Retrieved Time 1.347: Module :VISION running command MOVE-ATTENTION Time 1.432: Module :VISION running command ENCODING-COMPLETE 1 productions out of 1 considered; expected gain of chosen is: 19.950 119 Time 1.432: Retrieve-Item Selected Time 1.482: Retrieve-Item Fired Time 1.482: Der Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 1.482: End-Subgoal Selected Time 1.532: End-Subgoal Fired Time 1.537: Goal221 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 1.537: Comprehend-Sentence-StartProcess-Np Selected Time 1.587: Comprehend-Sentence-StartProcess-Np Fired 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 1.587: Start-Process-Np Selected Time 1.637: Start-Process-Np Fired Time 1.638: Goal224 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 1.638: Start-Read-Np Selected Time 1.688: Start-Read-Np Fired Time 1.688: Module :VISION running command FIND-LOCATION 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 1.688: Attend-Item Selected Time 1.738: Attend-Item Fired Time 1.738: Goal226 Retrieved Time 1.738: Module :VISION running command MOVE-ATTENTION Time 1.823: Module :VISION running command ENCODING-COMPLETE 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 1.823: Retrieve-Item Selected Time 1.873: Retrieve-Item Fired Time 1.873: Schüler Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 1.873: End-Subgoal Selected Time 1.923: End-Subgoal Fired Time 1.928: Goal226 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 1.928: Encode-N Selected Time 1.978: Encode-N Fired Time 1.978: Genitiv-Der-Schüler Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 1.978: Encode-Genitiv-Np Selected Time 2.028: Encode-Genitiv-Np Fired Time 2.044: Goal225 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 2.044: Start-Search-Modified-Np Selected Time 2.094: Start-Search-Modified-Np Fired 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 2.094: Search-Modified-Np Selected Time 2.144: Search-Modified-Np Fired Time 2.150: Goal215 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 2.150: Encode-Modified-Np Selected Time 2.200: Encode-Modified-Np Fired Time 2.201: Goal225 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 2.201: End-Search-Modified-Np Selected Time 2.251: End-Search-Modified-Np Fired Time 2.260: Goal229 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 2.260: Start-Check-Plural-2 Selected Time 2.310: Start-Check-Plural-2 Fired Time 2.310: Goal225 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 2.310: Search-Plural-Feature Selected Time 2.360: Search-Plural-Feature Fired Time 2.360: Plural-Der-Schüler Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 2.360: Search-Plural-Np Selected Time 2.410: Search-Plural-Np Fired Time 2.416: Goal225 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 2.416: Encode-Plural-Np Selected Time 2.466: Encode-Plural-Np Fired Time 2.472: Goal231 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 2.472: Stop-Check-Plural Selected Time 2.522: Stop-Check-Plural Fired Time 2.534: Goal230 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 2.534: Stop-Process-Np Selected Merging chunk Goal224 into chunk Goal214 Time 2.584: Stop-Process-Np Fired Time 2.594: Goal214 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 2.594: Process-Modifier-Np Selected Time 2.644: Process-Modifier-Np Fired 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 2.644: Check-Item Selected Time 2.694: Check-Item Fired Time 2.694: Module :VISION running command FIND-LOCATION 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 2.694: Attend-Item Selected Time 2.744: Attend-Item Fired Time 2.744: Goal232 Retrieved Time 2.744: Module :VISION running command MOVE-ATTENTION 120 Time 2.829: Module :VISION running command ENCODING-COMPLETE 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 2.829: Retrieve-Item Selected Time 2.879: Retrieve-Item Fired Time 2.901: Failure Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 2.901: Continue-Subgoal-No-Retrieval Selected Time 2.951: Continue-Subgoal-No-Retrieval Fired Time 2.951: Module :VISION running command FIND-LOCATION 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 2.951: Attend-Item Selected Time 3.001: Attend-Item Fired Time 3.001: Goal232 Retrieved Time 3.001: Module :VISION running command MOVE-ATTENTION Time 3.086: Module :VISION running command ENCODING-COMPLETE 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 3.086: Retrieve-Item Selected Time 3.136: Retrieve-Item Fired Time 3.136: Verwundert Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 3.136: End-Subgoal Selected Time 3.186: End-Subgoal Fired Time 3.193: Goal232 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 3.193: Comprehend-Sentence-StartRead-Vp Selected Time 3.243: Comprehend-Sentence-StartRead-Vp Fired 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 3.243: Start-Read-Vp Selected Time 3.293: Start-Read-Vp Fired Time 3.293: Module :VISION running command FIND-LOCATION 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 3.293: No-More-Items Selected Time 3.343: No-More-Items Fired Time 3.349: Goal238 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 3.349: Encode-No-More-Items Selected Time 3.399: Encode-No-More-Items Fired Time 3.409: Goal237 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 3.409: End-Comprehend Selected Time 3.459: End-Comprehend Fired Time 3.468: Goal215 Retrieved 1 productions out of 2 considered; expected gain of chosen is: 11.950 Time 3.468: Answer-Plural Selected Time 3.518: Answer-Plural Fired Time 3.540: Goal220 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 3.540: Answer-Plural-2 Selected sind Time 3.590: Answer-Plural-2 Fired Time 3.590: Module :MOTOR running command PRESS-KEY Time 3.840: Module :MOTOR running command PREPARATION-COMPLETE Time 3.890: Module :MOTOR running command INITIATION-COMPLETE Time 3.990: Device running command OUTPUT-KEY << Window "Agreement Experiment" got key #\p at time 3990 >> Time 4.140: Module :MOTOR running command FINISH-MOVEMENT Time 4.140: Checking for silent events. Time 4.140: * Nothing to run: No productions, no events. protocole 3 condition PP, :cst t (sélection de productions documentée) 1 productions out of 1 considered; expected gain of chosen is: 20.088 Time 0.000: Check-Item Selected Time 0.050: Check-Item Fired Time 0.050: Module :VISION running command FIND-LOCATION 1 productions out of 1 considered; expected gain of chosen is: 19.980 Time 0.050: Attend-Item Selected Time 0.100: Attend-Item Fired Time 0.100: Goal352 Retrieved Time 0.100: Module :VISION running command MOVE-ATTENTION Time 0.185: Module :VISION running command ENCODING-COMPLETE 1 productions out of 1 considered; expected gain of chosen is: 19.872 Time 0.185: Retrieve-Item Selected Time 0.235: Retrieve-Item Fired Time 0.235: Die Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.958 Time 0.235: End-Subgoal Selected Time 0.285: End-Subgoal Fired Time 0.291: Goal352 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.773 Time 0.291: Comprehend-Sentence-StartProcess-Np Selected 121 Time 0.341: Comprehend-Sentence-StartProcess-Np Fired 1 productions out of 1 considered; expected gain of chosen is: 20.025 Time 0.341: Start-Process-Np Selected Time 0.391: Start-Process-Np Fired Time 0.392: Goal354 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.947 Time 0.392: Start-Read-Np Selected Time 0.442: Start-Read-Np Fired Time 0.442: Module :VISION running command FIND-LOCATION 1 productions out of 1 considered; expected gain of chosen is: 19.891 Time 0.442: Attend-Item Selected Time 0.492: Attend-Item Fired Time 0.492: Goal356 Retrieved Time 0.492: Module :VISION running command MOVE-ATTENTION Time 0.577: Module :VISION running command ENCODING-COMPLETE 1 productions out of 1 considered; expected gain of chosen is: 19.823 Time 0.577: Retrieve-Item Selected Time 0.627: Retrieve-Item Fired Time 0.627: Lehrerinnen Retrieved 1 productions out of 1 considered; expected gain of chosen is: 20.009 Time 0.627: End-Subgoal Selected Time 0.677: End-Subgoal Fired Time 0.683: Goal356 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.969 Time 0.683: Encode-N Selected Time 0.733: Encode-N Fired Time 0.733: Nominativ-Die-Lehrerinnen Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.962 Time 0.733: Encode-Nominativ-Np Selected Time 0.783: Encode-Nominativ-Np Fired Time 0.800: Goal355 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.916 Time 0.800: Start-Check-Plural-1 Selected Time 0.850: Start-Check-Plural-1 Fired Time 0.850: Goal355 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.977 Time 0.850: Search-Plural-Feature Selected Time 0.900: Search-Plural-Feature Fired Time 0.900: Plural-Die-Lehrerinnen Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.738 Time 0.900: Search-Plural-Np Selected Time 0.950: Search-Plural-Np Fired Time 0.956: Goal355 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.936 Time 0.956: Encode-Plural-Np Selected Time 1.006: Encode-Plural-Np Fired Time 1.013: Goal360 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.923 Time 1.013: Stop-Check-Plural Selected Time 1.063: Stop-Check-Plural Fired Time 1.074: Goal359 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.950 Time 1.074: Stop-Process-Np Selected Time 1.124: Stop-Process-Np Fired Time 1.132: Goal354 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.872 Time 1.132: Search-Subject-Np Selected Time 1.182: Search-Subject-Np Fired Time 1.187: Goal355 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.924 Time 1.187: Encode-Subject-Np Selected Time 1.237: Encode-Subject-Np Fired 1 productions out of 1 considered; expected gain of chosen is: 20.049 Time 1.237: Check-Item Selected Time 1.287: Check-Item Fired Time 1.287: Module :VISION running command FIND-LOCATION 1 productions out of 1 considered; expected gain of chosen is: 19.893 Time 1.287: Attend-Item Selected Time 1.337: Attend-Item Fired Time 1.337: Goal361 Retrieved Time 1.337: Module :VISION running command MOVE-ATTENTION Time 1.422: Module :VISION running command ENCODING-COMPLETE 1 productions out of 1 considered; expected gain of chosen is: 19.766 Time 1.422: Retrieve-Item Selected Time 1.472: Retrieve-Item Fired Time 1.472: Der Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.975 Time 1.472: End-Subgoal Selected Time 1.522: End-Subgoal Fired Time 1.528: Goal361 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 20.025 Time 1.528: Comprehend-Sentence-StartProcess-Np Selected Time 1.578: Comprehend-Sentence-StartProcess-Np Fired 1 productions out of 1 considered; expected gain of chosen is: 19.844 Time 1.578: Start-Process-Np Selected Time 1.628: Start-Process-Np Fired Time 1.629: Goal364 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.793 Time 1.629: Start-Read-Np Selected Time 1.679: Start-Read-Np Fired 122 Time 1.679: Module :VISION running command FIND-LOCATION 1 productions out of 1 considered; expected gain of chosen is: 19.960 Time 1.679: Attend-Item Selected Time 1.729: Attend-Item Fired Time 1.729: Goal366 Retrieved Time 1.729: Module :VISION running command MOVE-ATTENTION Time 1.814: Module :VISION running command ENCODING-COMPLETE 1 productions out of 1 considered; expected gain of chosen is: 20.008 Time 1.814: Retrieve-Item Selected Time 1.864: Retrieve-Item Fired Time 1.864: Schüler Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.987 Time 1.864: End-Subgoal Selected Time 1.914: End-Subgoal Fired Time 1.920: Goal366 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 20.041 Time 1.920: Encode-N Selected Time 1.970: Encode-N Fired Time 1.970: Genitiv-Der-Schüler Retrieved 1 productions out of 1 considered; expected gain of chosen is: 20.060 Time 1.970: Encode-Genitiv-Np Selected Time 2.020: Encode-Genitiv-Np Fired Time 2.032: Goal365 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.911 Time 2.032: Start-Search-Modified-Np Selected Time 2.082: Start-Search-Modified-Np Fired 1 productions out of 1 considered; expected gain of chosen is: 19.943 Time 2.082: Search-Modified-Np Selected Time 2.132: Search-Modified-Np Fired Time 2.139: Goal355 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.938 Time 2.139: Encode-Modified-Np Selected Time 2.189: Encode-Modified-Np Fired Time 2.190: Goal365 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.988 Time 2.190: End-Search-Modified-Np Selected Time 2.240: End-Search-Modified-Np Fired Time 2.249: Goal369 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.738 Time 2.249: Start-Check-Plural-2 Selected Time 2.299: Start-Check-Plural-2 Fired Time 2.299: Goal365 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.894 Time 2.299: Search-Plural-Feature Selected Time 2.349: Search-Plural-Feature Fired Time 2.349: Plural-Der-Schüler Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.969 Time 2.349: Search-Plural-Np Selected Time 2.399: Search-Plural-Np Fired Time 2.404: Goal365 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.777 Time 2.404: Encode-Plural-Np Selected Time 2.454: Encode-Plural-Np Fired Time 2.462: Goal371 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.883 Time 2.462: Stop-Check-Plural Selected Time 2.512: Stop-Check-Plural Fired Time 2.523: Goal370 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.963 Time 2.523: Stop-Process-Np Selected Merging chunk Goal364 into chunk Goal354 Time 2.573: Stop-Process-Np Fired Time 2.582: Goal354 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 20.115 Time 2.582: Process-Modifier-Np Selected Time 2.632: Process-Modifier-Np Fired 1 productions out of 1 considered; expected gain of chosen is: 20.002 Time 2.632: Check-Item Selected Time 2.682: Check-Item Fired Time 2.682: Module :VISION running command FIND-LOCATION 1 productions out of 1 considered; expected gain of chosen is: 19.817 Time 2.682: Attend-Item Selected Time 2.732: Attend-Item Fired Time 2.732: Goal372 Retrieved Time 2.732: Module :VISION running command MOVE-ATTENTION Time 2.817: Module :VISION running command ENCODING-COMPLETE 1 productions out of 1 considered; expected gain of chosen is: 19.970 Time 2.817: Retrieve-Item Selected Time 2.867: Retrieve-Item Fired Time 2.889: Failure Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.929 Time 2.889: Continue-Subgoal-No-Retrieval Selected Time 2.939: Continue-Subgoal-No-Retrieval Fired Time 2.939: Module :VISION running command FIND-LOCATION 1 productions out of 1 considered; expected gain of chosen is: 19.892 Time 2.939: Attend-Item Selected Time 2.989: Attend-Item Fired Time 2.989: Goal372 Retrieved Time 2.989: Module :VISION running command MOVE-ATTENTION Time 3.074: Module :VISION running command ENCODING-COMPLETE 123 1 productions out of 1 considered; expected gain of chosen is: 19.958 Time 3.074: Retrieve-Item Selected Time 3.124: Retrieve-Item Fired Time 3.124: Verwundert Retrieved 1 productions out of 1 considered; expected gain of chosen is: 20.101 Time 3.124: End-Subgoal Selected Time 3.174: End-Subgoal Fired Time 3.179: Goal372 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.853 Time 3.179: Comprehend-Sentence-StartRead-Vp Selected Time 3.229: Comprehend-Sentence-StartRead-Vp Fired 1 productions out of 1 considered; expected gain of chosen is: 19.862 Time 3.229: Start-Read-Vp Selected Time 3.279: Start-Read-Vp Fired Time 3.279: Module :VISION running command FIND-LOCATION 1 productions out of 1 considered; expected gain of chosen is: 19.807 Time 3.279: No-More-Items Selected Time 3.329: No-More-Items Fired Time 3.335: Goal378 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.856 Time 3.335: Encode-No-More-Items Selected Time 3.385: Encode-No-More-Items Fired Time 3.394: Goal377 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.788 Time 3.394: End-Comprehend Selected Time 3.444: End-Comprehend Fired Time 3.451: Goal355 Retrieved 1 productions out of 2 considered; expected gain of chosen is: 11.905 Time 3.451: Answer-Plural Selected Time 3.501: Answer-Plural Fired Time 3.522: Goal360 Retrieved 1 productions out of 1 considered; expected gain of chosen is: 19.854 Time 3.522: Answer-Plural-2 Selected sind Time 3.572: Answer-Plural-2 Fired Time 3.572: Module :MOTOR running command PRESS-KEY Time 3.822: Module :MOTOR running command PREPARATION-COMPLETE Time 3.872: Module :MOTOR running command INITIATION-COMPLETE Time 3.972: Device running command OUTPUT-KEY << Window "Agreement Experiment" got key #\p at time 3972 >> Time 4.122: Module :MOTOR running command FINISH-MOVEMENT Time 4.122: Checking for silent events. protocole 4 condition PP, :ans 0 (pas de bruit dans les activations), :act t, :dmt t (récupération, création et modification de chunks sont documentées), :gt t (changements du but actuel sont documentés) Switching to goal Goal. Time 0.000: Check-Item Selected Modifying CHUNK Goal. Creating CHUNK goal268. Switching to goal Goal268. Time 0.050: Check-Item Fired Time 0.050: Module :VISION running command FIND-LOCATION Time 0.050: Attend-Item Selected Modifying CHUNK Goal268. Sources of activation are: (Goal) Spreading activation 3.526 from source Goal level 1.000 times IA 3.526 Computing a base level of 5.191 from 1 references from creation time 0.050 CHUNK Goal268 Activation 8.717 Latency 0.000 Time 0.100: Attend-Item Fired Time 0.100: Goal268 Retrieved Time 0.100: Module :VISION running command MOVE-ATTENTION Time 0.185: Module :VISION running command ENCODING-COMPLETE Time 0.185: Retrieve-Item Selected Modifying CHUNK Goal268. Sources of activation are: (Goal) Computing a base level of 9.438 from 1000 references from creation time -10.000 CHUNK Die Activation 9.438 Latency 0.000 Time 0.235: Retrieve-Item Fired Time 0.235: Die Retrieved Time 0.235: End-Subgoal Selected Modifying CHUNK Goal268. Switching to goal Goal. Sources of activation are: nil Computing a base level of 5.110 from 2 references from creation time 0.050 CHUNK Goal268 Activation 5.110 Latency 0.006 Time 0.285: End-Subgoal Fired Time 0.291: Goal268 Retrieved Time 0.291: Comprehend-Sentence-StartProcess-Np Selected Modifying CHUNK Goal. Creating CHUNK goal270. Switching to goal Goal270. Time 0.341: Comprehend-Sentence-StartProcess-Np Fired Time 0.341: Start-Process-Np Selected Modifying CHUNK Goal270. Creating CHUNK goal271. Switching to goal Goal271. 124 Sources of activation are: (Die Goal270) Spreading activation 2.124 from source Goal270 level 0.500 times IA 4.248 Computing a base level of 5.191 from 1 references from creation time 0.341 CHUNK Goal270 Activation 7.315 Latency 0.001 Time 0.391: Start-Process-Np Fired Time 0.392: Goal270 Retrieved Time 0.392: Start-Read-Np Selected Modifying CHUNK Goal271. Creating CHUNK goal272. Switching to goal Goal272. Time 0.442: Start-Read-Np Fired Time 0.442: Module :VISION running command FIND-LOCATION Time 0.442: Attend-Item Selected Modifying CHUNK Goal272. Sources of activation are: (Goal271) Spreading activation 3.584 from source Goal271 level 1.000 times IA 3.584 Computing a base level of 5.191 from 1 references from creation time 0.442 CHUNK Goal272 Activation 8.775 Latency 0.000 Time 0.492: Attend-Item Fired Time 0.492: Goal272 Retrieved Time 0.492: Module :VISION running command MOVE-ATTENTION Time 0.577: Module :VISION running command ENCODING-COMPLETE Time 0.577: Retrieve-Item Selected Modifying CHUNK Goal272. Sources of activation are: (Goal271) Computing a base level of 9.419 from 1000 references from creation time -10.000 CHUNK Lehrerinnen Activation 9.419 Latency 0.000 Time 0.627: Retrieve-Item Fired Time 0.627: Lehrerinnen Retrieved Time 0.627: End-Subgoal Selected Modifying CHUNK Goal272. Switching to goal Goal271. Sources of activation are: (Die Goal270) Computing a base level of 5.110 from 2 references from creation time 0.442 CHUNK Goal272 Activation 5.110 Latency 0.006 Time 0.677: End-Subgoal Fired Time 0.683: Goal272 Retrieved Time 0.683: Encode-N Selected Modifying CHUNK Goal271. Sources of activation are: (Die Goal270 Lehrerinnen) Spreading activation 1.015 from source Lehrerinnen level 0.333 times IA 3.045 Spreading activation 0.919 from source Die level 0.333 times IA 2.757 Computing a base level of 9.414 from 1000 references from creation time -10.000 CHUNK Nominativ-Die-Lehrerinnen Activation 11.348 Latency 0.000 Time 0.733: Encode-N Fired Time 0.733: Nominativ-Die-Lehrerinnen Retrieved Time 0.733: Encode-Nominativ-Np Selected Modifying CHUNK Goal271. Switching to goal Goal270. Sources of activation are: (Goal) Computing a base level of 4.161 from 1 references from creation time 0.391 CHUNK Goal271 Activation 4.161 Latency 0.016 Time 0.783: Encode-Nominativ-Np Fired Time 0.799: Goal271 Retrieved Time 0.799: Start-Check-Plural-1 Selected Modifying CHUNK Goal270. Creating CHUNK goal275. Switching to goal Goal275. Sources of activation are: (Goal270) Spreading activation 3.570 from source Goal270 level 1.000 times IA 3.570 Computing a base level of 4.777 from 2 references from creation time 0.391 CHUNK Goal271 Activation 8.346 Latency 0.000 Time 0.849: Start-Check-Plural-1 Fired Time 0.849: Goal271 Retrieved Time 0.849: Search-Plural-Feature Selected Modifying CHUNK Goal275. Creating CHUNK goal276. Switching to goal Goal276. Sources of activation are: (Goal275) Computing a base level of 9.407 from 1000 references from creation time -10.000 CHUNK Plural-Die-Lehrerinnen Activation 9.407 Latency 0.000 Time 0.899: Search-Plural-Feature Fired Time 0.899: Plural-Die-Lehrerinnen Retrieved Time 0.899: Search-Plural-Np Selected Modifying CHUNK Goal276. Sources of activation are: (Goal275 Plural) Computing a base level of 5.083 from 3 references from creation time 0.391 CHUNK Goal271 Activation 5.083 Latency 0.006 Time 0.949: Search-Plural-Np Fired Time 0.955: Goal271 Retrieved Time 0.955: Encode-Plural-Np Selected Modifying CHUNK Goal276. Switching to goal Goal275. Sources of activation are: (Goal270) Computing a base level of 4.815 from 1 references from creation time 0.899 CHUNK Goal276 Activation 4.815 Latency 0.008 Time 1.005: Encode-Plural-Np Fired Time 1.013: Goal276 Retrieved Time 1.013: Stop-Check-Plural Selected Modifying CHUNK Goal275. Switching to goal Goal270. Sources of activation are: (Goal) 125 Computing a base level of 4.464 from 1 references from creation time 0.849 CHUNK Goal275 Activation 4.464 Latency 0.012 Time 1.063: Stop-Check-Plural Fired Time 1.075: Goal275 Retrieved Time 1.075: Stop-Process-Np Selected Modifying CHUNK Goal270. Switching to goal Goal. Sources of activation are: nil Computing a base level of 4.508 from 2 references from creation time 0.341 CHUNK Goal270 Activation 4.508 Latency 0.011 Time 1.125: Stop-Process-Np Fired Time 1.136: Goal270 Retrieved Time 1.136: Search-Subject-Np Selected Modifying CHUNK Goal. Sources of activation are: nil Computing a base level of 5.194 from 4 references from creation time 0.391 CHUNK Goal271 Activation 5.194 Latency 0.006 Time 1.186: Search-Subject-Np Fired Time 1.192: Goal271 Retrieved Time 1.192: Encode-Subject-Np Selected Modifying CHUNK Goal271. Modifying CHUNK Goal. Time 1.242: Encode-Subject-Np Fired Time 1.242: Check-Item Selected Modifying CHUNK Goal. Creating CHUNK goal277. Switching to goal Goal277. Time 1.292: Check-Item Fired Time 1.292: Module :VISION running command FIND-LOCATION Time 1.292: Attend-Item Selected Modifying CHUNK Goal277. Sources of activation are: (Goal) Spreading activation 2.958 from source Goal level 1.000 times IA 2.958 Computing a base level of 5.191 from 1 references from creation time 1.292 CHUNK Goal277 Activation 8.149 Latency 0.000 Time 1.342: Attend-Item Fired Time 1.342: Goal277 Retrieved Time 1.342: Module :VISION running command MOVE-ATTENTION Time 1.427: Module :VISION running command ENCODING-COMPLETE Time 1.427: Retrieve-Item Selected Modifying CHUNK Goal277. Sources of activation are: (Goal) Computing a base level of 9.381 from 1000 references from creation time -10.000 CHUNK Der Activation 9.381 Latency 0.000 Time 1.477: Retrieve-Item Fired Time 1.477: Der Retrieved Time 1.477: End-Subgoal Selected Modifying CHUNK Goal277. Switching to goal Goal. Sources of activation are: nil Computing a base level of 5.110 from 2 references from creation time 1.292 CHUNK Goal277 Activation 5.110 Latency 0.006 Time 1.527: End-Subgoal Fired Time 1.533: Goal277 Retrieved Time 1.533: Comprehend-Sentence-StartProcess-Np Selected Modifying CHUNK Goal. Creating CHUNK goal280. Switching to goal Goal280. Time 1.583: Comprehend-Sentence-StartProcess-Np Fired Time 1.583: Start-Process-Np Selected Modifying CHUNK Goal280. Creating CHUNK goal281. Switching to goal Goal281. Sources of activation are: (Der Goal280) Spreading activation 2.191 from source Goal280 level 0.500 times IA 4.382 Computing a base level of 5.191 from 1 references from creation time 1.583 CHUNK Goal280 Activation 7.382 Latency 0.001 Time 1.633: Start-Process-Np Fired Time 1.634: Goal280 Retrieved Time 1.634: Start-Read-Np Selected Modifying CHUNK Goal281. Creating CHUNK goal282. Switching to goal Goal282. Time 1.684: Start-Read-Np Fired Time 1.684: Module :VISION running command FIND-LOCATION Time 1.684: Attend-Item Selected Modifying CHUNK Goal282. Sources of activation are: (Goal281) Spreading activation 3.714 from source Goal281 level 1.000 times IA 3.714 Computing a base level of 5.191 from 1 references from creation time 1.684 CHUNK Goal282 Activation 8.905 Latency 0.000 Time 1.734: Attend-Item Fired Time 1.734: Goal282 Retrieved Time 1.734: Module :VISION running command MOVE-ATTENTION Time 1.819: Module :VISION running command ENCODING-COMPLETE Time 1.819: Retrieve-Item Selected Modifying CHUNK Goal282. Sources of activation are: (Goal281) Computing a base level of 9.364 from 1000 references from creation time -10.000 CHUNK Schüler Activation 9.364 Latency 0.000 Time 1.869: Retrieve-Item Fired Time 1.869: Schüler Retrieved Time 1.869: End-Subgoal Selected Modifying CHUNK Goal282. Switching to goal Goal281. 126 Sources of activation are: (Der Goal280) Computing a base level of 5.110 from 2 references from creation time 1.684 CHUNK Goal282 Activation 5.110 Latency 0.006 Time 1.919: End-Subgoal Fired Time 1.925: Goal282 Retrieved Time 1.925: Encode-N Selected Modifying CHUNK Goal281. Sources of activation are: (Der Goal280 Schüler) Spreading activation 1.015 from source Schüler level 0.333 times IA 3.045 Spreading activation 1.015 from source Der level 0.333 times IA 3.045 Computing a base level of 9.359 from 1000 references from creation time -10.000 CHUNK Genitiv-Der-Schüler Activation 11.389 Latency 0.000 Time 1.975: Encode-N Fired Time 1.975: Genitiv-Der-Schüler Retrieved Time 1.975: Encode-Genitiv-Np Selected Modifying CHUNK Goal281. Switching to goal Goal280. Sources of activation are: (Goal) Computing a base level of 4.161 from 1 references from creation time 1.633 CHUNK Goal281 Activation 4.161 Latency 0.016 Time 2.025: Encode-Genitiv-Np Fired Time 2.041: Goal281 Retrieved Time 2.041: Start-Search-Modified-Np Selected Modifying CHUNK Goal280. Creating CHUNK goal285. Switching to goal Goal285. Time 2.091: Start-Search-Modified-Np Fired Time 2.091: Search-Modified-Np Selected Modifying CHUNK Goal285. Sources of activation are: (Goal281 Goal280) Computing a base level of 5.023 from 5 references from creation time 0.391 CHUNK Goal271 Activation 5.023 Latency 0.007 Time 2.141: Search-Modified-Np Fired Time 2.148: Goal271 Retrieved Time 2.148: Encode-Modified-Np Selected Modifying CHUNK Goal285. Sources of activation are: (Goal281 Goal280 Goal271) Spreading activation 1.234 from source Goal280 level 0.333 times IA 3.701 Spreading activation 1.465 from source Goal281 level 0.333 times IA 4.394 Computing a base level of 4.672 from 2 references from creation time 1.633 CHUNK Goal281 Activation 7.370 Latency 0.001 Time 2.198: Encode-Modified-Np Fired Time 2.199: Goal281 Retrieved Time 2.199: End-Search-Modified-Np Selected Modifying CHUNK Goal285. Modifying CHUNK Goal281. Switching to goal Goal280. Sources of activation are: (Goal) Computing a base level of 4.616 from 1 references from creation time 2.091 CHUNK Goal285 Activation 4.616 Latency 0.010 Time 2.249: End-Search-Modified-Np Fired Time 2.259: Goal285 Retrieved Time 2.259: Start-Check-Plural-2 Selected Modifying CHUNK Goal280. Creating CHUNK goal286. Switching to goal Goal286. Sources of activation are: (Goal280) Spreading activation 3.701 from source Goal280 level 1.000 times IA 3.701 Computing a base level of 4.988 from 3 references from creation time 1.633 CHUNK Goal281 Activation 8.689 Latency 0.000 Time 2.309: Start-Check-Plural-2 Fired Time 2.309: Goal281 Retrieved Time 2.309: Search-Plural-Feature Selected Modifying CHUNK Goal286. Creating CHUNK goal287. Switching to goal Goal287. Sources of activation are: (Goal286) Computing a base level of 9.344 from 1000 references from creation time -10.000 CHUNK Plural-Der-Schüler Activation 9.344 Latency 0.000 Time 2.359: Search-Plural-Feature Fired Time 2.359: Plural-Der-Schüler Retrieved Time 2.359: Search-Plural-Np Selected Modifying CHUNK Goal287. Sources of activation are: (Goal286 Plural) Computing a base level of 5.134 from 6 references from creation time 0.391 Computing a base level of 5.206 from 4 references from creation time 1.633 CHUNK Goal281 Activation 5.206 Latency 0.005 Time 2.409: Search-Plural-Np Fired Time 2.414: Goal281 Retrieved Time 2.414: Encode-Plural-Np Selected Modifying CHUNK Goal287. Switching to goal Goal286. Sources of activation are: (Goal280) Computing a base level of 4.820 from 1 references from creation time 2.359 CHUNK Goal287 Activation 4.820 Latency 0.008 Time 2.464: Encode-Plural-Np Fired Time 2.472: Goal287 Retrieved Time 2.472: Stop-Check-Plural Selected Modifying CHUNK Goal286. Switching to goal Goal280. Sources of activation are: (Goal) Computing a base level of 4.466 from 1 references from creation time 2.309 127 CHUNK Goal286 Activation 4.466 Latency 0.011 Time 2.522: Stop-Check-Plural Fired Time 2.533: Goal286 Retrieved Time 2.533: Stop-Process-Np Selected Modifying CHUNK Goal280. Merging chunk Goal280 into chunk Goal270 Switching to goal Goal. Sources of activation are: nil Computing a base level of 4.676 from 4 references from creation time 0.341 CHUNK Goal270 Activation 4.676 Latency 0.009 Time 2.583: Stop-Process-Np Fired Time 2.592: Goal270 Retrieved Time 2.592: Process-Modifier-Np Selected Modifying CHUNK Goal. Time 2.642: Process-Modifier-Np Fired Time 2.642: Check-Item Selected Modifying CHUNK Goal. Creating CHUNK goal288. Switching to goal Goal288. Time 2.692: Check-Item Fired Time 2.692: Module :VISION running command FIND-LOCATION Time 2.692: Attend-Item Selected Modifying CHUNK Goal288. Sources of activation are: (Goal) Spreading activation 2.856 from source Goal level 1.000 times IA 2.856 Computing a base level of 5.191 from 1 references from creation time 2.692 CHUNK Goal288 Activation 8.047 Latency 0.000 Time 2.742: Attend-Item Fired Time 2.742: Goal288 Retrieved Time 2.742: Module :VISION running command MOVE-ATTENTION Time 2.827: Module :VISION running command ENCODING-COMPLETE Time 2.827: Retrieve-Item Selected Modifying CHUNK Goal288. Sources of activation are: (Goal) CHUNK failure Activation 3.820 Latency 0.022 Time 2.877: Retrieve-Item Fired Time 2.899: Failure Retrieved Time 2.899: Continue-Subgoal-No-Retrieval Selected Modifying CHUNK Goal288. Time 2.949: Continue-Subgoal-No-Retrieval Fired Time 2.949: Module :VISION running command FIND-LOCATION Time 2.949: Attend-Item Selected Modifying CHUNK Goal288. Sources of activation are: (Goal) Spreading activation 2.856 from source Goal level 1.000 times IA 2.856 Computing a base level of 4.977 from 2 references from creation time 2.692 CHUNK Goal288 Activation 7.833 Latency 0.000 Time 2.999: Attend-Item Fired Time 2.999: Goal288 Retrieved Time 2.999: Module :VISION running command MOVE-ATTENTION Time 3.084: Module :VISION running command ENCODING-COMPLETE Time 3.084: Retrieve-Item Selected Modifying CHUNK Goal288. Sources of activation are: (Goal) Computing a base level of 9.313 from 1000 references from creation time -10.000 CHUNK Verwundert Activation 9.313 Latency 0.000 Time 3.134: Retrieve-Item Fired Time 3.134: Verwundert Retrieved Time 3.134: End-Subgoal Selected Modifying CHUNK Goal288. Switching to goal Goal. Sources of activation are: nil Computing a base level of 5.146 from 3 references from creation time 2.692 CHUNK Goal288 Activation 5.146 Latency 0.006 Time 3.184: End-Subgoal Fired Time 3.190: Goal288 Retrieved Time 3.190: Comprehend-Sentence-StartRead-Vp Selected Modifying CHUNK Goal. Creating CHUNK goal293. Switching to goal Goal293. Time 3.240: Comprehend-Sentence-StartRead-Vp Fired Time 3.240: Start-Read-Vp Selected Modifying CHUNK Goal293. Creating CHUNK goal294. Switching to goal Goal294. Time 3.290: Start-Read-Vp Fired Time 3.290: Module :VISION running command FIND-LOCATION Time 3.290: No-More-Items Selected Modifying CHUNK Goal294. Switching to goal Goal293. Sources of activation are: (Goal Verwundert) Computing a base level of 5.191 from 1 references from creation time 3.290 CHUNK Goal294 Activation 5.191 Latency 0.006 Time 3.340: No-More-Items Fired Time 3.346: Goal294 Retrieved Time 3.346: Encode-No-More-Items Selected Modifying CHUNK Goal293. Switching to goal Goal. Sources of activation are: nil Computing a base level of 4.622 from 1 references from creation time 3.240 CHUNK Goal293 Activation 4.622 Latency 0.010 Time 3.396: Encode-No-More-Items Fired Time 3.406: Goal293 Retrieved 128 Time 3.406: End-Comprehend Selected Modifying CHUNK Goal293. Modifying CHUNK Goal. Sources of activation are: nil Computing a base level of 4.925 from 6 references from creation time 0.391 CHUNK Goal271 Activation 4.925 Latency 0.007 Time 3.456: End-Comprehend Fired Time 3.463: Goal271 Retrieved Time 3.463: Answer-Plural Selected Sources of activation are: nil Computing a base level of 3.906 from 2 references from creation time 0.899 CHUNK Goal276 Activation 3.906 Latency 0.020 Time 3.513: Answer-Plural Fired Time 3.533: Goal276 Retrieved Time 3.533: Answer-Plural-2 Selected Modifying CHUNK Goal. sind Time 3.583: Answer-Plural-2 Fired Time 3.583: Module :MOTOR running command PRESS-KEY Time 3.833: Module :MOTOR running command PREPARATION-COMPLETE Time 3.883: Module :MOTOR running command INITIATION-COMPLETE Time 3.983: Device running command OUTPUT-KEY << Window "Agreement Experiment" got key #\p at time 3983 >> Time 4.133: Module :MOTOR running command FINISH-MOVEMENT Time 4.133: Checking for silent events. Time 4.133: * Nothing to run: No productions, no events. protocole 5 condition PP (avec erreur d’accord), :act t, :dmt t (récupération, création et modification de chunks sont documentées), :gt t (changements du but actuel sont documentés) Switching to goal Goal. Time 0.000: Check-Item Selected Modifying CHUNK Goal. Creating CHUNK goal2788. Switching to goal Goal2788. Time 0.050: Check-Item Fired Time 0.050: Module :VISION running command FIND-LOCATION Time 0.050: Attend-Item Selected Modifying CHUNK Goal2788. Sources of activation are: (Goal) Spreading activation 3.526 from source Goal level 1.000 times IA 3.526 Computing a base level of 5.191 from 1 references from creation time 0.050 Adding noise -0.059 CHUNK Goal2788 Activation 8.658 Latency 0.000 Time 0.100: Attend-Item Fired Time 0.100: Goal2788 Retrieved Time 0.100: Module :VISION running command MOVE-ATTENTION Time 0.185: Module :VISION running command ENCODING-COMPLETE Time 0.185: Retrieve-Item Selected Modifying CHUNK Goal2788. Sources of activation are: (Goal) Computing a base level of 9.438 from 1000 references from creation time -10.000 Adding noise -0.001 CHUNK Die Activation 9.437 Latency 0.000 Time 0.235: Retrieve-Item Fired Time 0.235: Die Retrieved Time 0.235: End-Subgoal Selected Modifying CHUNK Goal2788. Switching to goal Goal. Sources of activation are: nil Computing a base level of 5.110 from 2 references from creation time 0.050 Adding noise -0.026 CHUNK Goal2788 Activation 5.084 Latency 0.006 Time 0.285: End-Subgoal Fired Time 0.291: Goal2788 Retrieved Time 0.291: Comprehend-Sentence-StartProcess-Np Selected Modifying CHUNK Goal. Creating CHUNK goal2790. Switching to goal Goal2790. Time 0.341: Comprehend-Sentence-StartProcess-Np Fired Time 0.341: Start-Process-Np Selected Modifying CHUNK Goal2790. Creating CHUNK goal2791. Switching to goal Goal2791. Sources of activation are: (Die Goal2790) Spreading activation 2.124 from source Goal2790 level 0.500 times IA 4.248 Computing a base level of 5.191 from 1 references from creation time 0.341 Adding noise 0.003 CHUNK Goal2790 Activation 7.318 Latency 0.001 Time 0.391: Start-Process-Np Fired Time 0.392: Goal2790 Retrieved Time 0.392: Start-Read-Np Selected Modifying CHUNK Goal2791. Creating CHUNK goal2792. Switching to goal Goal2792. Time 0.442: Start-Read-Np Fired Time 0.442: Module :VISION running command FIND-LOCATION Time 0.442: Attend-Item Selected Modifying CHUNK Goal2792. Sources of activation are: (Goal2791) Spreading activation 3.584 from source Goal2791 level 1.000 times IA 3.584 129 Computing a base level of 5.191 from 1 references from creation time 0.442 Adding noise -0.051 CHUNK Goal2792 Activation 8.723 Latency 0.000 Time 0.492: Attend-Item Fired Time 0.492: Goal2792 Retrieved Time 0.492: Module :VISION running command MOVE-ATTENTION Time 0.577: Module :VISION running command ENCODING-COMPLETE Time 0.577: Retrieve-Item Selected Modifying CHUNK Goal2792. Sources of activation are: (Goal2791) Computing a base level of 9.419 from 1000 references from creation time -10.000 Adding noise -0.005 CHUNK Lehrerinnen Activation 9.414 Latency 0.000 Time 0.627: Retrieve-Item Fired Time 0.627: Lehrerinnen Retrieved Time 0.627: End-Subgoal Selected Modifying CHUNK Goal2792. Switching to goal Goal2791. Sources of activation are: (Die Goal2790) Computing a base level of 5.110 from 2 references from creation time 0.442 Adding noise -0.016 CHUNK Goal2792 Activation 5.094 Latency 0.006 Time 0.677: End-Subgoal Fired Time 0.683: Goal2792 Retrieved Time 0.683: Encode-N Selected Modifying CHUNK Goal2791. Sources of activation are: (Die Goal2790 Lehrerinnen) Spreading activation 1.015 from source Lehrerinnen level 0.333 times IA 3.045 Spreading activation 0.919 from source Die level 0.333 times IA 2.757 Computing a base level of 9.414 from 1000 references from creation time -10.000 Adding noise 0.079 CHUNK Nominativ-Die-Lehrerinnen Activation 11.428 Latency 0.000 Time 0.733: Encode-N Fired Time 0.733: Nominativ-Die-Lehrerinnen Retrieved Time 0.733: Encode-Nominativ-Np Selected Modifying CHUNK Goal2791. Switching to goal Goal2790. Sources of activation are: (Goal) Computing a base level of 4.161 from 1 references from creation time 0.391 Adding noise 0.048 CHUNK Goal2791 Activation 4.210 Latency 0.015 Time 0.783: Encode-Nominativ-Np Fired Time 0.798: Goal2791 Retrieved Time 0.798: Start-Check-Plural-1 Selected Modifying CHUNK Goal2790. Creating CHUNK goal2795. Switching to goal Goal2795. Sources of activation are: (Goal2790) Spreading activation 3.570 from source Goal2790 level 1.000 times IA 3.570 Computing a base level of 4.778 from 2 references from creation time 0.391 Adding noise 0.118 CHUNK Goal2791 Activation 8.466 Latency 0.000 Time 0.848: Start-Check-Plural-1 Fired Time 0.848: Goal2791 Retrieved Time 0.848: Search-Plural-Feature Selected Modifying CHUNK Goal2795. Creating CHUNK goal2796. Switching to goal Goal2796. Sources of activation are: (Goal2795) Computing a base level of 9.407 from 1000 references from creation time -10.000 Adding noise -0.168 CHUNK Plural-Die-Lehrerinnen Activation 9.239 Latency 0.000 Time 0.898: Search-Plural-Feature Fired Time 0.898: Plural-Die-Lehrerinnen Retrieved Time 0.898: Search-Plural-Np Selected Modifying CHUNK Goal2796. Sources of activation are: (Goal2795 Plural) Computing a base level of 5.084 from 3 references from creation time 0.391 Adding noise 0.008 CHUNK Goal2791 Activation 5.092 Latency 0.006 Time 0.948: Search-Plural-Np Fired Time 0.954: Goal2791 Retrieved Time 0.954: Encode-Plural-Np Selected Modifying CHUNK Goal2796. Switching to goal Goal2795. Sources of activation are: (Goal2790) Computing a base level of 4.815 from 1 references from creation time 0.898 Adding noise -0.244 CHUNK Goal2796 Activation 4.572 Latency 0.010 Time 1.004: Encode-Plural-Np Fired Time 1.014: Goal2796 Retrieved Time 1.014: Stop-Check-Plural Selected Modifying CHUNK Goal2795. Switching to goal Goal2790. Sources of activation are: (Goal) Computing a base level of 4.459 from 1 references from creation time 0.848 Adding noise 0.045 CHUNK Goal2795 Activation 4.504 Latency 0.011 Time 1.064: Stop-Check-Plural Fired Time 1.075: Goal2795 Retrieved Time 1.075: Stop-Process-Np Selected Modifying CHUNK Goal2790. Switching to goal Goal. Sources of activation are: nil Computing a base level of 4.508 from 2 references from creation time 0.341 130 Adding noise 0.015 CHUNK Goal2790 Activation 4.523 Latency 0.011 Time 1.125: Stop-Process-Np Fired Time 1.136: Goal2790 Retrieved Time 1.136: Search-Subject-Np Selected Modifying CHUNK Goal. Sources of activation are: nil Computing a base level of 5.194 from 4 references from creation time 0.391 Adding noise 0.044 CHUNK Goal2791 Activation 5.238 Latency 0.005 Time 1.186: Search-Subject-Np Fired Time 1.191: Goal2791 Retrieved Time 1.191: Encode-Subject-Np Selected Modifying CHUNK Goal2791. Modifying CHUNK Goal. Time 1.241: Encode-Subject-Np Fired Time 1.241: Check-Item Selected Modifying CHUNK Goal. Creating CHUNK goal2797. Switching to goal Goal2797. Time 1.291: Check-Item Fired Time 1.291: Module :VISION running command FIND-LOCATION Time 1.291: Attend-Item Selected Modifying CHUNK Goal2797. Sources of activation are: (Goal) Spreading activation 2.958 from source Goal level 1.000 times IA 2.958 Computing a base level of 5.191 from 1 references from creation time 1.291 Adding noise 0.122 CHUNK Goal2797 Activation 8.271 Latency 0.000 Time 1.341: Attend-Item Fired Time 1.341: Goal2797 Retrieved Time 1.341: Module :VISION running command MOVE-ATTENTION Time 1.426: Module :VISION running command ENCODING-COMPLETE Time 1.426: Retrieve-Item Selected Modifying CHUNK Goal2797. Sources of activation are: (Goal) Computing a base level of 9.381 from 1000 references from creation time -10.000 Adding noise -0.061 CHUNK Der Activation 9.320 Latency 0.000 Time 1.476: Retrieve-Item Fired Time 1.476: Der Retrieved Time 1.476: End-Subgoal Selected Modifying CHUNK Goal2797. Switching to goal Goal. Sources of activation are: nil Computing a base level of 5.110 from 2 references from creation time 1.291 Adding noise 0.112 CHUNK Goal2797 Activation 5.222 Latency 0.005 Time 1.526: End-Subgoal Fired Time 1.531: Goal2797 Retrieved Time 1.531: Comprehend-Sentence-StartProcess-Np Selected Modifying CHUNK Goal. Creating CHUNK goal2800. Switching to goal Goal2800. Time 1.581: Comprehend-Sentence-StartProcess-Np Fired Time 1.581: Start-Process-Np Selected Modifying CHUNK Goal2800. Creating CHUNK goal2801. Switching to goal Goal2801. Sources of activation are: (Der Goal2800) Spreading activation 2.191 from source Goal2800 level 0.500 times IA 4.382 Computing a base level of 5.191 from 1 references from creation time 1.581 Adding noise -0.132 CHUNK Goal2800 Activation 7.250 Latency 0.001 Time 1.631: Start-Process-Np Fired Time 1.632: Goal2800 Retrieved Time 1.632: Start-Read-Np Selected Modifying CHUNK Goal2801. Creating CHUNK goal2802. Switching to goal Goal2802. Time 1.682: Start-Read-Np Fired Time 1.682: Module :VISION running command FIND-LOCATION Time 1.682: Attend-Item Selected Modifying CHUNK Goal2802. Sources of activation are: (Goal2801) Spreading activation 3.714 from source Goal2801 level 1.000 times IA 3.714 Computing a base level of 5.191 from 1 references from creation time 1.682 Adding noise 0.036 CHUNK Goal2802 Activation 8.941 Latency 0.000 Time 1.732: Attend-Item Fired Time 1.732: Goal2802 Retrieved Time 1.732: Module :VISION running command MOVE-ATTENTION Time 1.817: Module :VISION running command ENCODING-COMPLETE Time 1.817: Retrieve-Item Selected Modifying CHUNK Goal2802. Sources of activation are: (Goal2801) Computing a base level of 9.364 from 1000 references from creation time -10.000 Adding noise 0.081 CHUNK Schüler Activation 9.445 Latency 0.000 Time 1.867: Retrieve-Item Fired Time 1.867: Schüler Retrieved Time 1.867: End-Subgoal Selected Modifying CHUNK Goal2802. Switching to goal Goal2801. Sources of activation are: (Der Goal2800) Computing a base level of 5.110 from 2 references from creation time 1.682 Adding noise -0.001 131 CHUNK Goal2802 Activation 5.109 Latency 0.006 Time 1.917: End-Subgoal Fired Time 1.923: Goal2802 Retrieved Time 1.923: Encode-N Selected Modifying CHUNK Goal2801. Sources of activation are: (Der Goal2800 Schüler) Spreading activation 1.015 from source Schüler level 0.333 times IA 3.045 Spreading activation 1.015 from source Der level 0.333 times IA 3.045 Computing a base level of 9.360 from 1000 references from creation time -10.000 Adding noise -0.083 CHUNK Genitiv-Der-Schüler Activation 11.306 Latency 0.000 Time 1.973: Encode-N Fired Time 1.973: Genitiv-Der-Schüler Retrieved Time 1.973: Encode-Genitiv-Np Selected Modifying CHUNK Goal2801. Switching to goal Goal2800. Sources of activation are: (Goal) Computing a base level of 4.161 from 1 references from creation time 1.631 Adding noise -0.070 CHUNK Goal2801 Activation 4.092 Latency 0.017 Time 2.023: Encode-Genitiv-Np Fired Time 2.040: Goal2801 Retrieved Time 2.040: Start-Search-Modified-Np Selected Modifying CHUNK Goal2800. Creating CHUNK goal2805. Switching to goal Goal2805. Time 2.090: Start-Search-Modified-Np Fired Time 2.090: Search-Modified-Np Selected Modifying CHUNK Goal2805. Sources of activation are: (Goal2801 Goal2800) Computing a base level of 5.023 from 5 references from creation time 0.391 Adding noise 0.075 CHUNK Goal2791 Activation 5.098 Latency 0.006 Time 2.140: Search-Modified-Np Fired Time 2.146: Goal2791 Retrieved Time 2.146: Encode-Modified-Np Selected Modifying CHUNK Goal2805. Sources of activation are: (Goal2801 Goal2800 Goal2791) Spreading activation 1.234 from source Goal2800 level 0.333 times IA 3.701 Spreading activation 1.465 from source Goal2801 level 0.333 times IA 4.394 Computing a base level of 4.672 from 2 references from creation time 1.631 Adding noise 0.001 CHUNK Goal2801 Activation 7.371 Latency 0.001 Time 2.196: Encode-Modified-Np Fired Time 2.197: Goal2801 Retrieved Time 2.197: End-Search-Modified-Np Selected Modifying CHUNK Goal2805. Modifying CHUNK Goal2801. Switching to goal Goal2800. Sources of activation are: (Goal) Computing a base level of 4.619 from 1 references from creation time 2.090 Adding noise 0.138 CHUNK Goal2805 Activation 4.757 Latency 0.009 Time 2.247: End-Search-Modified-Np Fired Time 2.256: Goal2805 Retrieved Time 2.256: Start-Check-Plural-2 Selected Modifying CHUNK Goal2800. Creating CHUNK goal2806. Switching to goal Goal2806. Sources of activation are: (Goal2800) Spreading activation 3.701 from source Goal2800 level 1.000 times IA 3.701 Computing a base level of 4.988 from 3 references from creation time 1.631 Adding noise -0.105 CHUNK Goal2801 Activation 8.585 Latency 0.000 Time 2.306: Start-Check-Plural-2 Fired Time 2.306: Goal2801 Retrieved Time 2.306: Search-Plural-Feature Selected Modifying CHUNK Goal2806. Creating CHUNK goal2807. Switching to goal Goal2807. Sources of activation are: (Goal2806) Computing a base level of 9.344 from 1000 references from creation time -10.000 Adding noise 0.060 CHUNK Plural-Der-Schüler Activation 9.404 Latency 0.000 Time 2.356: Search-Plural-Feature Fired Time 2.356: Plural-Der-Schüler Retrieved Time 2.356: Search-Plural-Np Selected Modifying CHUNK Goal2807. Sources of activation are: (Goal2806 Plural) Computing a base level of 5.135 from 6 references from creation time 0.391 Adding noise 0.035 Computing a base level of 5.207 from 4 references from creation time 1.631 Adding noise 0.117 CHUNK Goal2801 Activation 5.324 Latency 0.005 Time 2.406: Search-Plural-Np Fired Time 2.411: Goal2801 Retrieved Time 2.411: Encode-Plural-Np Selected Modifying CHUNK Goal2807. Switching to goal Goal2806. Sources of activation are: (Goal2800) Computing a base level of 4.820 from 1 references from creation time 2.356 Adding noise -0.014 CHUNK Goal2807 Activation 4.806 Latency 0.008 Time 2.461: Encode-Plural-Np Fired 132 Time 2.469: Goal2807 Retrieved Time 2.469: Stop-Check-Plural Selected Modifying CHUNK Goal2806. Switching to goal Goal2800. Sources of activation are: (Goal) Computing a base level of 4.466 from 1 references from creation time 2.306 Adding noise 0.026 CHUNK Goal2806 Activation 4.492 Latency 0.011 Time 2.519: Stop-Check-Plural Fired Time 2.530: Goal2806 Retrieved Time 2.530: Stop-Process-Np Selected Modifying CHUNK Goal2800. Merging chunk Goal2800 into chunk Goal2790 Switching to goal Goal. Sources of activation are: nil Computing a base level of 4.676 from 4 references from creation time 0.341 Adding noise -0.024 CHUNK Goal2790 Activation 4.652 Latency 0.010 Time 2.580: Stop-Process-Np Fired Time 2.590: Goal2790 Retrieved Time 2.590: Process-Modifier-Np Selected Modifying CHUNK Goal. Time 2.640: Process-Modifier-Np Fired Time 2.640: Check-Item Selected Modifying CHUNK Goal. Creating CHUNK goal2808. Switching to goal Goal2808. Time 2.690: Check-Item Fired Time 2.690: Module :VISION running command FIND-LOCATION Time 2.690: Attend-Item Selected Modifying CHUNK Goal2808. Sources of activation are: (Goal) Spreading activation 2.856 from source Goal level 1.000 times IA 2.856 Computing a base level of 5.191 from 1 references from creation time 2.690 Adding noise -0.023 CHUNK Goal2808 Activation 8.025 Latency 0.000 Time 2.740: Attend-Item Fired Time 2.740: Goal2808 Retrieved Time 2.740: Module :VISION running command MOVE-ATTENTION Time 2.825: Module :VISION running command ENCODING-COMPLETE Time 2.825: Retrieve-Item Selected Modifying CHUNK Goal2808. Sources of activation are: (Goal) CHUNK failure Activation 3.820 Latency 0.022 Time 2.875: Retrieve-Item Fired Time 2.897: Failure Retrieved Time 2.897: Continue-Subgoal-No-Retrieval Selected Modifying CHUNK Goal2808. Time 2.947: Continue-Subgoal-No-Retrieval Fired Time 2.947: Module :VISION running command FIND-LOCATION Time 2.947: Attend-Item Selected Modifying CHUNK Goal2808. Sources of activation are: (Goal) Spreading activation 2.856 from source Goal level 1.000 times IA 2.856 Computing a base level of 4.977 from 2 references from creation time 2.690 Adding noise 0.057 CHUNK Goal2808 Activation 7.890 Latency 0.000 Time 2.997: Attend-Item Fired Time 2.997: Goal2808 Retrieved Time 2.997: Module :VISION running command MOVE-ATTENTION Time 3.082: Module :VISION running command ENCODING-COMPLETE Time 3.082: Retrieve-Item Selected Modifying CHUNK Goal2808. Sources of activation are: (Goal) Computing a base level of 9.313 from 1000 references from creation time -10.000 Adding noise -0.005 CHUNK Verwundert Activation 9.308 Latency 0.000 Time 3.132: Retrieve-Item Fired Time 3.132: Verwundert Retrieved Time 3.132: End-Subgoal Selected Modifying CHUNK Goal2808. Switching to goal Goal. Sources of activation are: nil Computing a base level of 5.146 from 3 references from creation time 2.690 Adding noise -0.017 CHUNK Goal2808 Activation 5.130 Latency 0.006 Time 3.182: End-Subgoal Fired Time 3.188: Goal2808 Retrieved Time 3.188: Comprehend-Sentence-StartRead-Vp Selected Modifying CHUNK Goal. Creating CHUNK goal2813. Switching to goal Goal2813. Time 3.238: Comprehend-Sentence-StartRead-Vp Fired Time 3.238: Start-Read-Vp Selected Modifying CHUNK Goal2813. Creating CHUNK goal2814. Switching to goal Goal2814. Time 3.288: Start-Read-Vp Fired Time 3.288: Module :VISION running command FIND-LOCATION Time 3.288: No-More-Items Selected Modifying CHUNK Goal2814. Switching to goal Goal2813. Sources of activation are: (Goal Verwundert) Computing a base level of 5.191 from 1 references from creation time 3.288 Adding noise 0.039 133 CHUNK Goal2814 Activation 5.230 Latency 0.005 Time 3.338: No-More-Items Fired Time 3.343: Goal2814 Retrieved Time 3.343: Encode-No-More-Items Selected Modifying CHUNK Goal2813. Switching to goal Goal. Sources of activation are: nil Computing a base level of 4.625 from 1 references from creation time 3.238 Adding noise -0.034 CHUNK Goal2813 Activation 4.591 Latency 0.010 Time 3.393: Encode-No-More-Items Fired Time 3.403: Goal2813 Retrieved Time 3.403: End-Comprehend Selected Modifying CHUNK Goal2813. Modifying CHUNK Goal. Sources of activation are: nil Computing a base level of 4.925 from 6 references from creation time 0.391 Adding noise -0.064 CHUNK Goal2791 Activation 4.861 Latency 0.008 Time 3.453: End-Comprehend Fired Time 3.461: Goal2791 Retrieved Time 3.461: Answer-Plural Selected Sources of activation are: nil Computing a base level of 3.906 from 2 references from creation time 0.898 Adding noise -0.160 CHUNK failure Activation 3.820 Latency 0.022 Time 3.511: Answer-Plural Fired Time 3.533: Failure Retrieved Time 3.533: Answer-Singular-2 Selected Modifying CHUNK Goal. ist Time 3.583: Answer-Singular-2 Fired Time 3.583: Module :MOTOR running command PRESS-KEY Time 3.733: Module :MOTOR running command PREPARATION-COMPLETE Time 3.783: Module :MOTOR running command INITIATION-COMPLETE Time 3.793: Device running command OUTPUT-KEY << Window "Agreement Experiment" got key #\s at time 3793 >> Time 3.883: Module :MOTOR running command FINISH-MOVEMENT Time 3.883: Checking for silent events. Time 3.883: * Nothing to run: No productions, no events. protocole 6 Condition SP (avec erreur d’accord), :act t, :dmt t (récupération, création et modifi- cation de chunks sont documentées), :gt t (changements du but actuel sont documentés) Switching to goal Goal. Time 0.000: Check-Item Selected Modifying CHUNK Goal. Creating CHUNK goal7618. Switching to goal Goal7618. Time 0.050: Check-Item Fired Time 0.050: Module :VISION running command FIND-LOCATION Time 0.050: Attend-Item Selected Modifying CHUNK Goal7618. Sources of activation are: (Goal) Spreading activation 3.526 from source Goal level 1.000 times IA 3.526 Computing a base level of 5.191 from 1 references from creation time 0.050 Adding noise -0.088 CHUNK Goal7618 Activation 8.629 Latency 0.000 Time 0.100: Attend-Item Fired Time 0.100: Goal7618 Retrieved Time 0.100: Module :VISION running command MOVE-ATTENTION Time 0.185: Module :VISION running command ENCODING-COMPLETE Time 0.185: Retrieve-Item Selected Modifying CHUNK Goal7618. Sources of activation are: (Goal) Computing a base level of 9.438 from 1000 references from creation time -10.000 Adding noise 0.055 CHUNK Die Activation 9.493 Latency 0.000 Time 0.235: Retrieve-Item Fired Time 0.235: Die Retrieved Time 0.235: End-Subgoal Selected Modifying CHUNK Goal7618. Switching to goal Goal. Sources of activation are: nil Computing a base level of 5.110 from 2 references from creation time 0.050 Adding noise -0.136 CHUNK Goal7618 Activation 4.975 Latency 0.007 Time 0.285: End-Subgoal Fired Time 0.292: Goal7618 Retrieved Time 0.292: Comprehend-Sentence-StartProcess-Np Selected Modifying CHUNK Goal. Creating CHUNK goal7620. Switching to goal Goal7620. Time 0.342: Comprehend-Sentence-StartProcess-Np Fired Time 0.342: Start-Process-Np Selected Modifying CHUNK Goal7620. Creating CHUNK goal7621. Switching to goal Goal7621. Sources of activation are: (Die Goal7620) Spreading activation 2.124 from source Goal7620 level 0.500 times IA 4.248 134 Computing a base level of 5.191 from 1 references from creation time 0.342 Adding noise 0.047 CHUNK Goal7620 Activation 7.362 Latency 0.001 Time 0.392: Start-Process-Np Fired Time 0.393: Goal7620 Retrieved Time 0.393: Start-Read-Np Selected Modifying CHUNK Goal7621. Creating CHUNK goal7622. Switching to goal Goal7622. Time 0.443: Start-Read-Np Fired Time 0.443: Module :VISION running command FIND-LOCATION Time 0.443: Attend-Item Selected Modifying CHUNK Goal7622. Sources of activation are: (Goal7621) Spreading activation 3.584 from source Goal7621 level 1.000 times IA 3.584 Computing a base level of 5.191 from 1 references from creation time 0.443 Adding noise 0.007 CHUNK Goal7622 Activation 8.781 Latency 0.000 Time 0.493: Attend-Item Fired Time 0.493: Goal7622 Retrieved Time 0.493: Module :VISION running command MOVE-ATTENTION Time 0.578: Module :VISION running command ENCODING-COMPLETE Time 0.578: Retrieve-Item Selected Modifying CHUNK Goal7622. Sources of activation are: (Goal7621) Computing a base level of 9.419 from 1000 references from creation time -10.000 Adding noise -0.025 CHUNK Lehrerin Activation 9.394 Latency 0.000 Time 0.628: Retrieve-Item Fired Time 0.628: Lehrerin Retrieved Time 0.628: End-Subgoal Selected Modifying CHUNK Goal7622. Switching to goal Goal7621. Sources of activation are: (Die Goal7620) Computing a base level of 5.110 from 2 references from creation time 0.443 Adding noise 0.029 CHUNK Goal7622 Activation 5.139 Latency 0.006 Time 0.678: End-Subgoal Fired Time 0.684: Goal7622 Retrieved Time 0.684: Encode-N Selected Modifying CHUNK Goal7621. Sources of activation are: (Die Goal7620 Lehrerin) Spreading activation 1.150 from source Lehrerin level 0.333 times IA 3.450 Spreading activation 0.919 from source Die level 0.333 times IA 2.757 Computing a base level of 9.414 from 1000 references from creation time -10.000 Adding noise 0.010 CHUNK Nominativ-Die-Lehrerin Activation 11.493 Latency 0.000 Time 0.734: Encode-N Fired Time 0.734: Nominativ-Die-Lehrerin Retrieved Time 0.734: Encode-Nominativ-Np Selected Modifying CHUNK Goal7621. Switching to goal Goal7620. Sources of activation are: (Goal) Computing a base level of 4.161 from 1 references from creation time 0.392 Adding noise -0.003 CHUNK Goal7621 Activation 4.158 Latency 0.016 Time 0.784: Encode-Nominativ-Np Fired Time 0.800: Goal7621 Retrieved Time 0.800: Start-Check-Plural-1 Selected Modifying CHUNK Goal7620. Creating CHUNK goal7625. Switching to goal Goal7625. Sources of activation are: (Goal7620) Spreading activation 3.570 from source Goal7620 level 1.000 times IA 3.570 Computing a base level of 4.777 from 2 references from creation time 0.392 Adding noise -0.057 CHUNK Goal7621 Activation 8.289 Latency 0.000 Time 0.850: Start-Check-Plural-1 Fired Time 0.850: Goal7621 Retrieved Time 0.850: Search-Plural-Feature Selected Modifying CHUNK Goal7625. Creating CHUNK goal7626. Switching to goal Goal7626. Sources of activation are: (Goal7625) CHUNK failure Activation 3.820 Latency 0.022 Time 0.900: Search-Plural-Feature Fired Time 0.922: Failure Retrieved Time 0.922: No-Plural Selected Modifying CHUNK Goal7626. Switching to goal Goal7625. Sources of activation are: (Goal7620) Computing a base level of 5.009 from 1 references from creation time 0.900 Adding noise 0.057 CHUNK Goal7626 Activation 5.066 Latency 0.006 Time 0.972: No-Plural Fired Time 0.978: Goal7626 Retrieved Time 0.978: Stop-Check-Plural Selected Modifying CHUNK Goal7625. Switching to goal Goal7620. Sources of activation are: (Goal) Computing a base level of 4.556 from 1 references from creation time 0.850 Adding noise -0.022 CHUNK Goal7625 Activation 4.534 Latency 0.011 Time 1.028: Stop-Check-Plural Fired Time 1.039: Goal7625 Retrieved Time 1.039: Stop-Process-Np Selected 135 Modifying CHUNK Goal7620. Switching to goal Goal. Sources of activation are: nil Computing a base level of 4.532 from 2 references from creation time 0.342 Adding noise 0.040 CHUNK Goal7620 Activation 4.572 Latency 0.010 Time 1.089: Stop-Process-Np Fired Time 1.099: Goal7620 Retrieved Time 1.099: Search-Subject-Np Selected Modifying CHUNK Goal. Sources of activation are: nil Computing a base level of 4.931 from 3 references from creation time 0.392 Adding noise 0.110 CHUNK Goal7621 Activation 5.041 Latency 0.006 Time 1.149: Search-Subject-Np Fired Time 1.155: Goal7621 Retrieved Time 1.155: Encode-Subject-Np Selected Modifying CHUNK Goal7621. Modifying CHUNK Goal. Time 1.205: Encode-Subject-Np Fired Time 1.205: Check-Item Selected Modifying CHUNK Goal. Creating CHUNK goal7627. Switching to goal Goal7627. Time 1.255: Check-Item Fired Time 1.255: Module :VISION running command FIND-LOCATION Time 1.255: Attend-Item Selected Modifying CHUNK Goal7627. Sources of activation are: (Goal) Spreading activation 2.958 from source Goal level 1.000 times IA 2.958 Computing a base level of 5.191 from 1 references from creation time 1.255 Adding noise -0.038 CHUNK Goal7627 Activation 8.110 Latency 0.000 Time 1.305: Attend-Item Fired Time 1.305: Goal7627 Retrieved Time 1.305: Module :VISION running command MOVE-ATTENTION Time 1.390: Module :VISION running command ENCODING-COMPLETE Time 1.390: Retrieve-Item Selected Modifying CHUNK Goal7627. Sources of activation are: (Goal) Computing a base level of 9.382 from 1000 references from creation time -10.000 Adding noise 0.012 CHUNK Der Activation 9.395 Latency 0.000 Time 1.440: Retrieve-Item Fired Time 1.440: Der Retrieved Time 1.440: End-Subgoal Selected Modifying CHUNK Goal7627. Switching to goal Goal. Sources of activation are: nil Computing a base level of 5.110 from 2 references from creation time 1.255 Adding noise -0.065 CHUNK Goal7627 Activation 5.045 Latency 0.006 Time 1.490: End-Subgoal Fired Time 1.496: Goal7627 Retrieved Time 1.496: Comprehend-Sentence-StartProcess-Np Selected Modifying CHUNK Goal. Creating CHUNK goal7630. Switching to goal Goal7630. Time 1.546: Comprehend-Sentence-StartProcess-Np Fired Time 1.546: Start-Process-Np Selected Modifying CHUNK Goal7630. Creating CHUNK goal7631. Switching to goal Goal7631. Sources of activation are: (Der Goal7630) Spreading activation 2.191 from source Goal7630 level 0.500 times IA 4.382 Computing a base level of 5.191 from 1 references from creation time 1.546 Adding noise 0.088 CHUNK Goal7630 Activation 7.470 Latency 0.001 Time 1.596: Start-Process-Np Fired Time 1.597: Goal7630 Retrieved Time 1.597: Start-Read-Np Selected Modifying CHUNK Goal7631. Creating CHUNK goal7632. Switching to goal Goal7632. Time 1.647: Start-Read-Np Fired Time 1.647: Module :VISION running command FIND-LOCATION Time 1.647: Attend-Item Selected Modifying CHUNK Goal7632. Sources of activation are: (Goal7631) Spreading activation 3.714 from source Goal7631 level 1.000 times IA 3.714 Computing a base level of 5.191 from 1 references from creation time 1.647 Adding noise -0.121 CHUNK Goal7632 Activation 8.784 Latency 0.000 Time 1.697: Attend-Item Fired Time 1.697: Goal7632 Retrieved Time 1.697: Module :VISION running command MOVE-ATTENTION Time 1.782: Module :VISION running command ENCODING-COMPLETE Time 1.782: Retrieve-Item Selected Modifying CHUNK Goal7632. Sources of activation are: (Goal7631) Computing a base level of 9.365 from 1000 references from creation time -10.000 Adding noise -0.149 CHUNK Schüler Activation 9.217 Latency 0.000 Time 1.832: Retrieve-Item Fired Time 1.832: Schüler Retrieved Time 1.832: End-Subgoal Selected 136 Modifying CHUNK Goal7632. Switching to goal Goal7631. Sources of activation are: (Der Goal7630) Computing a base level of 5.110 from 2 references from creation time 1.647 Adding noise 0.313 CHUNK Goal7632 Activation 5.423 Latency 0.004 Time 1.882: End-Subgoal Fired Time 1.886: Goal7632 Retrieved Time 1.886: Encode-N Selected Modifying CHUNK Goal7631. Sources of activation are: (Der Goal7630 Schüler) Spreading activation 1.015 from source Schüler level 0.333 times IA 3.045 Spreading activation 1.015 from source Der level 0.333 times IA 3.045 Computing a base level of 9.361 from 1000 references from creation time -10.000 Adding noise -0.020 CHUNK Genitiv-Der-Schüler Activation 11.371 Latency 0.000 Time 1.936: Encode-N Fired Time 1.936: Genitiv-Der-Schüler Retrieved Time 1.936: Encode-Genitiv-Np Selected Modifying CHUNK Goal7631. Switching to goal Goal7630. Sources of activation are: (Goal) Computing a base level of 4.164 from 1 references from creation time 1.596 Adding noise 0.008 CHUNK Goal7631 Activation 4.172 Latency 0.015 Time 1.986: Encode-Genitiv-Np Fired Time 2.001: Goal7631 Retrieved Time 2.001: Start-Search-Modified-Np Selected Modifying CHUNK Goal7630. Creating CHUNK goal7635. Switching to goal Goal7635. Time 2.051: Start-Search-Modified-Np Fired Time 2.051: Search-Modified-Np Selected Modifying CHUNK Goal7635. Sources of activation are: (Goal7631 Goal7630) Computing a base level of 4.811 from 4 references from creation time 0.392 Adding noise -0.067 CHUNK Goal7621 Activation 4.745 Latency 0.009 Time 2.101: Search-Modified-Np Fired Time 2.110: Goal7621 Retrieved Time 2.110: Encode-Modified-Np Selected Modifying CHUNK Goal7635. Sources of activation are: (Goal7631 Goal7630 Goal7621) Spreading activation 1.234 from source Goal7630 level 0.333 times IA 3.701 Spreading activation 1.465 from source Goal7631 level 0.333 times IA 4.394 Computing a base level of 4.673 from 2 references from creation time 1.596 Adding noise 0.028 CHUNK Goal7631 Activation 7.399 Latency 0.001 Time 2.160: Encode-Modified-Np Fired Time 2.161: Goal7631 Retrieved Time 2.161: End-Search-Modified-Np Selected Modifying CHUNK Goal7635. Modifying CHUNK Goal7631. Switching to goal Goal7630. Sources of activation are: (Goal) Computing a base level of 4.609 from 1 references from creation time 2.051 Adding noise 0.001 CHUNK Goal7635 Activation 4.611 Latency 0.010 Time 2.211: End-Search-Modified-Np Fired Time 2.221: Goal7635 Retrieved Time 2.221: Start-Check-Plural-2 Selected Modifying CHUNK Goal7630. Creating CHUNK goal7636. Switching to goal Goal7636. Sources of activation are: (Goal7630) Spreading activation 3.701 from source Goal7630 level 1.000 times IA 3.701 Computing a base level of 4.988 from 3 references from creation time 1.596 Adding noise 0.049 CHUNK Goal7631 Activation 8.738 Latency 0.000 Time 2.271: Start-Check-Plural-2 Fired Time 2.271: Goal7631 Retrieved Time 2.271: Search-Plural-Feature Selected Modifying CHUNK Goal7636. Creating CHUNK goal7637. Switching to goal Goal7637. Sources of activation are: (Goal7636) Computing a base level of 9.345 from 1000 references from creation time -10.000 Adding noise -0.122 CHUNK Plural-Der-Schüler Activation 9.223 Latency 0.000 Time 2.321: Search-Plural-Feature Fired Time 2.321: Plural-Der-Schüler Retrieved Time 2.321: Search-Plural-Np Selected Modifying CHUNK Goal7637. Sources of activation are: (Goal7636 Plural) Computing a base level of 4.961 from 5 references from creation time 0.392 Adding noise 0.137 Computing a base level of 5.207 from 4 references from creation time 1.596 Adding noise -0.112 CHUNK Goal7621 Activation 5.098 Latency 0.006 Time 2.371: Search-Plural-Np Fired Time 2.377: Goal7621 Retrieved Time 2.377: Encode-Plural-Np Selected Modifying CHUNK Goal7637. Switching to goal Goal7636. 137 Sources of activation are: (Goal7630) Computing a base level of 4.815 from 1 references from creation time 2.321 Adding noise -0.115 CHUNK Goal7637 Activation 4.700 Latency 0.009 Time 2.427: Encode-Plural-Np Fired Time 2.436: Goal7637 Retrieved Time 2.436: Stop-Check-Plural Selected Modifying CHUNK Goal7636. Switching to goal Goal7630. Sources of activation are: (Goal) Computing a base level of 4.462 from 1 references from creation time 2.271 Adding noise -0.010 CHUNK Goal7636 Activation 4.452 Latency 0.012 Time 2.486: Stop-Check-Plural Fired Time 2.498: Goal7636 Retrieved Time 2.498: Stop-Process-Np Selected Modifying CHUNK Goal7630. Merging chunk Goal7630 into chunk Goal7620 Switching to goal Goal. Sources of activation are: nil Computing a base level of 4.684 from 4 references from creation time 0.342 Adding noise 0.074 CHUNK Goal7620 Activation 4.758 Latency 0.009 Time 2.548: Stop-Process-Np Fired Time 2.557: Goal7620 Retrieved Time 2.557: Process-Modifier-Np Selected Modifying CHUNK Goal. Time 2.607: Process-Modifier-Np Fired Time 2.607: Check-Item Selected Modifying CHUNK Goal. Creating CHUNK goal7638. Switching to goal Goal7638. Time 2.657: Check-Item Fired Time 2.657: Module :VISION running command FIND-LOCATION Time 2.657: Attend-Item Selected Modifying CHUNK Goal7638. Sources of activation are: (Goal) Spreading activation 2.856 from source Goal level 1.000 times IA 2.856 Computing a base level of 5.191 from 1 references from creation time 2.657 Adding noise -0.040 CHUNK Goal7638 Activation 8.008 Latency 0.000 Time 2.707: Attend-Item Fired Time 2.707: Goal7638 Retrieved Time 2.707: Module :VISION running command MOVE-ATTENTION Time 2.792: Module :VISION running command ENCODING-COMPLETE Time 2.792: Retrieve-Item Selected Modifying CHUNK Goal7638. Sources of activation are: (Goal) CHUNK failure Activation 3.820 Latency 0.022 Time 2.842: Retrieve-Item Fired Time 2.864: Failure Retrieved Time 2.864: Continue-Subgoal-No-Retrieval Selected Modifying CHUNK Goal7638. Time 2.914: Continue-Subgoal-No-Retrieval Fired Time 2.914: Module :VISION running command FIND-LOCATION Time 2.914: Attend-Item Selected Modifying CHUNK Goal7638. Sources of activation are: (Goal) Spreading activation 2.856 from source Goal level 1.000 times IA 2.856 Computing a base level of 4.977 from 2 references from creation time 2.657 Adding noise 0.036 CHUNK Goal7638 Activation 7.870 Latency 0.000 Time 2.964: Attend-Item Fired Time 2.964: Goal7638 Retrieved Time 2.964: Module :VISION running command MOVE-ATTENTION Time 3.049: Module :VISION running command ENCODING-COMPLETE Time 3.049: Retrieve-Item Selected Modifying CHUNK Goal7638. Sources of activation are: (Goal) Computing a base level of 9.315 from 1000 references from creation time -10.000 Adding noise 0.059 CHUNK Verwundert Activation 9.374 Latency 0.000 Time 3.099: Retrieve-Item Fired Time 3.099: Verwundert Retrieved Time 3.099: End-Subgoal Selected Modifying CHUNK Goal7638. Switching to goal Goal. Sources of activation are: nil Computing a base level of 5.146 from 3 references from creation time 2.657 Adding noise 0.064 CHUNK Goal7638 Activation 5.210 Latency 0.005 Time 3.149: End-Subgoal Fired Time 3.154: Goal7638 Retrieved Time 3.154: Comprehend-Sentence-StartRead-Vp Selected Modifying CHUNK Goal. Creating CHUNK goal7643. Switching to goal Goal7643. Time 3.204: Comprehend-Sentence-StartRead-Vp Fired Time 3.204: Start-Read-Vp Selected Modifying CHUNK Goal7643. Creating CHUNK goal7644. Switching to goal Goal7644. Time 3.254: Start-Read-Vp Fired Time 3.254: Module :VISION running command FIND-LOCATION 138 Time 3.254: No-More-Items Selected Modifying CHUNK Goal7644. Switching to goal Goal7643. Sources of activation are: (Goal Verwundert) Computing a base level of 5.191 from 1 references from creation time 3.254 Adding noise 0.220 CHUNK Goal7644 Activation 5.411 Latency 0.004 Time 3.304: No-More-Items Fired Time 3.308: Goal7644 Retrieved Time 3.308: Encode-No-More-Items Selected Modifying CHUNK Goal7643. Switching to goal Goal. Sources of activation are: nil Computing a base level of 4.629 from 1 references from creation time 3.204 Adding noise -0.021 CHUNK Goal7643 Activation 4.608 Latency 0.010 Time 3.358: Encode-No-More-Items Fired Time 3.368: Goal7643 Retrieved Time 3.368: End-Comprehend Selected Modifying CHUNK Goal7643. Modifying CHUNK Goal. Sources of activation are: nil Computing a base level of 4.931 from 6 references from creation time 0.392 Adding noise -0.036 CHUNK Goal7621 Activation 4.896 Latency 0.007 Time 3.418: End-Comprehend Fired Time 3.425: Goal7621 Retrieved Time 3.425: Answer-Plural Selected Sources of activation are: nil Computing a base level of 4.315 from 2 references from creation time 2.321 Adding noise 0.158 CHUNK Goal7637 Activation 4.472 Latency 0.011 Time 3.475: Answer-Plural Fired Time 3.486: Goal7637 Retrieved Time 3.486: Answer-Plural-2 Selected Modifying CHUNK Goal. sind Time 3.536: Answer-Plural-2 Fired Time 3.536: Module :MOTOR running command PRESS-KEY Time 3.786: Module :MOTOR running command PREPARATION-COMPLETE Time 3.836: Module :MOTOR running command INITIATION-COMPLETE Time 3.936: Device running command OUTPUT-KEY << Window "Agreement Experiment" got key #\p at time 3936 >> Time 4.086: Module :MOTOR running command FINISH-MOVEMENT Time 4.086: Checking for silent events. Time 4.086: * Nothing to run: No productions, no events. protocole 7 100 passages de test, :v nil (pas de protocole sauf pour les résultats) > (go2 100) ((4 PP 3.973 T) (3 PS 3.76 NIL) (2 SP 3.767 T) (1 SS 3.736 T)) ((4 PP 3.987 T) (3 PS 3.755 NIL) (2 SP 3.764 T) (1 SS 3.727 T)) ((4 PP 3.976 T) (3 PS 3.942 T) (2 SP 3.769 T) (1 SS 3.724 T)) ((4 PP 3.978 T) (3 PS 3.952 T) (2 SP 3.761 T) (1 SS 3.727 T)) ((4 PP 3.982 T) (3 PS 3.942 T) (2 SP 3.765 T) (1 SS 3.733 T)) ((4 PP 3.975 T) (3 PS 3.946 T) (2 SP 3.757 T) (1 SS 3.727 T)) ((4 PP 3.986 T) (3 PS 3.759 NIL) (2 SP 3.762 T) (1 SS 3.738 T)) ((4 PP 3.976 T) (3 PS 3.947 T) (2 SP 3.765 T) (1 SS 3.727 T)) ((4 PP 3.986 T) (3 PS 3.95 T) (2 SP 3.767 T) (1 SS 3.728 T)) ((4 PP 3.793 NIL) (3 PS 3.944 T) (2 SP 3.758 T) (1 SS 3.727 T)) ((4 PP 3.979 T) (3 PS 3.948 T) (2 SP 3.759 T) (1 SS 3.726 T)) ((4 PP 3.976 T) (3 PS 3.945 T) (2 SP 3.943 NIL) (1 SS 3.728 T)) ((4 PP 3.983 T) (3 PS 3.762 NIL) (2 SP 3.767 T) (1 SS 3.727 T)) ((4 PP 3.984 T) (3 PS 3.938 T) (2 SP 3.764 T) (1 SS 3.726 T)) ((4 PP 3.975 T) (3 PS 3.949 T) (2 SP 3.761 T) (1 SS 3.727 T)) ((4 PP 3.976 T) (3 PS 3.954 T) (2 SP 3.764 T) (1 SS 3.729 T)) ((4 PP 3.979 T) (3 PS 3.94 T) (2 SP 3.764 T) (1 SS 3.733 T)) ((4 PP 3.981 T) (3 PS 3.943 T) (2 SP 3.759 T) (1 SS 3.727 T)) ((4 PP 3.982 T) (3 PS 3.949 T) (2 SP 3.76 T) (1 SS 3.729 T)) ((4 PP 3.982 T) (3 PS 3.947 T) (2 SP 3.766 T) (1 SS 3.724 T)) ((4 PP 3.982 T) (3 PS 3.955 T) (2 SP 3.765 T) (1 SS 3.724 T)) ((4 PP 3.972 T) (3 PS 3.945 T) (2 SP 3.759 T) (1 SS 3.729 T)) ((4 PP 3.969 T) (3 PS 3.956 T) (2 SP 3.76 T) (1 SS 3.725 T)) ((4 PP 3.989 T) (3 PS 3.762 NIL) (2 SP 3.757 T) (1 SS 3.728 T)) ((4 PP 3.976 T) (3 PS 3.946 T) (2 SP 3.766 T) (1 SS 3.729 T)) ((4 PP 3.979 T) (3 PS 3.946 T) (2 SP 3.768 T) (1 SS 3.725 T)) 139 ((4 PP 3.98 T) (3 PS 3.946 T) (2 SP 3.765 T) (1 SS 3.724 T)) ((4 PP 3.983 T) (3 PS 3.947 T) (2 SP 3.764 T) (1 SS 3.723 T)) ((4 PP 3.79 NIL) (3 PS 3.933 T) (2 SP 3.759 T) (1 SS 3.728 T)) ((4 PP 3.979 T) (3 PS 3.95 T) (2 SP 3.764 T) (1 SS 3.729 T)) ((4 PP 3.985 T) (3 PS 3.949 T) (2 SP 3.761 T) (1 SS 3.724 T)) ((4 PP 3.976 T) (3 PS 3.945 T) (2 SP 3.94 NIL) (1 SS 3.728 T)) ((4 PP 3.985 T) (3 PS 3.754 NIL) (2 SP 3.765 T) (1 SS 3.729 T)) ((4 PP 3.987 T) (3 PS 3.95 T) (2 SP 3.758 T) (1 SS 3.729 T)) ((4 PP 3.982 T) (3 PS 3.943 T) (2 SP 3.759 T) (1 SS 3.722 T)) ((4 PP 3.98 T) (3 PS 3.948 T) (2 SP 3.761 T) (1 SS 3.727 T)) ((4 PP 3.986 T) (3 PS 3.76 NIL) (2 SP 3.764 T) (1 SS 3.726 T)) ((4 PP 3.986 T) (3 PS 3.946 T) (2 SP 3.762 T) (1 SS 3.725 T)) ((4 PP 3.983 T) (3 PS 3.954 T) (2 SP 3.769 T) (1 SS 3.733 T)) ((4 PP 3.983 T) (3 PS 3.948 T) (2 SP 3.763 T) (1 SS 3.726 T)) ((4 PP 3.976 T) (3 PS 3.753 NIL) (2 SP 3.755 T) (1 SS 3.726 T)) ((4 PP 3.982 T) (3 PS 3.763 NIL) (2 SP 3.761 T) (1 SS 3.729 T)) ((4 PP 3.976 T) (3 PS 3.938 T) (2 SP 3.761 T) (1 SS 3.727 T)) ((4 PP 3.989 T) (3 PS 3.949 T) (2 SP 3.766 T) (1 SS 3.73 T)) ((4 PP 3.975 T) (3 PS 3.947 T) (2 SP 3.76 T) (1 SS 3.73 T)) ((4 PP 3.975 T) (3 PS 3.944 T) (2 SP 3.771 T) (1 SS 3.722 T)) ((4 PP 3.973 T) (3 PS 3.951 T) (2 SP 3.765 T) (1 SS 3.726 T)) ((4 PP 3.973 T) (3 PS 3.947 T) (2 SP 3.765 T) (1 SS 3.732 T)) ((4 PP 3.977 T) (3 PS 3.942 T) (2 SP 3.764 T) (1 SS 3.732 T)) ((4 PP 3.791 NIL) (3 PS 3.946 T) (2 SP 3.754 T) (1 SS 3.726 T)) ((4 PP 3.979 T) (3 PS 3.947 T) (2 SP 3.756 T) (1 SS 3.723 T)) ((4 PP 3.797 NIL) (3 PS 3.951 T) (2 SP 3.761 T) (1 SS 3.729 T)) ((4 PP 3.978 T) (3 PS 3.767 NIL) (2 SP 3.767 T) (1 SS 3.726 T)) ((4 PP 3.983 T) (3 PS 3.946 T) (2 SP 3.757 T) (1 SS 3.728 T)) ((4 PP 3.987 T) (3 PS 3.94 T) (2 SP 3.76 T) (1 SS 3.727 T)) ((4 PP 3.976 T) (3 PS 3.948 T) (2 SP 3.76 T) (1 SS 3.72 T)) ((4 PP 3.979 T) (3 PS 3.949 T) (2 SP 3.767 T) (1 SS 3.726 T)) ((4 PP 3.972 T) (3 PS 3.946 T) (2 SP 3.764 T) (1 SS 3.724 T)) ((4 PP 3.977 T) (3 PS 3.949 T) (2 SP 3.763 T) (1 SS 3.733 T)) ((4 PP 3.972 T) (3 PS 3.945 T) (2 SP 3.765 T) (1 SS 3.727 T)) ((4 PP 3.982 T) (3 PS 3.941 T) (2 SP 3.767 T) (1 SS 3.725 T)) ((4 PP 3.979 T) (3 PS 3.942 T) (2 SP 3.768 T) (1 SS 3.738 T)) ((4 PP 3.983 T) (3 PS 3.945 T) (2 SP 3.757 T) (1 SS 3.73 T)) ((4 PP 3.797 NIL) (3 PS 3.943 T) (2 SP 3.768 T) (1 SS 3.726 T)) ((4 PP 3.796 NIL) (3 PS 3.948 T) (2 SP 3.762 T) (1 SS 3.726 T)) ((4 PP 3.986 T) (3 PS 3.75 NIL) (2 SP 3.769 T) (1 SS 3.728 T)) ((4 PP 3.983 T) (3 PS 3.762 NIL) (2 SP 3.766 T) (1 SS 3.724 T)) ((4 PP 3.979 T) (3 PS 3.951 T) (2 SP 3.764 T) (1 SS 3.721 T)) ((4 PP 3.796 NIL) (3 PS 3.946 T) (2 SP 3.763 T) (1 SS 3.726 T)) ((4 PP 3.975 T) (3 PS 3.944 T) (2 SP 3.768 T) (1 SS 3.722 T)) ((4 PP 3.971 T) (3 PS 3.946 T) (2 SP 3.758 T) (1 SS 3.727 T)) ((4 PP 3.984 T) (3 PS 3.946 T) (2 SP 3.765 T) (1 SS 3.732 T)) ((4 PP 3.982 T) (3 PS 3.946 T) (2 SP 3.764 T) (1 SS 3.729 T)) ((4 PP 3.979 T) (3 PS 3.944 T) (2 SP 3.765 T) (1 SS 3.729 T)) ((4 PP 3.978 T) (3 PS 3.954 T) (2 SP 3.76 T) (1 SS 3.725 T)) ((4 PP 3.98 T) (3 PS 3.943 T) (2 SP 3.753 T) (1 SS 3.728 T)) ((4 PP 3.97 T) (3 PS 3.946 T) (2 SP 3.764 T) (1 SS 3.726 T)) ((4 PP 3.988 T) (3 PS 3.94 T) (2 SP 3.762 T) (1 SS 3.725 T)) ((4 PP 3.974 T) (3 PS 3.94 T) (2 SP 3.758 T) (1 SS 3.727 T)) ((4 PP 3.974 T) (3 PS 3.949 T) (2 SP 3.77 T) (1 SS 3.725 T)) ((4 PP 3.97 T) (3 PS 3.949 T) (2 SP 3.758 T) (1 SS 3.725 T)) ((4 PP 3.984 T) (3 PS 3.95 T) (2 SP 3.763 T) (1 SS 3.724 T)) ((4 PP 3.99 T) (3 PS 3.95 T) (2 SP 3.759 T) (1 SS 3.721 T)) ((4 PP 3.981 T) (3 PS 3.947 T) (2 SP 3.765 T) (1 SS 3.727 T)) ((4 PP 3.977 T) (3 PS 3.95 T) (2 SP 3.763 T) (1 SS 3.728 T)) ((4 PP 3.973 T) (3 PS 3.946 T) (2 SP 3.76 T) (1 SS 3.727 T)) ((4 PP 3.798 NIL) (3 PS 3.945 T) (2 SP 3.947 NIL) (1 SS 3.724 T)) ((4 PP 3.98 T) (3 PS 3.939 T) (2 SP 3.76 T) (1 SS 3.723 T)) 140 ((4 PP 3.801 NIL) (3 PS 3.955 T) (2 SP 3.765 T) (1 SS 3.728 T)) ((4 PP 3.975 T) (3 PS 3.955 T) (2 SP 3.773 T) (1 SS 3.724 T)) ((4 PP 3.977 T) (3 PS 3.942 T) (2 SP 3.775 T) (1 SS 3.725 T)) ((4 PP 3.981 T) (3 PS 3.945 T) (2 SP 3.767 T) (1 SS 3.73 T)) ((4 PP 3.992 T) (3 PS 3.937 T) (2 SP 3.767 T) (1 SS 3.731 T)) ((4 PP 3.79 NIL) (3 PS 3.95 T) (2 SP 3.76 T) (1 SS 3.724 T)) ((4 PP 3.796 NIL) (3 PS 3.945 T) (2 SP 3.761 T) (1 SS 3.723 T)) ((4 PP 3.984 T) (3 PS 3.953 T) (2 SP 3.765 T) (1 SS 3.717 T)) ((4 PP 3.978 T) (3 PS 3.95 T) (2 SP 3.764 T) (1 SS 3.726 T)) ((4 PP 3.971 T) (3 PS 3.943 T) (2 SP 3.764 T) (1 SS 3.728 T)) ((4 PP 3.966 T) (3 PS 3.758 NIL) (2 SP 3.764 T) (1 SS 3.724 T)) ((4 PP 3.987 T) (3 PS 3.947 T) (2 SP 3.768 T) (1 SS 3.727 T)) SS: SP: PS: PP: Mean RT Percent errors 3.727 0.0 3.769 3.0 3.922 13.0 3.959 11.0 DONE III. Matériel de l’expérience Débuts de phrases utilisées dans l’expérience, condition SS Phrases traduites de Hemforth et Konieczny (2003) : 1. L'image sur l'affiche ...................................... . 2. L'inscription sur la bouteille ...................................... . 3. L'histoire de la sorcière ...................................... . 4. Le fiacre devant la porte ...................................... . 5. La rencontre dans la cabane ...................................... . 6. La couleur sur la toile ......................................... . 7. La solution au problème...................................... . 8. Le sapin à côté du chêne ...................................... . 9. La portée du missile......................................... . 10. La lampe au-dessus de la table ...................................... . 11. La fourchette avec l'ornement ......................................... 12. Le résultat de l'expérience ......................................... . 13. L'opération du rein ......................................... . Phrases ajoutées : 14. La richesse de la famille ......................................... . 15. Le câble de l'ordinateur ......................................... . 16. Le fauteuil à côté de l'étagère ......................................... . 17. L'objectif du projet ......................................... . 18. Le chant de l'oiseau ......................................... . 19. Le nuage derrière la montagne ......................................... . 20. Le dessin sur la robe ......................................... . 141 IV Zusammenfassung in deutscher Sprache Das Ziel dieser psycholinguistisch orientierten Arbeit war es, einen Beitrag zur Untersuchung von Fehlern in der Numeruskongruenz zwischen Subjekt und Verb im Deutschen und im Französischen zu leisten. Nach der Einleitung wurden dabei in einem zweiten Teil zunächst die wichtigsten empirischen Ergebnisse zu dieser Fragestellung dargestellt. Da die Mechanismen der Kongruenzetablierung in verschiedenen europäischen Sprachen vergleichbar sind, wurde dabei auch auf Ergebnisse aus dem Englischen, Niederländischen, Italienischem und Spanischen eingegangen. Anschließend wurden verschiedene Erklärungsmodelle vorgestellt und hinsichtlich ihrer Abdeckung der Daten miteinander verglichen. Dabei konnte gezeigt werden, dass unter den vorhandenen Erklärungsmodellen das aktivierungsbasierte Modell von Hemforth und Konieczny (2003) am geeignetsten ist, um die vorhandenen Daten abzudecken, da es sowohl syntaktische als auch nicht-syntaktische Einflüsse erklären kann. Anschließend wurde im dritten und zentralen Teil ein im Rahmen der kognitiven Architektur ACT-R (Anderson und Lebiere, 1998) realisiertes Computermodell vorgestellt, das wesentliche Annahmen des aktivierungsbasierten Modells umsetzt. Das Modell bildet dabei ein tatsächlich durchgeführtes Experiment ab, das das Verstehen und Ergänzen von Satzanfängen im Deutschen umfasst. Durch diese kognitive Modellierung konnte einerseits gezeigt werden, dass sich das Aktivierungsmodell in ein allgemeines Verstehensmodell integrieren lässt, das zudem mit dem in ACT-R vorgegebenen allgemeinen Prinzipien menschlicher Kognition im Einklang steht. Andererseits konnte das Aktivierungsmodell in vielen Punkten präzisiert werden. Es konnte zudem gezeigt werden, dass eine Erweiterung des Modells zu einer Abdeckung der bisher bekannten Daten möglich erscheint. Schließlich wurde im vierten Teil der Arbeit eine Fragebogenstudie vorgestellt, durch die wichtige Vorhersagen des Modells für die französische Sprache bestätigt werden konnten. Schließlich wurde im letzten Teil der Arbeit zusammengefasst, inwiefern die Modellierung und ihre empirische Überprüfung den im zweiten Teil zusammengefassten Forschungsstand erweitern konnten. Dabei wurde gezeigt, dass durch die Modellierung eine wesentlich präzisere Beschreibung der Vorgänge bei der Etablierung der Numeruskongruenz erreicht werden konnte, ohne dass die breite Abdeckung der Daten durch das Aktivierungsmodell dadurch gemindert wurde. 142 Die Arbeit schließt mit einer Diskussion empirischer Fragen, die offen gelassen oder neu aufgeworfen wurden, sowie mit Möglichkeiten zu ihrer empirischen Überprüfung. 143