Les fautes d`accord en nombre entre le sujet et le verbe en français

publicité
LES FAUTES D’ACCORD EN NOMBRE ENTRE LE SUJET ET LE VERBE
EN FRANÇAIS ET EN ALLEMAND
Magisterarbeit
zur
Erlangung der Würde
der Magistra Artium
der Philologischen, Philosophischen und Wirtschafts- und
Verhaltenswissenschaftlichen Fakultät der
Albert-Ludwigs-Universität
Freiburg i. Br.
vorgelegt von
Sarah Schimke
aus Münster
SS 2004
Romanische Philologie: Französisch (Hauptgebiet) und Spanisch (Nebengebiet)
Mes remerciements s’adressent au Dr. Lars Konieczny, pour son aide relative au contenu, à la
modélisation et à la préparation de l’expérience,
et aux Dr. Lars Konieczny, Prof. Wolfgang Raible, Prof. Georges Kleiber et Dr. Barbara
Hemforth, qui ont rendu ce mémoire possible et m’ont apporté leur soutien pendant sa
réalisation.
Table de Matières
Table de Matières......................................................................................................... 1
1. Introduction ............................................................................................................ 3
2. L’état de la recherche sur l’accord entre sujet et verbe.......................................... 5
2.1. Un modèle cadre de la production du langage ................................................ 5
2.2. Résultats empiriques fondamentaux ............................................................... 9
2.2.1. L’effet mismatch ...................................................................................... 9
2.2.2. L’asymétrie singulier- pluriel................................................................. 10
2.2.3. Les niveaux conceptuel et morpho-phonologique du nombre ............... 12
2.2.4. Résumé................................................................................................... 15
2.3. Modèles d’explication................................................................................... 16
2.3.1. Les modèles d’explication non-syntaxiques .......................................... 16
2.3.1.1. Les approches basées sur la distance .............................................. 16
2.3.1.2. Les approches basées sur la mémoire ............................................. 17
2.3.2. Etudes empiriques sur les modèles non-syntaxiques ............................. 19
2.3.3. Les modèles d’explication syntaxiques.................................................. 23
2.3.3.1. Clausal Packaging .......................................................................... 23
2.3.3.2. Feature Percolation ........................................................................ 24
2.3.3.3. Agreement and Movement............................................................... 26
2.3.4. Etudes empiriques sur les modèles syntaxiques .................................... 28
2.3.5.
Le modèle basé sur l’activation de Hemforth et Konieczny .............. 33
2.3.5.1. Les données de base ........................................................................ 33
2.3.5.2. Le modèle........................................................................................ 35
2.3.6. Le potentiel explicatif du modèle basé sur l’activation ......................... 37
2.3.6.1. Le potentiel explicatif pour les données présentées jusqu’ici......... 37
2.3.6.2. Les effets de l’accord dans la compréhension................................. 38
2.3.6.3. L’existence d’une erreur générale de singulier ............................... 41
2.3.6.4. Résumé............................................................................................ 44
2.4. Résumé de l’état de la recherche................................................................... 44
3. La modélisation.................................................................................................... 48
3.1. Présentation globale d’ACT-R...................................................................... 48
3.1.1. La structure d’ACT-R ............................................................................ 49
3.1.2. Le niveau symbolique ............................................................................ 50
3.1.3. Le niveau sous-symbolique.................................................................... 53
3.2. Description du modèle .................................................................................. 56
3.2.1. Réflexions préliminaires ........................................................................ 56
3.2.2. Le modèle au niveau symbolique........................................................... 59
3.2.2.1. Le savoir lexical et morphologique................................................. 60
3.2.2.2. Les productions et les buts : introduction et vue d’ensemble ......... 61
3.2.2.3. Le traitement lexical des syntagmes ............................................... 62
3.2.2.4. Le rattachement des syntagmes modificateurs................................ 66
3.2.2.5. La représentation et le traitement du nombre.................................. 67
3.2.2.6. Les processus de traitement superordonnés .................................... 69
3.2.2.7. La production du nombre du verbe ................................................. 72
3.2.2.8. Résumé............................................................................................ 76
3.2.3. Le modèle au niveau sous-symbolique .................................................. 77
3.2.3.1. L’erreur générale de singulier ......................................................... 78
3.2.3.2. L’effet mismatch après les têtes au singulier .................................. 84
3.2.4. Résultats ................................................................................................. 86
1
3.2.5. Discussion .............................................................................................. 87
3.2.6. Couverture des données obtenues jusqu’ici ........................................... 89
3.3. Résumé.......................................................................................................... 94
4. Vérification empirique: Le transfert à la langue française................................... 95
4.1. Introduction ................................................................................................... 95
4.2. Methode ........................................................................................................ 96
4.3. Résultats ........................................................................................................ 98
4.4. Discussion ..................................................................................................... 99
5. Discussion générale et perspectives de recherche.............................................. 102
Bibliographie............................................................................................................ 105
Annexe ..................................................................................................................... 109
I. Le modèle ....................................................................................................... 109
Les types de chunk............................................................................................ 109
La mémoire déclarative ................................................................................... 109
Les productions ................................................................................................ 109
Les valeurs de paramètres ............................................................................... 114
Code pour le déroulement de l’expérience ...................................................... 114
II. Protocoles de passages du modèle................................................................. 117
protocole 1 ....................................................................................................... 117
protocole 2 ....................................................................................................... 118
protocole 3 ....................................................................................................... 121
protocole 4 ....................................................................................................... 124
protocole 5 ....................................................................................................... 129
protocole 6 ....................................................................................................... 134
protocole 7 ....................................................................................................... 139
III. Matériel de l’expérience............................................................................... 141
IV Zusammenfassung in deutscher Sprache ...................................................... 142
2
1. Introduction
Ce travail porte sur les erreurs d’accord en nombre entre sujet et verbe en se plaçant
dans une optique psycholinguistique. Nous tenterons d’éclaircir ce phénomène en
étudiant en particulier la langue allemande et la langue française. Comme les processus de l’établissement de l’accord ne diffèrent pas fondamentalement entre le français, l’allemand et d’autres langues apparentées, pour lesquelles d’ailleurs la recherche sur ce phénomène est souvent plus avancée, nous nous référerons aussi bien à
des résultats de recherche concernant l’allemand et le français qu’à des résultats
concernant ces autres langues. Il s’agit de résultats concernant surtout l’anglais, mais
aussi le néerlandais, l’espagnol et l’italien.
Au premier abord, l’accord en nombre entre sujet et verbe semble être un processus
extrêmement facile dans toutes ces langues, car il existe une règle claire: Le verbe se
met au même nombre que la tête du syntagme nominal qui fonctionne comme sujet
de la phrase (voir p. e. Dubois, 1965).
Toutefois, l’application de cette règle nécessite l’établissement d’une relation entre
deux éléments d’une phrase qui peuvent parfois être très éloignés l’un de l’autre. En
psycholinguistique, le fonctionnement exact des telles dépendances sur de longues
distances n’est pas encore entièrement clair. L’étude des erreurs peut être un moyen
d’approfondir la connaissance du fonctionnement normal de telles dépendances.
Dans les dernières années, une série d’expériences psycholinguistiques a été menée
pour déterminer les conditions dans lesquelles apparaissent les erreurs et tirer des
conclusions sur l’établissement de l’accord en général.
Dans la deuxième partie de ce travail, nous résumerons l’état de cette recherche psycholinguistique sur l’accord sujet-verbe. Nous exposerons d’abord brièvement quelques bases théoriques sur lesquels se fonde la majorité des études. Ensuite, nous présenterons des résultats expérimentaux fondamentaux. Dans le paragraphe suivant,
nous présenterons différents modèles d’explication et leur socle empirique respectif.
Nous montrerons ainsi que le modèle basé sur l’activation, proposé par Hemforth et
Konieczny (2003), est actuellement le modèle le plus apte à expliquer les résultats
connus. Les parties suivantes de ce travail, en conséquence, sont basées sur ce modèle.
Dans la troisième partie, qui représente la partie centrale, nous présenterons une modélisation cognitive sur ordinateur qui se base sur le modèle de Hemforth et Ko3
nieczny et qui reproduit les processus de l’établissement de l’accord. Cette modélisation, réalisée à titre d’exemples sur des phrases allemandes, a pour objectif de vérifier la consistance interne du modèle basé sur l’activation, de le préciser, de l’élargir
et de poser ainsi le fondement pour dériver de nouvelles hypothèses empiriques. La
modélisation étant réalisée dans l’architecture cognitive ACT-R (Anderson et Lebiere, 1998), nous présenterons en tout premier lieu les parties de cette architecture
qui ont une importance pour notre modélisation. Ensuite, nous décrirons de façon
détaillée notre modèle en lui-même. Finalement, nous discuterons la question de savoir dans quelle mesure le modèle peut expliquer les résultats connus.
Dans une quatrième partie beaucoup plus courte, nous exposerons finalement une
première contribution à une vérification expérimentale du modèle. Nous décrirons
une étude que nous avons menée sur le français et qui a eu pour but de vérifier une
partie des prédictions du modèle.
Dans la dernière partie du travail nous expliquerons d’abord en guise de résumé dans
quelle mesure le modèle et sa première vérification empirique ont pu apporter une
meilleure connaissance de l’accord sujet-verbe telle que présentée dans la deuxième
partie. Nous montrerons en particulier qu’ils ont contribué à comprendre de façon
plus précise les processus impliqués dans l’établissement de l’accord dans les langues étudiées. Nous montrerons aussi que toutes les questions ouvertes n’ont pas pu
être résolues et que de nouvelles questions ont émergé. En guise de conclusion, nous
proposerons ainsi des élargissements possibles du modèle ainsi que des méthodes
empiriques susceptibles de répondre aux questions soulevées.
4
2. L’état de la recherche sur l’accord entre sujet et verbe
Dans cette deuxième partie de notre mémoire nous résumerons tout d’abord les bases
théoriques des études consacrées à l’accord entre sujet et verbe. Ensuite, nous présenterons quelques résultats empiriques qui bénéficient d’un large consensus. Ceci
nous permettra, dans un troisième temps, de décrire de façon détaillée les différents
modèles d’explication et leur base empirique.
2.1. Un modèle cadre de la production du langage
Les études expérimentales sur l’accord entre sujet et verbe reposent sur quelques
hypothèses concernant la production du langage. Celles-ci forment un modèle cadre
qui fait l’objet d’un large consensus dans la communauté scientifique.1 Dans ce mémoire, nous n’avons pas pour objectif d’évaluer ce modèle, mais sa présentation devra nous permettre de résumer les différentes études que nous présenterons de façon
claire.
Selon une première hypothèse de base, les processus de la production du langage se
déroulent sur plusieurs plans (Garrett, 1980). On distingue plus précisément trois
plans : Un plan conceptuel, sur lequel on produit un message qui n’a pas encore une
forme linguistique, un plan de formulation, sur lequel on verbalise le message, et un
plan articulatoire, sur lequel on réalise l’énoncé concret (voir p. e. Levelt, 1989, p. 814). A l’intérieur de chaque plan, on peut ensuite distinguer plusieurs unités de traitement. Dans le cadre de notre étude sur l’établissement de l’accord, c’est le plan de
formulation qui retiendra toute notre attention. Parmi les travaux consacrés à ce plan,
ce sont surtout Garrett (1975, 1980), Kempen et Hoenkamp (1987), Levelt (1989) et
Bock et Levelt (1994) qui proposent les plus détaillés et approfondis.
Bock et Levelt (1994) font, dans le plan de formulation, une première distinction
entre un encodage grammatical et un encodage phonologique. A l’intérieur de
l’encodage grammatical, ils distinguent ensuite l’encodage fonctionnel de l’encodage
positionnel.2
1
Dans ce qui suit nous présenterons les hypothèses fondamentales des modèles de la production du
langage qui supposent plusieurs plans du traitement. Comme nous le montrerons brièvement dans le
paragraphe 2.2.3., il existe aussi des approches qui refusent totalement cette répartition en plusieurs
plans. Etant donné que ces approches se réfèrent tout de même aux modèles classiques, nous ne présenterons d’abord que ces derniers.
2
La distinction entre l’encodage fonctionnel et l’encodage positionnel a déjà été introduite par Garrett
(1975), qui l’a dérivée de ses analyses d’erreurs de production. Les erreurs de production sont infor-
5
On suppose généralement que l’encodage fonctionnel englobe la sélection lexicale et
l’assignation de fonctions syntaxiques aux éléments sélectionnés (voir p. e. Bock et
Levelt, 1994). On entend par sélection lexicale la récupération d’un mot du dictionnaire mental. Dans ce dictionnaire, on distingue trois plans de représentation des
mots: Les mots en tant que concepts abstraits, les mots en tant qu’unités grammaticales (lemmes) et les mots en tant qu’unités morpho-phonologiques (lexèmes). La sélection lexicale consiste à assigner des lemmes aux concepts du message préverbal.
C’est donc la forme grammaticale des mots qui, d’après ce modèle, est accessible et
sélectionnée à ce stade du traitement: Si, par exemple, le lemme donner est récupéré,
le système de production « apprend » entre outre qu’il s’agit là d’un verbe bitransitif.
En revanche, la forme morpho-phonologique exacte que peut prendre ce verbe ne
joue aucun rôle à ce stade du traitement (voir p. e. Bock et Levelt, 1994, p. 950 sq.).
Ces informations lexicaux servent ensuite à assigner des fonctions aux lemmes récupérés, comme par exemple la fonction de sujet ou de l’objet indirect (appelées respectivement fonction nominatif et fonction accusatif par Bock et Levelt). Dans des
phrases complexes, on n’assigne pas toutes les fonctions à la fois. On privilégie les
structures qui se groupent autour d’un verbe :
…verbs somehow control function assignment. A verb’s specification of its normally expressed arguments may serve to organize function assignment around a unit that is roughly
equivalent to a clause. (Bock et Levelt, 1994, p. 966).
L’unité de l’encodage est donc le verbe avec ses arguments, c’est-à-dire une proposition simple. Dans une phrase complexe comportant plusieurs propositions, chaque
proposition est d’abord construite séparément, puis elle est reliée aux autres par des
procédés de coordination, d’enchâssement ou autres. L’accord sujet-verbe est également établi pendant l’encodage fonctionnel:
The obvious place to state this dependency [of subject-verb-agreement] in the general architecture we have set out is within functional processing, since it is there that the relevant relationships are represented. In functional processing terms, the creation of the dependency requires that the finite (tense and number carrying) verb and the noun lemma linked to the
nominative function have the same number. (Bock et Levelt, 1994, p. 975)
Le résultat de l’encodage fonctionnel est, d’après l’avis général, une représentation
caractéristique de la phrase à produire qui permet d’exprimer les lemmes faisant parmatives, parce qu’elles se produisent de façon systématique. Garrett a opéré la distinction en question
à partir de son observation des erreurs d’échange On trouve des échanges systématiques soit entre des
éléments proches dans la phrase (on conclut alors qu’il s’agit d’une erreur qui s’est produite pendant
l’encodage positionnel) soit entre des éléments qui ont une fonction syntaxique comparable, et cela
indépendamment de la distance entre ces éléments dans la phrase. Ce dernier type d’échange
s’effectue souvent exclusivement entre les morphèmes lexicaux, en laissant les morphèmes grammaticaux à leur place originale (concernant ces erreurs, on conclut qu’elles se sont produites pendant
l’encodage fonctionnel, voir Garrett, 1975, p. 240 sq.)
6
tie de la phrase, leurs propriétés grammaticales (comme p. e. leur nombre) et leurs
relations syntaxiques. En se plaçant dans l’optique de la grammaire générative et
transformationnelle, Garrett propose d’assimiler cette représentation à la structure
profonde de la phrase :
Given the more or less traditional organization of transformational grammars, the natural
formal correspondent of the functional level would be that of deep structure, and correspondingly for the positional level, that of surface structure. (Garrett, 1980, p. 216 sq.)
L’encodage fonctionnel détermine le cadre syntaxique de la phrase, mais il ne détermine pas l’ordre de mots. Celui-ci est déterminé dans l’étape prochaine qui est
l’encodage positionnel.
A l’intérieur de l’encodage positionnel Bock et Levelt (1994) opèrent une distinction
entre l’établissement de la structure syntagmatique de la phrase et l’insertion des
morphèmes grammaticaux qui est réalisée ensuite. Avec Garrett (1980, voir cidessus), on peut concevoir le résultat de cette étape sous la forme d’un arbre syntaxique représentant la structure de surface de la phrase. Bock et Levelt (1994) désignent
cette structure par le terme « cadre » (frame). Selon eux, les désinences et les mots de
fonctions sont déjà présents dans ce cadre, tandis que les mots de contenu sont présents en tant que lemmes, mais pas encore en tant que lexèmes.
Dans la dernière étape de la formulation, l’encodage phonologique, les lexèmes correspondant aux mots de contenu sont finalement eux aussi récupérés. Malgré tout, la
consultation du dictionnaire ne suffit pas pour établir le plan articulatoire final d’un
énoncé. En effet, les différents mots doivent encore être liés les uns aux autres pour
former une phrase avec un certain rythme et une certaine intonation (voir Levelt,
1989, chapitre 8-10). Mais d’après le modèle cadre présenté ici, les processus du plan
articulatoire ne jouent aucun rôle pour l’établissement de l’accord. La figure 1 donne
une vue d’ensemble de la production du langage telle que la représente le modèle que
nous venons de présenter.
Il est important de noter que, contrairement à ce que la présentation rapide du modèle
pourrait suggérer, on ne suppose généralement pas qu’une unité de traitement doit
avoir terminé son traitement avant que l’unité suivante ne puisse commencer. Au
contraire, on postule un traitement incrémentiel ; en d’autres termes, les processus
des différents plans peuvent se dérouler simultanément, en sachant que toute information de plan supérieur est traitée dès qu’elle est accessible.3
3
Cette idée a été développée en détail par Kempen et Hoenkamp (1987).
7
Message
Lexical
Selection
Constituant
Assembly
Functional
Processing
Function
Assignment
Positional
Inflection
Processing
G
r
m
m
a
t
i
c
a
l
E
n
c
o
d
i
n
g
Phonological
Encoding
Figure 1:
Vue d’ensemble des processus pendant la
production du langage (adapté de Bock
et Levelt, 1994, p. 946 )
to output systems
Les flèches parallèles dans la figure 1 illustrent ce caractère incrémentiel de la production. En même temps, elles font allusion à une autre supposition contenue de manière implicite dans le modèle : l’information est transmise de façon unidirectionnelle en passant toujours d’un plan superordonné à un plan subordonné. D’après cette
conception, le traitement sur un plan donné n’est influencé par celui d’aucun autre
plan si ce n’est le plan directement superordonné. Cette conception du traitement est
désignée sous le terme d’« encapsulation de l’information ».4 L’encapsulation de
l’information fournit une explication pour la rapidité et le degré d’automatisation de
la production du langage.
Dans le cadre de ce mémoire il ne nous paraît pas nécessaire de traiter de manière
plus détaillée des observations empiriques et des considérations théoriques qui ont
contribuées au développement du modèle cadre présenté. Seul importe ici que ce
modèle - sous la forme que nous venons d’exposer ou sous des formes semblables à
celle-ci - soit accepté comme fondement théorique par nombre de chercheurs en psycholinguistique. La majorité des études sur l’accord sujet-verbe que nous présente-
4
Ce concept a été appliqué aux théories de la cognition humaine en 1983 par Fodor dans son livre
intitulé The modularity of mind (Fodor, 1983). Il a ensuite trouvé un large écho dans bon nombre de
théories sur les processus cognitifs. On trouve des arguments en faveur d’une encapsulation de
l’information dans la production du langage chez Levelt (1989). Nous reviendrons brièvement sur
cette question dans le paragraphe 2.2.3.
8
rons dans la suite de notre travail s’attachent à un examen plus approfondi de certains
aspects de ce modèle.
2.2. Résultats empiriques fondamentaux
Dans ce qui suit nous allons présenter les résultats empiriques qui sont globalement
considérés comme bien établis et qui sont à ce titre pris en compte dans la plupart des
théories sur l’accord sujet-verbe.
2.2.1. L’effet mismatch
Les erreurs d’accord sujet-verbe qu’on observe dans le langage spontané partagent
dans la plupart des cas la caractéristique suivante : l’énoncé en question contient un
syntagme nominal (SN) qui est placé entre la tête du SN sujet et le verbe et qui n’a
pas le même nombre que celle-ci:
(1) The time for fun and games ARE over.
(2) The readiness of our conventional forces ARE at an all-time-low.
(exemples tirés de Bock et Miller, 1991)
Dans les cas cités, la tête du SN sujet est au singulier, alors que le SN modificateur
(aussi appelé SN local à cause de sa proximité avec le verbe) qui se trouve entre la
tête et le verbe est au pluriel. Les locuteurs ont produit un verbe au pluriel au lieu
d’un verbe au singulier qui se trouverait en accord avec la tête du SN sujet. On est
alors tenté de penser que le pluriel du verbe est provoqué d’une manière ou d’une
autre par le pluriel du SN local. Il s’ensuit que, dans des phrases du type « SN1 SN2
verbe », il devrait y avoir plus de fautes d’accord dans les cas où SN1 et SN2 n’ont
pas le même nombre (mismatch entre SN1 et SN2) que dans les cas où ils ont le
même nombre (match entre SN1 et SN2). Cette hypothèse a été testée dans une expérience de Bock et Miller (1991). Elles ont présenté auditivement des débuts de phrases différents à leurs sujets d’expérience. Les sujets devaient répéter ces débuts de
phrases et les compléter par un verbe pour en faire des phrases complètes. Les débuts
de phrases consistaient à chaque fois en un SN complexe et ils existaient en quatre
versions:
(3a)
(3b)
(3c)
(3d)
SN1 singulier, SN2 singulier (condition SS) : The key to the cabinet
SN1 singulier, SN2 pluriel (condition SP) : The key to the cabinets
SN1 pluriel, SN2 singulier (condition PS) : The keys to the cabinet
SN1 pluriel, SN2 pluriel (condition PP) : The keys to the cabinets
9
L’étude a révélé un effet significatif de la variable « mismatch » : Il y avait plus
d’erreurs d’accord dans les conditions SP et PS (90.5 % de toutes les erreurs
d’accord commises dans l’expérience) que dans les conditions SS et PP.
L’expérience a également mis à jour un effet d’interaction inattendu: L’effet mismatch se limitait aux cas dans lesquels la tête était au singulier et le modificateur au
pluriel (condition SP). Dans le cas inverse (condition PS), le nombre de fautes n’était
pas beaucoup plus élevé que dans la condition de contrôle, la condition PP. L’effet
mismatch ne semble donc exister que pour des têtes au singulier. Cette expérience a
pu être réalisée à plusieurs reprises dans différentes langues et a donné les mêmes
résultats (pour l’anglais : entre autres Bock et Cutting, 1992, Bock et Eberhard, 1993,
Eberhard, 1997 et Vigliocco et Nicol, 1998, l’allemand : entre autres Schriefers et
van Kampen, 1993, Hölscher et Hemforth, 2000 et Hemforth et Konieczny, 2003, le
français : entre autres Fayol et coll., 1994, Chanquoy et Negro, 1996 et Vigliocco,
Hartsuiker et coll., 1996 et Franck et coll., soumis, le néerlandais : entre autres Vigliocco, Hartsuiker et coll., 1996 et Hartsuiker et coll., 2001, l’espagnol: entre autres
Vigliocco, Butterworth et Garrett, 1996 et l’italien : entre autres Vigliocco et coll.,
1995 et Franck et coll., soumis).
L’asymétrie entre le singulier et le pluriel sera traitée dans le paragraphe suivant.
2.2.2. L’asymétrie singulier- pluriel
Le cas des têtes au pluriel est un peu moins bien étudié que celui des têtes au singulier. Beaucoup d’études n’ont porté que sur la différence entre les conditions SS et
SP (cela est par exemple vrai pour les études de Bock et Eberhard, 93, Hartsuiker et
coll., 2001 et Schriefers et Van Kampen, 1993). Dans les expériences au cours desquelles les quatre conditions ont toutes été étudiées, on n’a la plupart du temps pas
trouvé de différence significative entre les conditions PS et PP. Concernant les cas
dans lesquels on a trouvé un effet mismatch avec des têtes au pluriel, celui-ci était
toujours moins prononcé que dans les cas avec des têtes au singulier.5 En conclusion,
l’asymétrie entre le singulier et le pluriel peut être considérée comme un fait bien
établi. Les SN locaux au pluriel comme « cabinets » dans le SN complexe « the key
to the cabinets » provoquent relativement souvent des erreurs de pluriel, c’est-à-dire
des verbes qui sont faussement produits au pluriel, tandis que les SN locaux au sin-
5
Pour une liste de toutes les expériences significatives ainsi qu’une discussion plus poussée de cette
question, voir paragraphe 2.3.6.3.
10
gulier comme « cabinet » dans « the keys to the cabinet » ne semblent pratiquement
pas provoquer d’erreurs de singulier.
L’hypothèse du marquage différentiel
Eberhard (1997) a proposé une explication pour l’asymétrie singulier-pluriel qui est
souvent reprise dans la littérature et que nous allons donc brièvement présenter. Elle
suppose que l’asymétrie résulte d’un marquage différent des deux nombres. Elle se
base ici sur le concept de Roman Jakobson, selon lequel une opposition linguistique
oppose toujours une forme marquée à une forme non-marquée. La forme marquée
possède un trait qui manque à la forme non-marquée. Ainsi, la forme non-marquée
peut être utilisée soit en opposition à la forme marquée soit dans les cas de neutralisation de l’opposition entre ces deux formes (voir Jakobson, 1957).
D’après Eberhard, le singulier est la forme non-marquée de l’opposition singulierpluriel.6 En d’autres termes, elle suppose qu’un SN au pluriel possède un trait
[+pluriel] qui manque aux SN au singulier. De plus, elle postule que ce trait peut
avoir une activation plus ou moins grande selon le degré d’évidence qui existe pour
le bien-fondé de son existence.7 Pour établir l’accord entre sujet et verbe, le système
de production doit vérifier si la tête du SN sujet a un trait de pluriel activé, et produire, en l’absence de trait pluriel, un verbe au singulier par défaut :
Verb agreement may be implemented by a mechanism that checks whether the head noun of
the subject phrase posses an activated plural feature. If there is none, (…) , the mechanism
assumes that the noun is singular by default and retrieves a singular verb. (Eberhard, 1997, p.
149)
Toujours selon Eberhard, ce mécanisme peut être interrompu par le trait de pluriel
d’un SN local, tandis qu’un SN local au singulier ne devrait pas exercer d’influence
interférente :
On this account, plural nouns (...) will occasionally disrupt the agreement process because the
mechanism mistakenly detects the activated number feature on the local noun and retrieves a
plural verb. Singular local nouns (…) are less likely to disrupt the agreement process because
they do not possess an activated number feature that can be mistakenly detected by the
agreement mechanism. (Eberhard, 1997, p. 149 sq.)
Cette approche est jusqu’ici la seule qui puisse expliquer l’asymétrie entre le singulier et le pluriel d’une manière convaincante.
6
Eberhard avance des arguments en faveur de son hypothèse qui sont indépendants de la question de
l’asymétrie. Par exemple, on constate que les enfants apprennent le singulier d’un nom avant le pluriel. De plus, des expériences ont été menées dans lesquelles les sujets ont mieux retenu des mots au
singulier que des mots au pluriel.
7
Pour le concept d’ « activation », voir la présentation du modèle de Hemforth et Konieczny, paragraphe 2.3.5.
11
2.2.3. Les niveaux conceptuel et morpho-phonologique du nombre
Dans le modèle cadre présenté dans le paragraphe 2.1., le nombre est conçu comme
une propriété essentiellement lexico-syntaxique. Bien sûr, cette propriété est également représentée sur d’autres plans du modèle : Sur le plan conceptuel, le pluriel
exprime le fait que plusieurs instances de l’entité en question sont présentes ; sur le
plan morpho-phonologique, le pluriel s’exprime dans des morphèmes bien définis.
Mais si nous suivons le modèle évoqué, c’est l’encodage fonctionnel qui est essentiel
pour l’établissement de l’accord, ce qui correspond à la représentation lexicosyntaxique du nombre.8 Si l’on trouvait des influences conceptuelles ou morphophonologiques sur l’établissement de l’accord, on devrait remettre en question certaines des hypothèses centrales du modèle cadre : En effet, cela signifierait soit que
l’accord ne serait pas établi sur le plan fonctionnel soit qu’il n’y aurait pas
d’encapsulation d’information stricte et que les informations d’un plan pourraient
donc influencer les processus sur un autre plan. Cette dernière hypothèse est avancée
entre autres par les modèles dits interactifs de la production du langage.9
Cette question a été étudiée au travers d’un grand nombre d’études empiriques. Les
résultats principaux peuvent être résumés comme suit :
Bock et Eberhard (1993) sont parties de l’hypothèse selon laquelle l’établissement de
l’accord pourrait se fonder uniquement sur des indices morpho-phonologiques. Dans
cette optique, la production d’un verbe au pluriel est provoquée par chaque nom qui
finit par un morphème marquant en règle générale le pluriel (donc en anglais, /-s/, /z/ ou /-Əz/). Compte tenu du fait qu’en anglais la morphologie verbale est complémentaire à la morphologie nominale (dans la mesure où le singulier des verbes est
marqué également par la désinence /-s/ à la troisième personne), l’anglais pourrait
être favorable au développement d’une telle règle :
The frequency and regularity of this marking [the marking of English plural nouns] in the experience of speakers, in conjunction with variations in verb morphology, could support the
development of a processing heuristic by which the presence of a plural (or even a plurallike) suffix on a noun triggers a complementary verb form. Such a heuristic would be ex8
Dans certains cas dans lesquels le nombre grammatical n’est pas très clair, le choix du nombre du
verbe semble être déterminé par le nombre conceptuel du SN sujet. Ceci peut par exemple arriver
après des noms collectifs (« The United Nations is / are headquartered in New York City », voir Bock
et Miller, 1991, p. 49). La même hypothèse vaut pour des SN complexes qui comportent une quantificateur comme les expressions « Eine Anzahl Filme » ou « Eine Menge Äpfel » en allemand (voir
Schiefers et van Kampen, p. 208). De tels cas limites ne seront pas traités dans ce paragraphe, qui
portera uniquement sur des cas dans lesquels le nombre grammatical n’est pas ambigu.
9
Le modèle interactif le plus connu est sans doute celui de Sternberger (1985). Il existe aussi des
modèles plus récents qui ont des points en commun avec les modèles interactifs et selon lesquels
l’établissement de l’accord est un processus de constraint satisfaction qui peut être influencé par des
informations de tout type (voir p. e. Haskell et MacDonald, 2003).
12
pected to arise within any processing system that is sensitive to correlated features in the language, as in various connectionist models of language processing. (Bock et Eberhard, 1993,
p. 59).
Certes, cette règle en elle-même ne pourrait pas expliquer la totalité des phénomènes
liés à l’accord sujet-verbe, mais comprise comme une règle qui agirait en interaction
avec d’autres, sa vérification empirique semble utile. Bock et Eberhard ont testé si
des noms locaux au singulier qui ressemblaient morphologiquement à des noms au
pluriel (mots dits pseudo-pluriel, p. e. course en anglais) provoquaient plus de productions de verbes au pluriel que de noms au singulier qui ne ressemblaient pas à des
noms au pluriel (p. e. court). Elles ne trouvèrent aucune différence entre ces deux
types de noms. A titre d’exemple, le début de phrase « The player on the course »
n’était pas plus souvent complété par un verbe au pluriel que le début de phrase
« The player on the court » ; en revanche, « The player on the courts » provoquait un
nombre élevé d’erreurs d’accord. On peut donc exclure l’hypothèse selon laquelle
l’accord sujet-verbe serait un phénomène à caractère principalement morphophonologique.
Toutefois, on peut trouver des effets provenant de la forme morpho-phonologiques
des SN : Par exemple, dans une expérience en allemand menée par Schriefers et van
Kampen (1993), ceux-ci trouvèrent un nombre particulièrement élevé d’erreurs
d’accord lorsque l’article de la tête du sujet SN était ambigu quant au nombre. Vigliocco et coll. (1995) ont trouvé un effet semblable en italien. Dans leur expérience,
l’effet mismatch était particulièrement fort dans les cas où seul l’article de la tête du
SN sujet, mais non pas le nom lui-même, portait une marque de nombre nonambiguë. Franck et coll. (2003) rapportent pareillement qu’en français, les noms locaux ambigus en nombre ne provoquent pas beaucoup d’erreurs d’accord.10 Enfin,
Largy et Fayol (2001) rapportent qu’il y a moins de fautes d’accord en français écrit
si la marque du nombre du verbe n’est pas seulement graphique, mais aussi phonologique. En somme, la quantité d’indices morpho-phonologiques du nombre dans un
début de phrase semble influencer la probabilité d’une faute d’accord sur le verbe.
Cette découverte contrarie l’hypothèse selon laquelle de l’information ne peut circuler que de façon unidirectionelle dans le système de production du langage (voir
10
Ces résultats ne montrent pas forcément de différences par rapport à l’anglais, car l’article le plus
fréquemment utilisé en anglais, the, est lui aussi ambigu quant au nombre (pour une discussion plus
détaillée de cette observation, voir Schriefers et van Kampen, 1993).
13
Bock et Levelt, 1994).11
En ce qui concerne les influences conceptuelles ou sémantiques sur l’établissement
de l’accord, on avait d’abord pensé que la probabilité d’un accord fautif du verbe
avec le SN local était particulièrement élevée dans les cas où celui-ci pouvait être un
sujet plausible du verbe (voir p. e. Bock et Miller, 91). Sachant que les SN sujets sont
le plus souvent animés et concrets, Bock et Miller (1991) ont tenté de vérifier
l’hypothèse selon laquelle des SN locaux animés et concrets entraîneraient plus
d’erreurs d’accord. Elles ont utilisé dans leur expérience de manière systématique
des SN têtes et des SN locaux animé ou non-animé et concret ou abstrait, mais elles
n’ont pas pu trouver d’influence de ces variations sur le nombre de fautes d’accord.
De plus, elles ont comparé des SN dits single-token avec des SN dits multiple-token.
Single-token signifie qu’un SN se trouve lexicalement au singulier et se réfère en
effet à un seul objet, alors que multiple-token signifie qu’un SN lexicalement au singulier se réfère à plusieurs objets. Un SN single-token serait par exemple le SN « the
baby on the blankets », car il évoque l’image d’un seul bébé assis sur plusieurs couvertures. En revanche, le SN « the label on the bottles » serait un SN multiple-token,
car ici on n’imagine pas une étiquette sur plusieurs bouteilles, mais une par bouteille.
Si le plan conceptuel peut influencer l’établissement de l’accord, on devrait
s’attendre à ce que « the lable on the bottles » provoque plus d’erreurs de pluriel que
« the baby on the blankets ». Mais Bock et Miller (1991) n’ont trouvé aucune différence entre ces deux types de SN en anglais, et ce résultat a pu être confirmé par Vigliocco, Butterworth et Garrett (1996). De plus, Bock et Eberhard (1993) n’ont pas
découvert plus d’erreurs de pluriel suivant des noms collectifs comme army que
d’erreurs suivant des noms désignant des individus comme soldier. On a conclu de
tous ces résultats que l’accord est essentiellement déterminé par le nombre lexical ou
syntaxique du SN sujet.
Toutefois, les résultats établis pour l’anglais n’ont pas pu être clairement confirmés
dans d’autres langues. Par exemple, Hupet et coll. (1998) ont découvert qu’en fran-
11
D’après Vigliocco et coll. (1995), les résultats suggèrent d’abandonner le concept de
l’encapsulation de l’information dans les différentes unités de traitement. Mais Schriefers et van
Kampen (1993) font remarquer qu’on pourrait éventuellement expliquer les effets morphophonologiques par des phases dites de monitoring. Ils se réfèrent à Levelt (1989) qui postule qu’une
phrase existe comme « internal speech » avant d’être prononcée. Des fautes d’accord pourraient éventuellement être corrigées pendant cette phase de monitoring, et ce d’autant plus facilement que le
marquage morpho-phonologique serait univoque.
14
çais les SN locaux provoquent un effet mismatch plus prononcé s’ils sont des sujets
plausibles du verbe que s’ils ne le sont pas.12
Vigliocco, Butterworth et Garrett (1996) ont trouvé en espagnol une différence entre
des SN single-token et multiple-token, et le résultat a été le même pour Vigliocco,
Hartsuiker et coll. (1995) pour l’italien et pour Vigliocco, Hartsuiker et coll. (1996)
pour le français et le néerlandais. Même si dans ces expériences, l’accord restait essentiellement déterminé par le nombre lexical, et ce même pour les SN sujet multiple-token, on a trouvé de manière significative plus d’erreurs d’accord dans les
conditions multiple-token.
Il n’est pas évident comment on pourrait intégrer ces résultats dans le modèle cadre,
même si cela pouvait être possible en admettant des suppositions supplémentaires.13
Pour résumer, on peut dire que, de toute évidence, l’accord sujet-verbe n’est pas un
processus exclusivement sémantique ou conceptuel. Les résultats suggèrent plutôt
que l’accord soit établi essentiellement sur le plan lexico-syntaxique, mais que des
facteurs sémantiques ou morpho-phonologique puissent exercer une influence modulante.
2.2.4. Résumé
D’après les données examinées jusqu’ici, l’accord entre sujet et verbe est établi essentiellement sur un plan lexico-syntaxique, mais peut être influencé par des informations sémantiques et morpho-phonologiques dans certaines langues. Indépendamment de telles influences, l’établissement de l’accord peut être perturbé par des
SN qui se situent entre la tête du SN sujet et le verbe et qui n’ont pas le même nombre que le SN sujet (effet mismatch). Cet effet est particulièrement clair dans les cas
où la tête est au singulier et le SN intervenant est au pluriel. Ceci a mené à
l’hypothèse selon laquelle le singulier est le nombre pris par défaut, alors que le pluriel doit être explicitement marqué par un trait.
12
Il faut tout de même noter que ces auteurs ont augmenté la probabilité pour une confusion entre le
SN interférant et le sujet de la phrase en employant l’ordre des mots non-canonique syntagme prépositionnel-verbe-sujet.
13
voir en particulier les propositions de Vigliocco, Hartsuiker et coll. (1996), qui supposent que dans
certaines langues, l’accord n’est pas établi en accordant le nombre du verbe au celui du sujet, mais par
une spécification indépendante du nombre du verbe qui ensuite est concilié avec celui du sujet par un
processus d’unification. Cette proposition peut être intégrée dans le modèle cadre, car, selon elle, le
plan conceptuel n’influence pas directement l’établissement de l’accord, mais seulement le nombre
grammatical des SN et du verbe séparément. Parallèlement à cela, Bock et coll. ont proposé de séparer
l’étape de l’établissement du nombre grammatical de l’étape de consultation du nombre dans un modèle intitulé « marking and morphing » (voir Bock et coll., 2001).
15
Ces observations relativement bien fondées peuvent être expliquées de manière plus
ou moins satisfaisante par différents modèles de l’établissement de l’accord. Dans ce
qui suit nous allons présenter les modèles d’explication existants et exposer dans
quelle mesure ils ont pu être validés par des expériences.
2.3. Modèles d’explication
Parmi les modèles d’explication existants, on peut distinguer ceux qui se basent sur
la syntaxe de ceux qui ne se basent pas sur la syntaxe. Nous présenterons dans un
premier temps les modèles non-syntaxiques et leur fondement empirique, dans un
deuxième temps les modèles syntaxiques et leur base empirique et dans un dernier
temps le modèle basé sur l’activation qui intègre des éléments des deux courants.
2.3.1. Les modèles d’explication non-syntaxiques
Les modèles non-syntaxiques partagent l’hypothèse selon laquelle ce ne sont pas les
relations syntaxiques, mais les distances linéaires entre les éléments d’une phrase qui
sont la principale source potentielle des erreurs d’accord. Dans quelques modèles,
cette supposition est fondée psychologiquement en faisant appel à des théories de la
mémoire humaine.
2.3.1.1. Les approches basées sur la distance
Une première approche selon laquelle la simple proximité entre le nom local et le
verbe provoquerait des erreurs d’accord est celle de Francis (1986). Il explique les
erreurs par l’existence de deux règles d’accord qui s’ajoutent à la règle normative
qu’il nomme grammatical concord : notional concord et proximity concord. Selon
lui, proximity concord signifie : « agreement of the verb with a closely preceding
noun phrase in preference to agreement with the head of the noun phrase that functions as subject. » (Quirk et coll., cité d’après Francis, 1986). L’accord du verbe avec
un nom qui lui est proche serait une variante possible de l’accord avec la tête du SN
sujet, et cette variante gagnerait de plus en plus d’importance : « I believe that
proximity concord is on the increase and perhaps on the verge of being standardized. » (Francis, 1986, p. 311).
Haskell et MacDonald supposent également, mais avec d’autres explications, que la
proximité entre le nom local et le verbe est un facteur d’influence primordiale.
16
D’après eux, il existe une dite « proximity constraint » qui se développe à partir
d’informations distributionnelles :
In English, (...) , the verb and subject noun are typically adjacent (...). If agreement computations make use of this distributional information, verbs will tend to agree with the nearest
noun – a “proximity” constraint. (Haskell et MacDonald, 2002)
Ces deux approches n’expliquent pas précisément comment l’accord est établi normalement. Francis propose une explication avec la règle supposée de grammatical
concord, mais il n’explique pas comment se décide quelle règle est appliquée. Haskell et MacDonald, quant à eux, n’expliquent pas comment le système parvient dans
la plupart des cas à établir l’accord du verbe avec des têtes parfois très éloignées. Les
deux approches n’offrent pas non plus d’explication à l’asymétrie entre le singulier et
le pluriel : Pourquoi la proximité jouerait-elle un rôle avec les SN au pluriel, mais
non avec les SN au singulier ? Les approches basées sur la mémoire présentées dans
le chapitre qui suit tentent de résoudre ce problème.
2.3.1.2. Les approches basées sur la mémoire
Selon les approches basées sur la mémoire, il convient de prendre en compte non
seulement la distance entre le nom local et le verbe, mais aussi celle entre la tête du
SN sujet et le verbe. Jespersen fut le premier à suggérer que la difficulté dans
l’établissement de l’accord s’explique par le fait qu’il faut retenir le nombre du sujet
jusqu’au moment où l’on produit le verbe : « If the verb comes long after the subject,
there is not enough mental energy left to remember what was the number of the subject. » (Jespersen, 1924, p. 345).
Depuis, l’idée selon laquelle les possibilités de stocker des informations sont très
restreintes a été largement développée dans la psychologie de la mémoire. En particulier, il est souvent assumé qu’il faut faire une distinction entre une mémoire de
long terme qui a une capacité assez grande et une mémoire de travail dont la capacité
est très restreinte. Selon ce concept, des informations stockées dans la mémoire à
long terme doivent être représentées dans la mémoire de travail pour pouvoir être
utilisées dans des processus de contrôle de résolution de problèmes (voir Baddeley, 1986). On a pu montrer que lorsque la mémoire de travail est chargée, des difficultés surgissent dans la compréhension (voir p.e. Gathercole et Baddeley, 1993) et
la production du langage (voir Power, 1985).
Bock et Cutting (1992), en s’appuyant sur Jespersen et Baddeley, avancent
l’hypothèse selon laquelle plus la distance entre la tête et le verbe est grande et plus
17
les données intervenant entre les deux sont complexes, plus l’établissement correct
de l’accord est difficile :
If intervening material disrupts memory for the head noun or for its number, as a subject
postmodifier increases in length or complexity, the probability of an agreement error should
also increase. (Bock et Cutting, 1992, p. 103)
De plus, ils proposent une explication pour l’asymétrie entre le singulier et le pluriel
qui se fonde aussi sur la mémoire : Un nom au pluriel serait une charge particulièrement importante pour la mémoire de travail, parce qu’il serait plus complexe sémantiquement et morphologiquement qu’un nom au singulier :
The association (…) between agreement errors and plural postmodifiers could arise because
plurals are semantically and morphologically more complex than singulars, creating an additional drain on working memory capacity. (Bock et Cutting, 1992, p. 103)
Cette approche peut expliquer l’établissement correct et fautif de l’accord ainsi que
l’asymétrie singulier-pluriel observée.
Fayol et coll. (1994) proposent une explication alternative, mais qui se réfère uniquement à la langue écrite. En partant des approches basées sur la distance, ils supposent que l’accord entre un nom et un verbe qui le suit directement est en règle générale un processus automatique. Le nombre verbal par défaut serait le singulier ; un
nom au pluriel provoquerait automatiquement un marquage de pluriel sur le verbe
suivant :
We also assume that encountering a plural noun (…) or pronoun (…) triggers the activation
of the regular verbal plural morpheme (-nt). This activation leads to the appending of –nt to
the end of the immediately following verb. (Fayol et coll., 1994, p. 439)
Fayol et coll. supposent de plus que cet accord automatique devrait être vérifié dans
un processus de contrôle. Ce processus permettrait de vérifier si le sujet de la phrase
est identique ou non au nom qui précède directement le verbe et ainsi de corriger
d’éventuelles erreurs.14 Ceci solliciterait des ressources de la mémoire de travail et
fonctionnerait logiquement d’autant moins bien que la charge pesant sur la mémoire
de travail serait grande :
This analysis suggests that when working memory is overloaded, the processes of checking
and computing agreement can be disrupted (…) the probability for the verb to agree with the
immediately preceding noun or pronoun increases. (Fayol et coll., 1994, p. 439 sq.)
La distinction entre les processus automatiques et les processus de contrôle fournit
une bonne explication aux fait que l’accord soit correctement établi dans la plupart
des cas mais établi fautivement pour le reste. Il reste que Fayol et al (1994) ne se
14
Ceci ne veut pas dire que les formes verbales fautives sont déjà écrites et doivent être corrigées sur
le papier. Tous les processus décrits sont censés se dérouler dans une étape de planification de
l’écriture.
18
prononcent pas explicitement sur le problème de l’asymétrie entre le singulier et le
pluriel.15
2.3.2. Etudes empiriques sur les modèles non-syntaxiques
Nous avons déjà expliqué dans le paragraphe 2.3.1.1. que les modèles nonsyntaxiques qui se basent uniquement sur la distance ne peuvent pas rendre compte
de l’asymétrie entre le singulier et le pluriel. Bock et Miller (1991) ont quand même
testé l’hypothèse de Francis (1986) selon laquelle proximitiy concord serait une règle
de plus en plus appliquée. D’après Bock et Miller cela supposerait l’existence de
locuteurs pour lesquels Proximity Concord serait acceptable : « This hypothesis predicts that there should be speakers who find proximity concord acceptable and standardly use it in their speech » (Bock et Miller, 1991, p. 85). Bock et Miller n’ont
trouvé aucun indice pour l’existence de tels locuteurs dans une comparaison des résultats de locuteurs dans leur expérience et des jugement d’acceptabilité des même
locuteurs sur des phrases avec proximity concord (voir Bock et Miller, 1991, p. 85).
Néanmoins, il ne faudrait pas rejeter entièrement les modèles basés sur la distance.
Haskell et MacDonald (2002) ont montré que dans des phrases au sujet composé de
deux SN disjoints (voir (4)), il existe une tendance très nette à toujours accorder le
verbe avec le nom le plus proche.
(4) The hat or the gloves is/are red. (Haskell et MacDonald, 2002)
Ils en ont conclu que le supposé principe de proximité existe bel et bien. Hemforth et
Konieczny (2003) ont découvert le même effet en allemand. Mais ils signalent que
dans leurs phrases-tests, il n’y a pas de règle grammaticale claire qui permette de
déterminer le nombre du verbe. Ils supposent que le principe de proximité ne jouerait
plus aucun rôle dans des phrases où le nombre du verbe serait déterminé de manière
évidente. Pour étayer cette supposition, ils ont introduit dans leurs tests un nouveau
type de phrase, à savoir des phrases subordonnées allemandes dans lesquelles l’ordre
des mots est sujet-objet-verbe (voir phrase (5)). Les sujets devaient compléter ces
phrases par un auxiliaire.
15
Il y a des ressemblances évidentes entre leur conception de l’accord et celle d’Eberhard (1997). En
effet, ils supposent eux aussi que le singulier est le nombre par défaut En partant de ce postulat, il est
possible de dériver une explication pour l’asymétrie dans le cadre de leur modèle: Ils supposent que
des noms au pluriel provoquent une désinence du pluriel sur le verbe, mais ils ne supposent pas que
des noms au singulier suppriment une désinence du pluriel sur le verbe. Ils expliqueraient donc probablement l’absence d’un effet mismatch dans les conditions PS par une activation de la désinence du
pluriel par le premier nom (le sujet) qui n’est pas annulé par le deuxième nom parce que celui-ci ne
peut pas provoquer d’autres activations. Mais cette interprétation de leur approche reste bien sûr
purement spéculative.
19
(5) Es ist unwahrscheinlich, dass die Krankenschwester die Spritze vergessen __.
Dans ces phrases comme dans les phrases du type sujet-modificateur-verbe, il y a un
SN (l’objet ou le modificateur) qui se trouve entre le sujet et le verbe. Un principe de
proximité prédirait donc le même effet mismatch dans les deux types de phrase.
Mais contrairement à ce qu’ils ont observé dans les constructions sujet-modificateurverbe, Hemforth et Konieczny n’ont trouvé aucun effet mismatch après des têtes au
singulier dans des constructions sujet-objet-verbe (voir aussi paragraphe 2.3.5.1.). La
fonction syntaxique du SN local semble donc faire une différence quant aux erreurs
d’accord. Ce fait ne peut être expliqué ni par un principe de proximité ni par d’autres
approches non-syntaxiques.
Les approches basées sur la mémoire de travail ont elles aussi été examinées empiriquement. Bock et Miller (1991) ont varié dans une condition de l’expérience mentionnée plus haut la longueur des SN locaux. Elles ont comparé des débuts de phrase
comme (3) (repris ici comme (6)) et (7) :
(6) The key to the cabinets…
(7) The key to the ornate Victorian cabinets…
Dans une autre version de l’expérience elles ont intégré le nom local non pas dans un
syntagme comme dans (6) et (7), mais dans une proposition :
(8) The boy that liked the snakes…
(9) The boy that liked the colourful garter snakes…
Elles n’ont trouvé aucune différence significative entre le nombre d’erreurs après des
débuts de phrase comme (6) et (8) et celui après des débuts des phrase comme (7) et
(9). Au premier abord, ce résultat laisse penser que la mémoire de travail n’a pas
d’importance dans l’établissement de l’accord. Mais Bock et Cutting (1992) font
remarquer que la place du nom local dans un syntagme ou dans une proposition
pourrait jouer un rôle. Ces différents cas de figure n’ont pas été traités séparément
par Bock et Miller (1991). Bock et Cutting (1992) ont donc reproduit l’expérience de
Bock et Miller dans des conditions mieux contrôlées, en minimalisant les différences
entre les syntagmes locaux et les propositions locales et en dépouillant les résultats
concernant les syntagmes séparément de ceux concernant les propositions. A titre
d’illustration, voici les structures qu’ils ont comparées :
(10)
(11)
(12)
(13)
The report of the destructive fire/s …
The report of the destructive forest fire/s…
The report that they controlled the fire/s…
The report that they controlled the forest fire/s…
20
Ils ont constaté que la longueur des syntagmes avait une influence significative sur le
nombre d’erreurs d’accord produites par les sujets. Il y avait légèrement plus
d’erreurs d’accord après des syntagmes plus longs comme (11) qu’après des syntagmes moins longs comme (10). En revanche, la longueur des propositions n’avait aucune influence sur le nombre d’erreurs d’accord. En général, le nombre de fautes
était beaucoup élevé après des syntagmes qu’après des propositions. L’effet de la
longueur des syntagmes indique que la mémoire de travail semble jouer un certain
rôle dans l’établissement de l’accord. Mais il reste à savoir pourquoi les résultats
diffèrent selon la nature grammaticale du modificateur.16
Pour vérifier une fois de plus l’influence de la mémoire de travail, Bock et Cutting
(1992) ont appliqué un dénommé reading span test, développé d’après un test de
Danneman et Green (Daneman et Green, 1986, cité chez Bock et Cutting, 1992). Ce
test mesure la capacité de la mémoire de travail verbale. Dans deux expériences, ils
n’ont pas pu établir de corrélation entre les résultats de ce test et le nombre d’erreurs
d’accords ; dans une troisième expérience, la corrélation était faible. En revanche, il
existe une corrélation marquée entre les résultats du test et le nombre d’erreurs de
répétitions commises par les sujets c’est-à-dire le nombre de débuts de phrase qui
n’étaient pas répétées correctement avant d’être complétées. Il existe quelques autres
expériences dans lesquelles il n’a pas été non plus possible d’établir d’une part de
corrélation entre le nombre d’erreurs d’accord et les résultats dans le reading span
test (Bock et Miller, 1991), d’autre part entre le nombre d’erreurs d’accord et le
nombre d’erreurs de répétition (Bock et Miller, 1991, Bock et Cutting, 1992, Franck
et coll., soumis, Vigliocco et coll., 1995, Vigliocco, Hatsuiker et coll., 1996). Si l’on
s’en tient à ces expériences, les erreurs d’accord ne semblent pas être provoquées par
une surcharge de la mémoire de travail.
Fayol et coll. (1994), en revanche, montre qu’une surcharge de la mémoire peut influencer le nombre d’erreurs d’accord. Dans leur expérience, on dictait des phrases
aux sujets. Ces phrases étaient formées d’un SN complexe et d’un verbe dont la
forme du singulier et celle du pluriel étaient homophones, mais non pas homographes
(voir phrase (14)).
(14) Le chien des voisins arrive/ARRIVENT.
La moitié des sujets devait simplement écouter les phrases et les écrire ensuite dans
un cahier, en procédant phrase par phrase. L’autre moitié des sujets devait en revan16
voir aussi le paragraphe 2.3.3.1.
21
che d’abord écouter une phrase puis une liste des mots et devait ensuite écrire
d’abord la phrase et après la liste de mots dans le cahier avant d’écouter la prochaine
phrase. Cette condition créait une plus grande charge de mémoire par rapport au
premier groupe de sujets. Fayol et coll. (1994) présentèrent les phrases dans les quatre versions (SS, SP, PS et PP). Dans les deux groupes, ils observèrent des résultats
déjà connus. Mais dans le deuxième groupe, le nombre d’erreurs était systématiquement plus élevé que dans le premier groupe. Il en était conclu que la mémoire de
travail joue un rôle dans l’établissement de l’accord. (pour des résultats comparables
en français, voir Chanquoy et coll. 1996, Fayol et Got, 1991, Hupet et coll., 1996 et
Largy et coll., 1993 ; en allemand, Hemforth, Konieczny et Schimke, 2003).17
Résumé
En somme, la proximité entre le nom local et le verbe semble exercer une certaine
influence sur le nombre d’erreurs d’accord (Haskell et MacDonald, 2002; Hemforth
et Konieczny, 2003). Cette influence n’est toutefois perceptible que dans les cas où le
nombre du verbe ne peut pas être déterminé par une règle grammaticale claire (Hemforth et Konieczny, 2003).
L’influence de la mémoire de travail en général et celle de la distance entre le sujet et
le verbe n’ont pas pu être démontrées pour chaque cas de figure. Les résultats suggèrent que les limites de la mémoire de travail n’apparaissent que sous le poids d’une
charge supplémentaire à celle de la production du langage. Lorsqu’il n’y a pas de
surcharge, l’établissement de l’accord ne représente pas une charge si lourde que des
variations mineures dans les matériaux expérimentaux provoquent des effets observables dans la production langagière. Cela signifie que l’effet mismatch, qui apparaît
solidement étayé, ne peut pas être expliqué au travers d’une approche qui se base
uniquement sur la mémoire de travail, car cet effet se révèle également dans les expériences au cours desquelles la mémoire des sujets n’est pas sollicitée outre mesure.
Par ailleurs, on a observé dans les expériences que l’on vient de résumer quelques
facteurs syntaxiques, dont l’influence ne peut pas être expliquée à partir d’approches
non-syntaxiques. Pourquoi existe-t-il une différence liée aux SN modificateurs et aux
SN objets ? Comment s’explique la différence liée aux modificateurs sous forme de
propositions et ceux sous forme de syntagmes ? Les théories basées sur la syntaxe
17
Il existe encore un autre résultat qui ne peut être expliqué que par une influence de la mémoire de
travail : c’est le nombre généralement élevé des erreurs de singulier par rapport aux erreurs de pluriel.
Cette observation est très importante pour le modèle basé sur l’activation et sera ainsi exposée dans le
paragraphe 2.3.6.
22
qui seront exposées dans le prochain paragraphe essaient de rendre compte des ces
observables.
2.3.3. Les modèles d’explication syntaxiques
Les modèles d’explication basés sur la syntaxe ont deux points en commun : premièrement, la conception selon laquelle ce ne sont pas les distances linéaires, mais les
relations syntaxiques entre les éléments d’une phrase qui déterminent la probabilité
des erreurs d’accord. Deuxièmement, ils proclament qu’une phrase est transformée
avant de prendre sa forme de surface et qu’il est nécessaire de prendre en compte les
structures profondes afin de comprendre l’établissement de l’accord.
2.3.3.1. Clausal Packaging
Comme nous l’avons mentionné ci-dessus, il est important pour Bock et Cutting
(1992) de savoir si le SN local se trouve dans un syntagme modificateur ou dans une
proposition modificatrice (voir phrase (10) à (13)). Ils se réfèrent en cela au modèle
cadre de la production du langage, selon lequel les propositions sont les unités centrales de la production (voir paragraphe 2.1.). Ils affirment que les propositions sont
traitées séparément les une des autres, et ce même dans des phrases complexes qui
présentent un enchâssement dans la structure de surface.
La phrase « The report that they controlled the fires was accurate. » consisterait donc
en deux unités de l’encodage fonctionnel (« The report was accurate » et « they
controlled the fire »), tandis que la phrase « The report about the dangerous forest
fires was accurate.» ne consisterait qu’en une unité de traitement. Comme l’accord
sujet-verbe s’effectue, toujours selon le modèle cadre, à l’intérieur des unités de
l’encodage fonctionnel (Bock et Levelt, 1994), les éléments de la même unité devraient pouvoir interférer avec l’établissement de l’accord beaucoup plus facilement
que ne le feraient ceux d’une autre unité (hypothèse intitulée clausal packaging) :
This clausal packaging (...) partially insulates the information in one clause from the information in another. Since agreement is clause-bounded, the implication is that information from
one clause should be unlikely to interfere with the specification of agreement in another
clause. (Bock et Cutting, 1992, p. 104)
Contrairement aux approches non-syntaxiques, cette théorie prédit correctement les
résultats de Bock et Cutting (1992) que nous rappelons ici : Il y a plus d’erreurs
d’accord après des syntagmes modificateurs, donc des éléments de la même proposition que la proposition matrice, qu’après des propositions modificatrices, et cela in-
23
dépendamment de la longueur, de la complexité ou du contenu des éléments en question.
2.3.3.2. Feature Percolation
Clausal Packaging n’est cependant pas la seule approche basée sur la syntaxe qui
puisse expliquer la différence liée aux syntagmes et aux propositions que nous venons d’évoquer. Nicol et ses collaborateurs (Nicol, Forster et Veres, 1997, Vigliocco
et Nicol, 1998) proposent une explication alternative qu’ils ont développée à partir de
l’Incremental Procedural Grammar (Kempen et Hoenkamp, 1987).
L’accord en nombre dans l’ Incremental Procedural Grammar
L’Incremental Procedural Grammar (IPG) se réfère explicitement au modèle cadre
décrit plus haut tout en développant considérablement la description du plan de
l’encodage grammatical. D’après Kempen et Hoenkamp, ce plan comporte
l’armature d’un arbre syntaxique formé par différentes procédures. Ces procédures
peuvent produire des constituants, établir des relations entre des constituants et actionner d’autres procédures. Par exemple, la procédure S (pour sentence) peut actionner entre autres les procédures SUBJECT et OBJECT. La procédure SUBJECT
peut ensuite actionner la procédure NP (noun phrase). Quelques unes de ces procédures peuvent aussi former des traits, comme le trait [+plural]. Ces traits peuvent
circuler dans l’arbre grâce aux procédures. Ainsi, le trait de pluriel de la tête du SN
sujet est transmis jusqu’à la projection la plus haute du SN sujet (nœud indiqué par
NP’ dans la figure 2 en bas). Ensuite, le trait est passé à la procédure S qui le passe à
la procédure V (verb) qui le passe ensuite au verbe conjugué (voir Kempen et Hoenkamp, 1987, p. 210 sq.).18 Il est d’ailleurs important de noter que tous ces processus
ont lieu pendant l’encodage fonctionnel et donc avant l’établissement définitif de
l’ordre des mots (voir ibidem, p. 231 sq.)
Le mécanisme de ‘feature percolation’
En partant de l’IPG, Nicol et ses collaborateurs supposent que les erreurs d’accord
dans la condition SP (voir. p. e. phrase (3b), „The key to the cabinets“) se produisent
parce que le trait de pluriel du nom local est accidentellement transmis trop haut dans
18
Au lieu de cela on pourrait aussi postuler un processus d’unification entre les traits du verbe et du
SN sujet à travers la procédure S (voir Vigliocco, Hartsuiker et coll. (1996) pour une telle adaptation
de l’IPG.)
24
l’arbre et est donc utilisé pour la spécification du nombre du verbe (feature percolation) : « Features for the mismatching local noun would be mistakenly passed to the
highest SN projection from which they could interfere with agreement computation »
(Vigliocco et Nicol, 1998, p. B17). Vigliocco et Nicol supposent à l’instar
d’Eberhard (1997), qu’un nom au singulier ne possède pas de trait marqué et ne peut
donc pas déclencher le mécanisme décrit. Dans ce cas, le nombre reste sous-spécifié
et il est produit un verbe au singulier par défaut : « If the head noun is singular, it is
unmarked. No feature is transmitted to the verb. An unmarked verb is assumed to be
singular, and the singular form is produced. » (Nicol, Forster et Veres, 1997, p. 571).
Dans ce modèle, la probabilité d’une erreur d’accord dépend du nombre de nœuds
qu’un trait intervenant devrait passer à tort pour aller jusqu’à la projection la plus
haute du SN sujet. Dans la figure 2, deux cas sont illustrés. On y voit que le nom
local « books » dans la première phrase, dans laquelle le modificateur est une proposition, est plus éloigné de la plus haute projection du SN sujet en termes de nombre
de nœuds que dans la deuxième phrase, dans laquelle le modificateur est un syntagme.
Figure 2: Représentation syntaxique
de deux fragments de phrase différents. Le chemin possible d’un trait de
pluriel est indiqué par des flèches en
gras. (tiré de Vigliocco et Nicol, 1998,
p. B17)
25
Donc, selon ce modèle, la différence entre les syntagmes et les propositions quant
aux erreurs d’accord n’est pas due au fait que les propositions sont des unités de production, mais à la distance syntaxique différente entre le nom local et la projection la
plus haute du SN sujet.
En somme, cette approche explique à la fois l’asymétrie entre le singulier et le pluriel
et les effets de la distance syntaxique, et cela en partant d’une théorie psycholinguistique bien fondée. Cependant, elle a été critiquée par une autre approche syntaxique
que nous allons présenter dans ce qui suit.
2.3.3.3. Agreement and Movement
D’après Franck et coll. (soumis), les approches syntaxiques présentées jusqu’ici sont
basées sur des conceptions de la syntaxe trop simplifiées :
The proposed interpretation for the data is based on a very coarse approach to syntactic structure which does not provide the fine-grained analytical frame required to fully account for attraction. (Franck et coll., soumis, p. 7)
Leur description de l’établissement de l’accord se fonde sur les conceptions beaucoup plus détaillées de la grammaire générative, notamment sur le Minimalist Program (voir Chomsky, 1995).
L’accord en nombre en grammaire générative
D’après Chomsky (1995), la relation d’accord est établie en deux étapes que Franck
et coll. illustrent à partir de l’exemple (15) :
(15) The author has written a letter
Selon eux, une première représentation de la phrase revêt la forme suivante :
(15a) ___ [AgrS have] [VP the author written a letter ]
C’est sur ce plan que le sujet reçoit son rôle theta (rôle d’agent). Ensuite, toujours
selon ce modèle, le nœud AgrS copie les traits importants du sujet. Ceci serait possible parce que ce nœud se trouve à ce moment-là dans une relation de c-commande
avec le sujet.19 Le fait de copier les traits du sujet au nœud AgrS est appelé
l’opération AGREE. En principe, cette opération suffit pour établir la relation de
l’accord. AgrS copie les traits au verbe conjugué dans une étape ultérieure.
Dans l’étape suivante, le sujet est transporté de sa position à l’intérieur du syntagme
verbal à sa position canonique en tant que specHead d’AgrS (voir (15 b)).
19
C’est-à-dire que le sujet est dominé par un nœud sœur du nœud AgrS. Pour une explication de ce
concept et des autres concepts de la grammaire générative évoqués dans ce paragraphe, voir par
exemple Abraham (1988).
26
(15b) The author [AgrS has] [VP t written a letter ]
Cette opération s’appelle MOVE. Elle est importante parce qu’elle permet une vérification des traits d’AgrS au moment où le sujet prend la position specHead par rapport à AgrS. Si l’opération MOVE est effectuée, il y au final deux occasions pour
établir la relation d’accord.
Influences interférentes sur les opérations AGREE et MOVE
Comment explique-t-on l’influence interférente des SN locaux à partir de cette théorie? Franck et coll. supposent qu’il y a trois facteurs qui déterminent dans quel mesure un SN local peut exercer une influence interférente sur l’établissement de
l’accord20 :
1. Est-ce que le SN interférent se trouve dans une relation de précédence par
rapport au verbe au moment où l’accord est établi ?21 D’après Franck et coll.,
ceci est une condition nécessaire pour qu’il puisse y avoir un effet mismatch
provoqué par le SN local.
2. De plus, est-ce que le SN interférent se trouve dans une relation de ccommande par rapport au verbe? D’après Franck et coll., l’influence du SN
interférent devrait être plus importante dans ce cas.
3. Est-ce que l’accord est établi uniquement par l’opération AGREE, ou est-ce
que le sujet est transféré dans une position de specHead par rapport au verbe
grâce à l’opération MOVE dans la phrase en question ? Dans le deuxième
cas, la relation d’accord serait moins susceptible d’être perturbée.
A partir de ces facteurs, on peut dériver des prédictions concernant le type de phrase
dans lequel un SN local peut interférer avec l’accord sujet-verbe (voir aussi le paragraphe suivant). Mais ce schéma n’offre pas d’explications à l’asymétrie entre le
singulier et le pluriel, ce qui amène Franck et coll. (soumis) à se référer eux aussi à
l’explication d’Eberhard (1997), tout en élargissant son concept de marquage :
It has been suggested that plural nouns are better attractors because they are ‘marked’ for
number, as compared to the unmarked or default singular value. (…). Markedness appears as
a complex process that involves abstract syntactic representations but also morphological expression, these two levels requiring to be considered both from the standpoint of the interven-
20
Dans le cadre de ce mémoire, il serait trop long d’expliquer comment Frank et coll. aboutissent à
ces facteurs (pour cela, voir Franck et coll., soumis, p. 7-11). On trouvera des exemples illustrant les
différents cas dans le paragraphe suivant.
21
Ce moment peut être soit le moment de l’opération AGREE soit le moment de la vérification de
l’accord après l’accomplissement de l’opération MOVE. Les deux processus sont susceptibles d’être
perturbés.
27
ing noun and of the agreement target (the verb in the present studies). (Franck et coll., soumis, p. 24)
Cette interprétation du terme marquage semble impliquer qu’un élément non seulement puisse être marqué ou non, mais qu’il existe différents degrés de marquage.
Cette idée permet d’expliquer, dans la perspective de Franck et coll. nous semble-t-il,
les différences graduelles observables dans l’asymétrie (voir paragraphe 2.3.6.3.).
Les auteurs n’expliquent cependant pas en détail comment les différentes influences
postulées s’unissent pour déterminer le degré de marquage d’un élément.22 Mis à part
le manque de précision sur ce point, il y a tout de même un grand nombre de prédictions très précises qui peuvent être dérivées à partir de l’approche agreement and
movement. Dans le paragraphe suivant, nous allons examiner dans quelle mesure ces
prédictions ainsi que les prédictions des autres approches syntaxiques ont pu être
vérifiées.
2.3.4. Etudes empiriques sur les modèles syntaxiques
Outre les études mentionnées ci-dessus de Bock et Miller (1991) et Bock et Cutting
(1992), à l’aide desquelles l’hypothèse de clausal-packaging a été développée et vérifiée, il existe des études de Branigan (1995) et de Nicol (1995) dans lesquels cette
hypothèse a été testée en comparant des débuts de phrase contenant un modificateur
syntagmatique avec ceux contenant un modificateur phrastique. Les expériences réalisées ont à nouveau révélé moins de fautes après les propositions qu’après les syntagmes. Elles montrent donc que les facteurs syntaxiques ont une importance. Mais,
comme le soulignent Vigliocco et Nicol (1998), ces expériences ne peuvent tout de
même pas valider les hypothèses selon lesquelles, d’une part, l’accord est établi sur
le plan fonctionnel et, d’autre part, ce ne sont que les relations représentées sur ce
plan qui jouent un rôle au niveau de l’accord.
Pour tester cette hypothèse, Vigliocco et Nicol (1998) ont présenté visuellement des
SN complexes à des sujets en leur donnant l’instruction de les compléter et d’en former une phrase interrogative du type (16). Un deuxième groupe de sujets devait former des phrases déclaratives du type de la phrase (17) que l’on retrouve dans
d’autres expériences.
(16) Is the helicopter for the flight safe?
(17) The helicopter for the flight is safe.
22
Ceci est discuté de manière plus poussée chez Franck et coll. (2002). Mais la relation exacte entre
des marques „syntaxiques“ et „morphologiques“ n’y est pas non plus expliquée.
28
Vigliocco et Nicol supposent que ces deux phrases ont la même structure sur le plan
fonctionnel. Ce ne serait que pendant l’encodage positionnel que la phrase déclarative recevrait définitivement l’ordre des mots canonique tandis qu’une règle spéciale
serait appliquée à la phrase interrogative pour réaliser l’inversion entre le sujet et le
verbe (voir paragraphe 2.1. et Kempen et Hoenkamp, 1987, p. 231 sq.).
Si l’accord est en effet établi pendant l’encodage fonctionnel, on devrait trouver la
même quantité d’erreurs d’accord dans les deux groupes. Si, en revanche, l’ordre des
mots a lui aussi une certaine influence, on devrait trouver des différences entre les
deux groupes. Vigliocco et Nicol (1998) n’ont trouvé aucune différence entre les
deux groupes, ni par rapport à la quantité totale d’erreurs ni par rapport à leur répartition selon les différentes conditions. Dans les deux groupes, les résultats des autres
expériences ont été confirmés. En conclusion, ce résultat peut être interprété comme
étayant l’hypothèse de l’importance décisive de l’encodage fonctionnel. Par ailleurs,
comme cette hypothèse est étayée à la fois par l’approche de clausal-packaging et
par celle de feature-percolation, l’expérimentation ne permet pas de trancher entre
ces deux approches.
Par conséquent, Franck et coll. (2002) ont mené une expérience qui était destinée à
trancher entre ces deux approches et qui s’avéra décisive. Elles ont présenté des débuts de phrase à des sujets francophones et anglophones, débuts qui se composaient
de SN complexes qui eux-mêmes se composaient de trois SN :
(18) The computer with the programs for the experiments
D’après l’approche de clausal-packaging, on ne devrait pas trouver de différences
quant à l’influence des deux SN modificateurs : Les deux se trouvent dans la même
proposition que la tête et devraient donc être pareillement susceptibles d’interférer
sur l’accord (ce qui devrait se révéler à travers une manifestation identique de l’effet
mismatch). En revanche, d’après l’approche de feature-percolation, le deuxième SN
devrait avoir plus d’influence que le troisième : en effet, le deuxième SN est plus
proche syntaxiquement de la projection la plus haute du SN complexe, ce qui rendrait plus probable un transfert fautif de son trait de pluriel que ne l’est un transfert
du trait de pluriel du troisième SN. Les approches non-syntaxiques prédiraient
d’ailleurs ici une influence plus grande du troisième SN, étant donné qu’il se trouve
le plus proche du verbe. Mais, comme nous l’avons déjà montré plus haut, ceci ne
semble pas être un facteur décisif.
29
Dans l’expérience de Franck et coll. (2002), le deuxième SN provoque un effet mismatch beaucoup plus important que le troisième SN. Les auteurs en concluent que la
distance syntaxique entre le SN tête et le SN local joue un rôle primordial. Ceci vérifie la prédiction de l’approche de feature-percolation et falsifie celle de l’approche
de clausal-packaging.
Toutefois, Franck et coll. énumèrent d’autres résultats qui ne peuvent pas s’expliquer
par l’approche de feature-percolation. Afin de prouver la validité de leur approche
agreement and movement, ils ont examiné différentes constructions syntaxiques qui
vérifient chacune un nombre différent parmi les trois facteurs postulés par l’approche
agreement and movement (voir ci-dessus). Il s’agit des constructions suivantes :
Konstruktion VPS23 :
Konstruktion SPV :
Konstruktion SclitV :
Konstruktion OSV :
Konstruktion OVS :
(19) Telefonerà l’amica dei vicini
[Téléphonera l’amie des voisins]
(20) L’amica die vicini telefonerà
[L’amie des voisins téléphonera]
(21) Le professeur des élèves lit
(22) Le professeur les lit
(23) C’est les négociations que le ministre suspend
(24) C’est les négociations que suspend le ministre.
Les phrases sont données ici dans l’ordre de l’importance de l’effet mismatch prédit
par Franck et coll. : Dans la construction VPS, le SN modificateur ne devrait pas
provoquer d’effet mismatch, parce qu’il ne se trouve jamais dans une relation de précédence par rapport au verbe (le facteur 1 mentionné ci-dessus n’est donc pas présent). L’effet mismatch bien établi dans des phrases de construction SPV s’explique
par le fait que le SN interférent se trouve dans une relation de précédence, et cela
dans une étape cruciale de la construction de la phrase (plus précisément, au moment
où le sujet se trouve dans une position de specHead par rapport au verbe). Dans les
constructions SclitV et OSV, le nom local ne se trouve pas seulement dans une relation de précédence par rapport au verbe, mais aussi dans une relation de ccommande24, ce qui devrait renforcer l’effet mismatch (facteur 2). Les mêmes conditions sont remplies dans la construction OVS, mais l’établissement de l’accord est
rendu plus difficile, selon Franck et coll., par le fait que seule la première étape (opé-
23
Nous avons repris les abréviations proposées par Franck et coll. (soumis) pour les différentes constructions : S = SN sujet, P = SN modificateur post-posé, V = verbe, clit =pronom clitique objet,
O = SN objet
24
Dans la phrase (22) l’interférence se produit, comme dans la phrase (21), pendant la deuxième étape
de l’établissement de l’accord, tandis que dans la phrase (23), l’objet dérange la première étape, qui
est l’opération AGREE (voir Franck et coll., note 8). Les deux formes d’interférence devraient provoquer un effet mismatch.
30
ration AGREE) est réalisée.25 Ils prédisent un effet mismatch encore plus important
dans cette construction (voir Franck et coll., soumis, p. 11 - 18).
Franck et coll. ont présenté les SN complexes ainsi que le verbe à l’infinitif à leurs
sujets. Les sujets répétaient ces éléments en les arrangeantes selon la construction
demandée dans l’instruction. Un groupe donné de sujets devait toujours former la
même construction. Dans ces expériences, les prédictions que nous venons de présenter ont pu être vérifiées, ce qui a permis l’établissement de la hiérarchie suivante
entre les constructions :
VSP > SPV > SclitV / OSV > OVS (Franck et coll., soumis, p. 39)
On a trouvé le moins d’erreurs (voire quasiment aucune) dans la construction VSP
(phrase (19)), et le nombre le plus élevé (jusqu`à 31.9 %) dans la condition OVS
(phrase (24)).
Ce qui est étonnant dans ces résultats, c’est surtout le fait que le SN local provoque
moins d’erreurs dans la construction SPV (phrases (20) et (21)) que dans la construction SclitV (phrase (22)). Cet « effet d’attraction par l’objet » ne va pas dans le sens
de l’hypothèse de feature-percolation : en effet, celle-ci prédit un effet mismatch
moins important s’il est provoqué par des objets que s’il ne l’est par des modificateurs du sujet, car les premiers sont plus éloignés de la projection la plus haute du SN
sujet que les derniers.
Les résultats de Franck et coll. ne s’accordent cependant qu’en partie avec les résultats obtenus jusqu’ici. D’une part, Chanquoy et coll. (1996), Fayol et coll. (1994) et
Largy et coll. (1993) ont également trouvé un effet d’attraction par l’objet assez important en français. D’autre part, Hartsuiker et coll. (2001) ont observé en néerlandais que l’effet lié aux SN objets était moins important que celui lié aux SN modificateurs du sujet. Ils rapportent de plus les résultats d’une expérience non-publiée en
espagnol, dans laquelle des pronoms objets n’ont provoqué absolument aucun effet
mismatch (Antón-Mendez, cité chez Hartsuiker et coll., 2001). Hemforth et Konieczny (2003), pour l’allemand, n’ont eux non plus pas trouvé d’effet mismatch avec des
pronoms objets (voir ci-dessus et paragraphe 2.3.5.1).
Ni l’approche de feature-percolation ni celle de agreement and movement ne peuvent
expliquer ces différences inter-langues, de sorte que les données concernant les effets
d’attraction par l’objet dans leur ensemble ne permettent ni de rejeter ni d’accepter
définitivement une des deux approches. Il reste à savoir si l’approche de feature25
Cela est dû à l’inversion entre le sujet et le verbe.
31
percolation peut expliquer les autres résultats rapportés par Franck et coll. (soumis).
Pour l’heure, nous ne voyons pas comment l’hypothèse de feature-percolation pourrait expliquer le fait qu’il n’y pas d’effet mismatch en phrase (19), car la distance
entre le SN modificateur et la plus haute projection du SN sujet est la même dans
cette phrase que dans la phrase (20).26 Le nombre élevé de fautes d’accord dans les
constructions OSV et OVS ne peut pas non plus s’expliquer par l’hypothèse de feature-percolation sous sa forme actuelle. Ces résultats ne confirment que l’hypothèse
de agreement and movement. Une évaluation conclusive de ces données sera fournie
dans le paragraphe suivant.
Résumé
En somme, on peut constater que toutes les données qui peuvent être expliquées par
l’hypothèse de clausal-packaging (Bock et Cutting, 1992, Vigliocco et Nicol, 1998)
peuvent être aussi bien expliquées par l’hypothèse plus générale de featurepercolation. Par contre, il y a des données qui ne peuvent être expliquées que par
l’hypothèse de feature-percolation et qui ne peuvent l’être par celle de clausalpackaging (Franck et coll., 2002). Il paraît donc justifié de rejeter l’hypothèse de
clausal-packaging pour adopter l’hypothèse de feature-percolation.
En revanche, il ne paraît pas possible pour le moment de trancher entre l’hypothèse
de feature-percolation et celle de agreement and movement. Il est vrai que les données obtenues dans les constructions VSP, OVS et OSV ne peuvent pas être expliquées par l’hypothèse de feature-percolation. Mais il faut aussi prendre en considération le fait que ces résultats n’ont été chacun obtenus que dans une seule expérience.
Avant d’avoir reproduit ces expériences, il semble être trop tôt pour rejeter
l’hypothèse de feature-percolation. De plus, l’hypothèse de agreement and movement a aussi des limites. Les différences parmi les données qui concernent l’effet de
l’attraction par l’objet ne peuvent être entièrement expliquées par aucune des deux
hypothèses.
Contrairement aux approches non-syntaxiques, les deux hypothèses peuvent expliquer de manière satisfaisante pourquoi nombre d’expériences ne dévoilent aucun
signe révélant un rôle de la mémoire de travail (Bock et Miller, 1991 et Bock et Cut26
En revanche, l’hypothèse de agreement and movement peut expliquer les résultats obtenus par Vigliocco et Nicol (1998). Dans les phrases interrogatives, on observe aussi une inversion entre le sujet
et le verbe, mais Franck et coll. (soumis) supposent que cette inversion n’a lieu qu’après les deux
processus impliqués dans l’accord. En revanche, pour l’inversion libre en italien (phrase (19)), ils
supposent que le sujet ne se trouve jamais dans sa position canonique (voir Franck et coll., soumis,
p.12 sq.).
32
ting, 1992). Mais elles permettent difficilement d’expliquer d’autres effets qui montrent qu’il existe tout de même une certaine influence de la mémoire. Ceci concerne
en particulier l’accroissement du nombre d’erreurs si la mémoire est soumise à une
charge supplémentaire (Fayol et coll., 1994).27 Par ailleurs, notons que les processus
dont l’existence est postulée par les hypothèses de feature-percolation et de agreement and movement impliquent souvent une charge importante de la mémoire de
travail, car ils présupposent la représentation de structures syntaxiques parfois assez
compliquées. Les auteurs n’évoquent ni l’éventualité ni, a fortiori, la réalisation de ce
paramètre.
En conclusion, l’hypothèse de feature-percolation et celle de agreement and movement peuvent expliquer quelques résultats qui ne peuvent pas être expliqués par les
approches non-syntaxiques. Mais, si l’on reste dans l’optique des ces approches, il y
a d’autres résultats qui restent inexplicables ou contradictoires. De plus, les auteurs
n’expliquent pas comment les processus postulés s’inscrivent dans les conditions
psychologiques réelles de la production du langage, notamment en ce qui concerne
les restrictions de la mémoire de travail. Le modèle de Hemforth et Konieczny, que
nous présenterons ensuite, essaie de résoudre ce problème.
2.3.5. Le modèle basé sur l’activation de Hemforth et Konieczny
Comme le modèle basé sur l’activation (dans la suite : modèle d’activation) a été
développé à partir de données de Hemforth et Konieczny (2003) que nous n’avons
jusqu’ici que brièvement évoquées, nous résumerons d’abord ces données. Ensuite,
nous présenterons le modèle en lui-même et nous étudierons finalement dans quelle
mesure il peut être concilié avec les données exposées jusqu’ici.
2.3.5.1. Les données de base
Deux expériences réalisées par Hemforth et Konieczny (2003) représentent la base
principale du modèle d’activation. Dans ces expériences, un exercice de phrases à
compléter à l’écrit à été proposé. Les sujets ont reçu un questionnaire de phrases incomplètes avec l’instruction de les compléter en mettant un auxiliaire. Il s’agissait
dans la première expérience de phrases du type SPV (voir phrase (25)) et dans l’autre
de phrases du type SOV (voir phrase (5), reproduite ici sous (26)).
27
La possibilité d’élargir les approches en introduisant un rôle de la mémoire de travail n’est pas à
exclure. Mais jusqu’ici, cette possibilité n’a pas été réalisée.
33
(25) Die Farbe auf der Leinwand _____ trocken.
(26) Es ist unwahrscheinlich, dass die Krankenschwester die Spritze vergessen ___.
Comme dans la majorité des expériences présentées jusqu’ici, chaque phrase existait
dans quatre versions différentes (conditions SS, SP, PS et PP, voir aussi phrases (3a)
à (3d)). Les résultats pour les phrases du type SPV sont synthétisés dans la figure 3.
pourcentage d'erreurs
16,0
14,0
12,0
match
10,0
mismatch
8,0
6,0
4,0
2,0
Figure 3:
Erreurs d’accord en construction SPV
0,0
tête sg
tête pl
On observe l’effet mismatch auquel on pouvait s’attendre pour les têtes au singulier,
ainsi que l’absence de cet effet pour les têtes au pluriel (asymétrie singulier-pluriel).
Par ailleurs, on est frappé du nombre particulièrement élevé de fautes de singulier.
Le même nombre élevé de fautes de singulier se retrouve dans la construction SOV
(voir figure 4). Mais ici, il n’y a pas d’effet mismatch après les têtes au singulier
(contrairement aux résultats en français). En revanche, on observe un effet mismatch
pour les têtes au pluriel. Ces résultats ont été retrouvés dans deux autres expériences
menées par Hemforth et Konieczny (voir également Hemforth et Konieczny, 2003).
pourcentage d'erreurs
12,0
10,0
8,0
match
mismatch
6,0
4,0
2,0
Figure 4:
Erreurs d’accord en construction SOV
0,0
sujet sg
sujet pl
Au bilan, trois effets ont été observés dans ces expériences : Une tendance générale à
mettre des verbes au singulier même quand le sujet est au pluriel (donc une erreur
générale de singulier), l’effet mismatch pour les sujets au singulier dans la construc34
tion SPV, mais non dans la construction SOV, ainsi que l’effet mismatch pour les
sujets au pluriel dans la construction SOV, mais non dans la construction SPV.
2.3.5.2. Le modèle
Le modèle d’explication développé par Hemforth et Konieczny (2003) se distingue
des modèles présentés jusqu’ici surtout par le fait que la description des processus de
l’accord ne se fait pas indépendamment du paradigme expérimental dans lequel ces
processus sont étudiés. Hemforth et Konieczny décrivent en détail les processus qui
sont supposés intervenir durant l’expérience. Dans les expériences d’Hemforth et
Konieczny, ainsi que dans toutes les expériences décrites jusqu’ici, la tâche expérimentale comprend des processus de compréhension comme des processus de production : Les sujets d’expériences sont toujours confrontés avec un SN complexe, qu’ils
doivent nécessairement comprendre avant de procéder à la production du verbe.
Hemforth et Konieczny supposent que pendant la lecture d’une tête qui se trouve au
pluriel, les sujets forment un trait de pluriel pour représenter le nombre du SN, et que
les effets qu’on peut observer lors de la production du verbe peuvent être expliqués
pour une grande partie par des changements d’activation de ce trait de pluriel. Les
auteurs ne s’attendent pas à des effets similaires pour des têtes au singulier, car ils
supposent, en se basant sur Eberhard (1997), que le singulier est le nombre par défaut, et qu’il est en cela non marqué par un trait spécifique mais seulement par
l’absence du trait de pluriel.
L’erreur générale de singulier
Comme souvent dans les modèles de la mémoire humaine (voir aussi la troisième
partie de ce travail), Hemforth et Konieczny supposent que l’activation des éléments
de la mémoire baisse continuellement avec le temps. Si l’activation tombe sous un
seuil critique, l’élément en question ne peut plus être récupéré, il est donc « oublié ».
Hemforth et Konieczny se réfèrent à ce mécanisme pour expliquer l’erreur générale
de singulier : L’activation du trait de pluriel, qui est formé lors de la lecture de la tête
au pluriel, baisse pendant le traitement du reste du début de la phrase. Or, au moment
de la production du verbe, le locuteur doit encore être capable de se souvenir du trait
de pluriel. Sinon, il va produire un verbe au singulier par défaut :
When Subjects (...) are plural, the plural feature becomes activated, but its activation decays
so that it eventually gets lost by the time the verb must be produced congruently. More errors
(singulars) will hence be produced with plural Subjects because the reason to depart from the
base tendency, the plural marking, gets lost in some cases. This is true for both Subject-PP
and Subject-Object constructions followed by a verb. (Hemforth et Konieczny, 2003, p.5).
35
Hemforth et Konieczny expliquent ainsi le nombre élevé d’erreurs du singulier dans
leurs expériences par le fait que l’activation du trait de pluriel puisse tomber sous le
seuil critique.
L’effet mismatch après les sujets au singulier
Hemforth et Konieczny expliquent l’effet mismatch après les sujets au singulier en
reprenant les idées développées dans l’approche de feature-percolation. Ils supposent
que le trait de pluriel du modificateur marque fautivement tout le SN sujet :
The only way [for modifiers] to interfere with the head noun is by percolating of the plural
feature across the head, increasing the number of erroneous plural productions (Hemforth et
Konieczny, 2003, p.6).
En ce qui concerne les phrases avec la construction SOV (expérience 2), l’absence
d’un effet mismatch pour les têtes au singulier est prédite par l’approche de featurepercolation (voir aussi le paragraphe 2.3.4.): « There is no way the number marking
on the Object could percolate to the Subject of the sentence, which is a VP-external
argument. »(Hemforth et Konieczny, 2003, p.5).
La réactivation du trait de pluriel dans les constructions SOV
Comme un SN local au singulier n’est pas marqué par un trait de nombre, il ne peut
pas provoquer de feature-percolation. Il est donc tout à fait prévisible qu’il n’y ait
pas d’effet mismatch après des têtes d’un SN sujet au pluriel, comme cela a été vérifié dans la première expérience. En revanche, l’effet mismatch qui a été trouvé dans
la deuxième expérience n’est prédit par aucune des théories présentées jusqu’ici.
Hemforth et Konieczny expliquent ce résultat par un mécanisme de réactivation :
An intervening plural-Object (…) can reactivate the plural feature, so that it can be retrieved
at the verb more easily. (…) We assume that the reactivation of the plural feature is restricted
to verb arguments like Objects. Objects are directly integrated with the verb, so that their feature can interfere with those of other verb arguments. (Hemforth et Konieczny, 2003, p.5, 6).
D’après eux, l’effet mismatch après des sujets au pluriel repose ainsi sur des bases
entièrement différentes par rapport à celui qui suit des sujets au singulier : Après des
sujets au pluriel, le trait de pluriel du sujet peut être réactivé par un autre SN au pluriel, ce qui réduit l’erreur générale de singulier dans la condition PP par rapport à la
condition PS. Cette réactivation ne peut être effectuée que par des arguments du
verbe, comme l’objet, et non pas par un SN modificateur du sujet.
En somme, le modèle offre une explication aux trois effets relevés par Hemforth et
Konieczny (2003). Il intègre des éléments des approches syntaxiques et des appro36
ches non-syntaxiques. L’effet mismatch après des têtes au singulier trouve son explication dans l’approche syntaxique de feature-percolation. ; en revanche, l’erreur générale de singulier et l’effet mismatch après les sujets au pluriel en construction SOV
trouvent leur origine dans les propriétés de la mémoire de travail.
2.3.6. Le potentiel explicatif du modèle basé sur l’activation
Le modèle d’activation a été développé pour expliquer les données obtenues par
Hemforth et Konieczny (2003). Jusqu’ici, il manque à la fois une vérification empirique du modèle (voir la quatrième partie de ce travail) et une analyse détaillée de
son pouvoir explicatif pour les données déjà connues. Dans les trois paragraphes suivants, nous tenterons de mener une telle analyse. Nous chercherons d’abord à savoir
si et comment le modèle d’activation peut expliquer l’essentiel des données que nous
avons présentées jusqu’ici. Ensuite, nous examinerons de plus près si les données
connues concordent avec deux prédictions du modèle d’activation qui le distinguent
justement des autres approches : premièrement, la prédiction d’effets d’accord également pendant la compréhension, deuxièmement, la prédiction d’une erreur générale
de singulier.
2.3.6.1. Le potentiel explicatif pour les données présentées jusqu’ici
Le modèle postule que l’établissement de l’accord représente une charge pour la
mémoire de travail. Le fait qu’on n’ait trouvé que de faibles signes (parfois même
aucun) d’une corrélation entre la charge de la mémoire de travail et le nombre de
fautes d’accord (voir les résultats de Bock et Miller, 1991 et Bock et Cutting, 1992,
présenté dans le paragraphe 2.3.2.) n’est cependant pas incompatible avec ce modèle : en effet, dans ces calculs faits à partir de ces expériences, on confondrait l’effet
mismatch, sur lequel la performance de la mémoire de travail devrait avoir peu
d’effet, avec l’erreur générale de singulier (voir aussi le paragraphe suivant). Le fait
qu’on ait trouvé des influences de la mémoire de travail dans d’autres paradigmes
expérimentaux comme le fait que le nombre d’erreurs augmente généralement en
parallèle avec l’augmentation de la charge de mémoire (voir Fayol et coll., 1994 et
Hemforth, Konieczny et Schimke, 2003) se trouve évidemment en accord avec le
modèle.
Basé sur l’approche de feature-percolation, le modèle d’activation peut également
expliquer des influences de nature syntaxique. Cela concerne la différence entre les
37
syntagmes et les propositions, entre les objets et les modificateurs, entre le deuxième
et le troisième SN dans les SN composés de trois SN simples, ainsi que le fait qu’on
ait pu trouver l’effet mismatch jusque dans les phrases interrogatives dans lesquelles
le verbe occupe la première position (voir ci-dessus).28
Comme nous l’avons montré plus haut, il existe d’autres résultats que l’approche de
feature-percolation n’explique pas, notamment l’effet important de l’attraction par
l’objet en français et les résultats qui concernent les constructions VSP en italien et
OVS/OSV en français (Franck et coll., soumis). Ces résultats ne peuvent pas être
expliqués par le modèle d’activation sous sa forme actuelle. Mais étant donné que
dans le cadre proposé par ce modèle, on ne cherche pas une explication en partant
exclusivement d’une hypothétique structure profonde - contrairement à l’approche de
feature-percolation - un élargissement du modèle qui permette d’intégrer de manière
satisfaisante les effets de l’ordre des mots n’est pas à exclure.
En somme, une partie des données obtenues jusqu’ici reste en dehors du champ
d’explication de ce modèle. Mais les données fondamentales qui sont relayées par les
approches syntaxiques et non-syntaxiques peuvent être expliquées. De plus, il n’y a
pas de données qui puissent clairement invalider le modèle.
2.3.6.2. Les effets de l’accord dans la compréhension
Dans le cadre du modèle d’activation on suppose que des processus d’une grande
importance pour la production du verbe (la formation du trait de pluriel et son assignation éventuellement fautive à un nœud) ont lieu pendant la lecture du préambule,
c’est-à-dire du début de phrase.29 On peut en déduire des prédictions qui concernent
des expériences de compréhension : On devrait trouver des difficultés de compréhen-
28
Ce résultat ne peut néanmoins pas être expliqué aussi aisément par le modèle d’activation que par
l’approche de feature-percolation, parce que selon le modèle d’activation, l’ordre des mots final est
considéré comme un facteur important (voir aussi la suite du paragraphe). Mais il faut aussi prendre
en compte que dans l’expérience en question (Vigliocco et Nicol, 1998), le SN complexe a été présenté aux sujets avant que ceux-ci ne forment d’abord le verbe puis répètent le SN. Or, on peut considérer
que les processus décrits par le modèle d’activation se déroulent déjà pendant la première présentation
du préambule. Le modèle d’activation peut ainsi expliquer pourquoi il existe un effet mismatch dans
les phrases interrogatives, mais il n’explique pas bien pourquoi il n’y a aucune différence entre les
deux groupes expérimentaux.
29
Cette interprétation paraît très naturelle dans le paradigme de complètement qui est utilisé par Hemforth et Konieczny, car la lecture est directement suivie par la production du verbe. En revanche, il
reste à savoir quelles prédictions ferait le modèle d’activation pour les expériences dans lesquelles le
préambule est répété avant d’être complété. Dans ce cas, il y a deux représentations possibles de la
phrase qui sont sans doute liées entre elles : la représentation qui est formée lors de la première lecture
et celle qui est formée lors de la répétition du préambule. Le transfert du modèle d’activation sur
d’autres paradigmes sera encore discuté dans les prochains paragraphes.
38
sion après les mêmes débuts de phrase qui ont provoqué des difficultés de production
-c’est-à-dire des erreurs d’accord- dans les expériences rapportées jusqu’ici.
Nicol, Forster et Verres (1997) ont mené quelques expériences de compréhension
dans lesquelles les sujets ont dû lire une série de phrases complètes, grammaticalement correctes et qui comportaient des SN complexes comme sujets. Chaque phrase
existait dans les quatre versions bien connues (voir phrases (27a)-(27d)).
(27a)
(27b)
(27c)
(27d)
condition SS : The author of the speech is here now.
condition SP : The author of the speeches is here now.
condition PS : The authors of the speech are here now.
condition PP : The authors of the speeches are here now.
Dans une des expériences, on a présenté ces phrases mot par mot aux sujets. A chaque présentation de mot, on présentait en même temps un autre mot qui ne constituait
pas une suite acceptable de la phrase. Les sujets devaient alors décider par lequel des
deux mots la phrase devait être complétée (un paradigme appelé maze test). Ainsi
pouvait-on mesurer pour chaque mot dans quel espace de temps il était reconnu
comme étant la bonne suite de la phrase.
Dans une deuxième expérience, on a présenté les phrases en entier aux sujets, qui
devaient appuyer sur un bouton dès qu’ils les reconnaissaient comme bien formées
(il se trouvait des phrases de distraction mal formées entre les phrases expérimentales). Le tableau 1 représente l’espace de temps dont les sujets avaient en moyenne
besoin pour reconnaître que le verbe était la bonne suite de la phrase dans
l’expérience 1, et pour reconnaître que la phrase en question était bien formée dans
l’expérience 2.
Condition
Exp. 1
Exp. 2
SS
669
1920
SP
739
2044
PS
724
1995
PP
724
1994
Tableau 1 : Temps de réaction (en millisecondes) dans les différentes conditions. (tiré de Nicol, Forster et Verres, 1997, p. 576 et 577)
Comme on le voit dans ce tableau, le temps de lecture, dans les deux expériences,
différait considérablement entre la condition SS et la condition SP. Selon Nicol et
coll., les temps de lecture longs indiquent que les sujets s’attendaient à ce que le
verbe ait un autre nombre (voir Nicol et coll., 1997, p. 577).30 Des tests statistiques
ont montré que la différence entre les conditions SS et SP était significative, mais
30
Cette interprétation apparaît plausible surtout en raison du fait suivant : dans une autre expérience
avec les même débuts de phrases, mais avec des verbes non-marqués pour le nombre, on n’a plus du
tout trouvé de différences entre les quatre conditions différentes (« The author of the speech will be
well rewarded. », voir Nicol et coll., 1997, p. 579).
39
non pas celle entre les conditions PS et PP. Les auteurs constatent, dans la lignée de
ces résultats, qu’il existe un effet mismatch prononcé après les sujets au singulier
mais inexistant après les sujets au pluriel. En conclusion, les résultats de cette expérience de compréhension ressemblent beaucoup aux résultats des expériences de production. Par ailleurs, il est remarquable que les temps de lecture soient plus longs
dans les conditions PS et PP que dans la condition SS. Nicol et coll. n’abordent pas
cet aspect. Dans le cadre du modèle d’activation, nous pensons qu’il peut être interprété comme un effet de l’erreur générale de singulier : En se plaçant dans le cas où
l’activation du trait de pluriel est tombée trop bas, les sujets escomptent alors un
verbe au singulier. Au bilan, les résultats de cette expérience renforcent les hypothèses de Hemforth et Konieczny.
Les résultats des expériences de production ont également été confirmés dans
d’autres expériences de compréhension. Ainsi, Nicol, Forster et Verres (1997) ont pu
démontrer que l’effet mismatch après les sujets au singulier dépend d’une liaison
syntaxique étroite entre la tête du SN sujet et le SN local. Kail et coll. sont arrivés au
même résultat dans une expérience en français écrit (Kail et coll., 1997). L’effet
mismatch après les têtes au singulier a pu également être confirmé dans des études
dans lesquelles les temps de lecture ont été mesurés soit en présentant des phrases
mot par mot31 soit par l’observation des mouvements oculaires (voir p. e. Pearlmutter
et coll., 1999, Pearlmutter, 2000, Branigan et coll., 1995 pour l’anglais et Hölscher et
Hemforth, 2000 pour l’allemand).32 Après des têtes au pluriel, on n’a parfois pas
trouvé d’effet mismatch, ce qui correspondait à ce à quoi on s’attendait (Branigan et
al., 1995), mais on a également parfois trouvé un nombre élevé d’erreurs soit dans la
condition PS (Pearlmutter, 2000 et Hölscher et Hemforth, 2000), soit, au contraire,
dans la condition PP (Pearlmutter et al., 1999). Ce manque d’homogénéité parmi les
résultats après les têtes au pluriel se retrouve dans les expériences de production (voir
le paragraphe suivant).
31
Dans cette technique, appelée en anglais self paced reading, le temps de lecture pour chaque mot
peut être mesuré, parce que le sujet décide lui-même du moment où il veut lire le prochain mot en
appuyant sur une touche.
32
Ces études montrent de manière univoque qu’un SN au pluriel qui suit un SN sujet au singulier
présente une difficulté également pendant la lecture. Mais ils soulèvent aussi de nouvelles questions,
car cette difficulté s’est révélée de manière différente dans les différentes études: les temps de lecture
élevés concernaient soit le verbe (Pearlmutter et al., 1999, Pearlmutter, 2000), soit le nom local luimême (Branigan et al., 1995, Hölscher und Hemforth, 2001). La cause de ces variations reste à déterminer. Pour une discussion de ces questions, voir Hölscher et Hemforth (2000).
40
En somme, la ressemblance entre les résultats des expériences de compréhension et
ceux de production autorise à rapporter les effets observables lors de la production du
verbe à ceux qui se produisent pendant la compréhension du préambule.
2.3.6.3. L’existence d’une erreur générale de singulier
Le modèle de Hemforth et Konieczny prédit qu’il existe un nombre généralement
élevé d’erreurs après des têtes au pluriel. L’effet des têtes au pluriel est rarement relaté explicitement dans la littérature, mais il était aussi rarement testé. Pour cela, il
faut comparer les résultats dans les conditions PS et PP avec ceux de la condition SS.
Si, en revanche, on ne compare que la moyenne d’erreurs après des têtes au singulier
et après des têtes au pluriel, comme c’est le cas dans la plupart des expériences citées, une erreur générale de singulier après des têtes au pluriel peut être cachée par
l’effet mismatch important après des têtes au singulier dans la condition SP.
Par conséquent, nous avons analysé touts les études pertinentes pour vérifier si des
indices révélant l’existence d’une erreur générale de singulier pouvaient êtres trouvés
dans ces études. De plus, nous avons vérifié si l’asymétrie généralement supposée
entre le singulier et le pluriel se retrouve bien dans ces études, asymétrie qui devait
se manifester dans l’absence d’un effet mismatch après des têtes au pluriel. Nous
considérons comme pertinentes les études dans lesquelles des sujets au pluriel ont été
utilisés et dans lesquelles la construction utilisée était soit la construction SPV soit la
construction SOV, car les prédictions de Hemforth et Konieczny ne se réfèrent qu’à
ces ordres de mots. Les résultats sont résumés dans les tableaux 2 et 3.
Dans la construction SPV (tableau 2), le modèle de Hemforth et Konieczny prédit
une erreur générale de singulier. On ne s’attend pas à une différence entre les conditions PS et PP (pas d’effet mismatch). Dans la sixième colonne du tableau, les nombres d’erreurs dans les conditions respectives sont comparés entre eux. On peut
d’abord constater de manière globale que, dans toutes les expériences sauf une (expérience 5), plus d’erreurs ont été commises dans les conditions PP et PS que dans la
condition SS. La différence entre PP et SS ne peut pas être expliquée par un modèle
autre que le modèle d’activation.
41
langue
anglais
allemand
paradigme
complètement à l’écrit
complètement à l’écrit
erreur d. sg?33
P>S
P > S**
MM?
pp >* ps
ps = pp
allemand
complètement à l’écrit
P > S**
ps = pp
allemand
complètement à l’écrit
P > S**
ps = pp
français
français
français
français
français
sp >*ps >*ss = pp
sp >* P > ss
sp > P >* ss
sp >** P > ss
complète- pp> sp >**ps > ss
ps >*pp
ps > pp
ps >* pp
ps > pp
pp>**ps
complète- sp > P >* ss
ps > pp
complète- sp >* P > ss
ps = pp
11 Bock et Cutting, anglais
92
dictée
dictée
dictée
dictée
répétition et
ment à l’oral
répétition et
ment à l’oral
répétition et
ment à l’oral
répétition et
ment à l’oral
complète- sp >* P > ss
ps = pp
12 Vigliocco et coll., italien
95
13 Vigliocco,Butter- espagnol
worth et coll.,96
14 Vigliocco et Ni- anglais
col, 98
répétition et complétion ps > sp > pp > ss
à l’oral
répétition et complète- sp > P > ss
ment à l’oral
répétition et complète- sp > P > ss
ment à l’oral
ps > pp
étude
15 Hemforth et Konieczny, 03
16 Hemforth et coll, 03
17 Chanquoy et coll.,
96
18 Fayol et coll., 94
19 Largy et coll., 93
20 Franck et coll., soumis
paradigme
complètement à l’écrit
MM ?
ps >*
pp
ps > pp
ps > pp
1
2
3
4
5
6
7
8
étude
Branigan,95
Hemforth et Konieczny, 03
Hemforth et coll.,
03
Hölscher et coll.,
2000
Hupet et coll., 96
Fayol et coll.,94
Fayol et coll.,91
Franck et coll.,03
Franck et coll.,03
9
Franck, et et coll., français
soumis
10 Bock et Miller,91 anglais
ps > pp
ps = pp
Tableau 2 : Etudes pertinentes quant à l’erreur générale de singulier en construction SPV34
langue
allem.
allem.
complètement à l’écrit
français dictée
erreur d. sg. ?
P >** S
P >** S
sp> ps > ss > pp
français dictée
ps > sp > pp > ss ps >*pp
français dictée
ps = sp>*pp>** ss ps >*pp
français répétition et complète- P >* S
pp > ps
ment à l'oral
Tableau 3 : Etudes pertinentes quant à l’erreur générale de singulier en construction SOV
33
Dans les articles auxquels j’ai eu accès, on ne pouvait parfois pas savoir si la différence entre deux
conditions était statistiquement significative ou pas. Si cela était indiqué, nous l’avons marqué par un
astérisque pour des résultats significatifs (p ≤ 0.05), et par deux astérisques pour des résultats hautement significatifs (p ≤ 0.01). Des résultats présentés comme « significatifs » dans les études sans indication de la valeur de p ont été marqués par un astérisque. S’il était indiqué qu’une différence n’était
pas significative, cela est marqué par le signe =. Dans tous les autres cas, nos indications se basent sur
des valeurs numériques, qui étaient plus ou moins clairement distinguées. De plus, pour ne pas rendre
le tableau trop chargé, nous avons seulement énuméré le paradigme de base (répétition et/ou complètement, oral ou écrit), mais non pas d’autres variations (sans/avec surcharge de mémoire, sujets adultes/enfants, etc.). Pour des indications plus détaillées, il faut donc se rapporter aux études originelles.
Les résultats en accord avec les prédictions du modèle d’activation sont imprimés en bleu, ceux qui
sont en désaccord avec ces prédictions sont imprimés en rouge.
34
Les deux dernières colonnes indiquent l’existence de l’erreur générale de singulier et de l’effet
mismatch (MM). ss, sp, ps et pp indiquent les conditions respectives des expériences, P signifie « ps et
pp » et S signifie « ss et sp ». Le signe > signifie « plus d’erreurs que ».
42
Dans quelques études, il y a eu aussi plus d’erreurs commises dans les conditions PS
et PP que dans la condition SP (études 1 à 4), mais cela n’a pas été le cas pour
d’autres études (études 6 à 14).
D’après le modèle d’activation cela signifie que dans les quatre premières études, le
trait de pluriel tombe plus souvent sous le seuil critique que dans les autres études.
On peut trouver une explication à cela dans le paradigme expérimental utilisé : Dans
les études 6 à 14, les sujets sont confrontés deux fois avec les préambules : Dans un
premier temps, ils lisent ou entendent le préambule, avant de les répéter à l’écrit
(études 6-8) ou à l’oral (études 9-14) et de compléter la phrase. A l’inverse, dans
toutes les expériences menées par Hemforth et coll. et Branigan, le préambule a dû
être directement complété par les sujets. On pourrait supposer qu’à travers la répétition du préambule, le niveau d’activation des éléments dans la mémoire qui sont liés
au préambule est élevé, ce qui a pour conséquence que l’activation du trait de pluriel
tombe moins facilement sous le seuil critique. Grâce à cet élargissement du modèle
d’activation au paradigme de répétition et de complètement, nous pensons être en
mesure de rendre compte du manque d’homogénéité observé dans les données.
Concernant maintenant la comparaison des conditions PS et PP, on ne devrait pas,
selon le modèle d’activation, trouver de différences entre ces deux conditions. Mais
cela n’est le cas que dans six des quatorze études. En revanche, on a trouvé un effet
mismatch dans huit études, mais celui-ci était toujours moins important que l’effet
mismatch après des têtes au singulier. Dans deux études (les études 1 et 8), il y a plus
de fautes dans la condition PP que dans la condition PS. La source de ces variations
reste à déterminer. Elles s’expliquent probablement par un facteur qui n’est pas encore identifié.35
En ce qui concerne la construction SOV, l’existence d’une erreur générale de singulier se vérifie à une exception prêt (étude 17).36 Pour la comparaison des conditions
PS et PP, le modèle d’activation prédit un effet mismatch (effet de réactivation), qui
peut en effet être observé dans cinq des six études. A considérer le nombre relative35
Franck et coll. (2002) proposent entre autres des différences inter-langues comme facteur explicatif:
Dans des langues dans lesquelles l’asymétrie singulier-pluriel semble être moins prononcée qu’en
anglais (il s’agit surtout des langues romanes), le marquage des verbes comme pluriel est morphophonologiquement plus complexe qu’en anglais (où la forme du pluriel correspond tout simplement à
celle de l’infinitif). La formation facile du pluriel en anglais aurait pour conséquence qu’un locuteur
forme rarement un verbe au singulier au lieu d’un verbe au pluriel. Cela serait la base de l’asymétrie.
Mais le nombre élevé d’erreurs de singulier observé par Branigan (1995) en anglais va à l’encontre de
cette interprétation.
36
On voit qu’en français, il existe en nombre élevé d’erreurs en condition SP (effet de l’attraction par
l’objet). On ne tient pas compte ici de cet effet étant donné qu’il est déjà discuté dans les paragraphes
2.3.4 et 3.2.6.
43
ment faible d’études, ce résultat ne peut toutefois pas prétendre au statut de preuve
bien établie.
Pour conclure, on peut dire que les origines des différences entre les conditions PS et
PP ne sont pas très claires, et cela particulièrement en construction SPV. Mais
concernant ces deux conditions, une tendance vers une erreur générale de singulier se
dégage nettement, dont l’importance varie selon le paradigme expérimental.
Ce résultat cadre avec le modèle d’activation et ne peut pas être expliqué par les autres modèles.37
2.3.6.4. Résumé
En somme, le modèle d’activation peut expliquer une partie importante des données.
Mais étant donné que d’une part, il a été développé post hoc et que d’autre part, il
n’avait jusqu’ici pas été soumis à des tests empiriques, beaucoup de ces explications
restent spéculatives. Il serait bon de vérifier en particulier si l’erreur générale de singulier dépend réellement du paradigme expérimental comme cela est supposé par
Hemforth et Konieczny ; de plus, il faudrait chercher des preuves supplémentaires
étayant l’idée selon laquelle non seulement la production, mais aussi la compréhension est impliquée dans les expériences décrites. Par ailleurs, le modèle devrait être
élargi pour pouvoir expliquer encore plus de données connues. Ceci concerne tout
particulièrement certaines constructions proposées par Franck et coll. (soumis).
2.4. Résumé de l’état de la recherche
Pour conclure, nous tenterons dans ce paragraphe de résumer l’état de la recherche
sur l’accord entre sujet et verbe. Pour cela, nous donnerons une dernière vue
d’ensemble des modèles explicatifs que nous avons présentés dans le paragraphe 2.3.
en les comparant quant à leur couverture empirique.
Dans ce qui suit, nous rassemblerons les approches non-syntaxiques autour d’une
caractéristique que nous appellerons « approche de la mémoire de travail » et qui se
compose des hypothèses des approches non-syntaxiques qui ont trouvé le plus large
fondement empirique :
37
Certains auteurs ont également observé cette tendance vers une erreur générale de singulier et proposent une explication alternative: Il y aurait en général plus d’erreurs après des sujets au pluriel
qu’après des sujets au singulier, parce que les premiers seraient sémantiquement plus complexes et en
cela plus difficiles à traiter (voir Branigan, 1995, Bock et Miller, 1992 et Franck et coll., 2002). Mais
d’après cette thèse, on devrait trouver plus d’erreurs dans la condition PP que dans toutes les autres
conditions, ce qui est pourtant très rarement le cas.
44
Approche de la mémoire de travail : Il existe une tendance générale à accorder le verbe avec
le nom le plus proche, qui se manifeste surtout lorsque la mémoire de travail est surchargée
ou lorsqu’il y a une distance importante entre la tête du sujet et le verbe.
Parmi les approches syntaxiques, l’hypothèse de clausal-packaging s’est avéré trop
spécifique (voir paragraphe 2.3.4.). Les hypothèses plus générales de featurepercolation et d’agreement and movement expliquent chacune des données différentes, nous prendrons donc les deux hypothèses en compte. Enfin, nous traiterons également le modèle d’activation.
Etant donné que le modèle cadre présenté dans le paragraphe 2.1. dans ses grandes
lignes nous apparaît bien-fondé empiriquement, nous examinerons tout d’abord si ces
quatre approches concordent avec ce modèle. C’est l’approche de feature–
percolation qui s’intègre le plus facilement dans le modèle cadre, car elle est basée
directement sur les suppositions de Garrett concernant l’encodage fonctionnel et leur
développement ultérieur par Kempen et Hoenkamp (1987). L’approche de agreement
and movement peut être conciliée avec le modèle classique, mais elle élargit considérablement le niveau de l’encodage grammatical en y intégrant la grammaire générative. L’approche de la mémoire de travail et le modèle d’activation traitent l’accord
sous un autre angle de vue que le modèle cadre, sans toutefois se trouver en contradiction avec celui-ci. En somme, les quatre approches n’accordent pas la même importance au modèle cadre pour l’explication de l’accord. Mais comme aucune des
approches ne se trouve dans une contradiction évidente avec le modèle, on ne peut
pas les hiérarchiser en se basant sur ce point-là.
De la même façon, les quatre approches peuvent toutes expliquer les données de base
présentées dans le paragraphe 2.2. Chaque approche avance une explication pour
l’effet mismatch après des têtes au singulier (effet de la proximité selon l’approche
de la mémoire de travail, effet d’une percolation du trait selon l’approche de featurepercolation et du modèle d’activation, dérangement de l’opération AGREE par des
éléments qui interviennent de différentes manières selon l’approche agreement and
movement). Toutes les approches peuvent enfin expliquer l’absence fréquente d’un
effet mismatch après des têtes au pluriel, donc l’asymétrie singulier-pluriel, en intégrant chacune la proposition de Eberhard (1997). Les influences des niveaux conceptuels ou morpho-phonologiques qui ont pu être démontrées, au moins dans quelques
langues, rendent nécessaires des changements dans le modèle cadre. Ces changements ne devraient toutefois pas avoir de répercussion différentielle sur les quatre
45
approches analysées ici. En somme, les données de base ne permettent pas de trancher entre les quatre approches.
L’unique point de départ pour l’évaluation des approches est donc fourni par les
données que nous avons présentées dans le paragraphe 2.3. et qui ont été recueillies
dans le but de tester des aspects spécifiques des différentes approches. Ici se pose le
problème suivant : aucune approche n’est assez étendue pour pouvoir rendre compte
de tous les résultats du paragraphe 2.3. Dans ce qui suit, nous essaierons quand
même de donner une vue d’ensemble du pouvoir explicatif de chaque approche face
à ces données. Pour cela, nous avons résumé dans le tableau quatre les résultats les
plus importants du paragraphe 2.3. Nous avons également indiqué pour chaque approche si elle peut expliquer les données en question (✓), si elle se trouve en contradiction avec ces données (✕) ou si les données ne se trouvent pas en contradiction
avec l’approche, mais simplement hors de son champ d’explication (?).38
Nr. Effet
MT
✓
1
plus d’erreur si surcharge cognitive (2.3.2.)
2
peu/aucune corrélation entre des mesures de la mé- ✕
moire de travail et les erreurs (2.3.2.)
✕
3
différence proposition-syntagme (2.3.2.)
4
différence N2/N3 dans des constructions N1 N2 N3 ✕
(2.3.4.)
✕
5
différence SV-VS en anglais (2.3.2.)
6
peu/aucune attraction par l’objet en néerlandais et en ✕
allemand (2.3.4.)
✓
7
attraction par l’objet en français (2.3.4.)
✓
8
différence SV-VS en italien (2.3.4.)
✓
9
différence OSV-OVS en français (2.3.4.)
✕
10 erreur générale de singulier (2.3.6.)
11 influence du paradigme sur l’erreur générale de singu- ✕
lier (2.3.6.)
12 effets de l’accord dans la compréhension (2.3.6.)
?
13 effet mismatch après des têtes au pluriel en construc- ✓
tion SOV en allemand (2.3.6.)
14 parfois effet mismatch après des têtes au pluriel dans ✓
la construction SPV (2.3.6.)
FP
AM
A
✕
✕
✓
✓
✓
✓
✓
✓
✓
✓
✓
✓
✓
✓
?
✓
✕
✓
✕
✓
✕
✕
✓
✕
✓
?
?
✕
✕
✓
✕
✕
✓
?
?
?
✓
✕
✕
?
✕
✓
Tableau 4 : Vue d’ensemble du pouvoir explicatif des approches39
38
La légitimité des décisions que nous avons prises dans le tableau reste bien sûr ouverte à la discussion. Nos choix sont basés sur les réflexions exposées dans le paragraphe 2.3. Même en tenant compte
de la possibilité d’autres choix, ce tableau devrait tout de même permettre une vue d’ensemble satisfaisante du pouvoir explicatif différent des quatre approches.
39
Les indications entre parenthèse dans la colonne „effets“ se réfèrent au paragraphe de ce travail
dans lequel le résultat en question a été présenté. Les titres des quatre dernières colonnes signifient:
MT = approche de la mémoire de travail, FP = approche de feature percolation, AM = approche de
agreement and movement, A = modèle d’activation.
46
Comme l’approche de la mémoire de travail relie directement toutes les différences
aux positions linéaires des éléments de la phrase, elle ne peut pas expliquer les résultats qui montrent une influence d’éléments placés loin du verbe, ce qui concerne les
résultats énumérés dans les lignes 2 à 6 du tableau. L’erreur générale de singulier
n’est pas non plus prédite par cette approche dans sa version actuelle.
Les approches syntaxiques ne peuvent pas non plus expliquer l’existence de l’erreur
générale de singulier. De plus, elles ne proposent ni d’explication pour les effets de
la surcharge de la mémoire, ni pour l’effet de réactivation (effet mismatch) après des
têtes au pluriel en construction SOV observé par Hemforth et Konieczny (2003).
Dans le cadre de l’approche de feature-percolation, on ne peut pas non plus expliquer les effets liés à l’ordre des mots observés par Franck et coll. (soumis).
Le modèle d’activation est le plus apte à expliquer les données existantes. Les résultats qu’il ne peut pas expliquer - l’effet de l’attraction par l’objet en français ainsi que
l’effet mismatch parfois observé après des têtes au pluriel – semblent devoir être rattachés à des facteurs qui n’ont pas encore été vérifiés. Aucune des approches ne peut
expliquer pourquoi il y a un effet de l’attraction par l’objet en français, mais non pas
dans d’autres langues, et pourquoi on trouve parfois un effet mismatch après des têtes
au pluriel, mais non pas dans la plupart du temps. Au bilan, le modèle d’activation
semble couvrir un nombre important de données et, par là, présenter un intérêt à être
développé.
Pour l’élargir à des cas non couverts jusqu’ici, une précision du modèle est une
condition préalable. C’est n’est qu’à partir du moment où l’on peut donner des descriptions précises des processus importants supposés – donc surtout de la formation
du trait de pluriel et du développement de son activation – et où l’on peut identifier
l’ensemble des facteurs susceptibles d’influencer ces processus, que des élargissements du modèle, qui ne soient pas uniquement des explications post hoc des données récoltées, semblent possibles. Avant un élargissement, il faut toutefois tester
empiriquement le modèle dans sa forme actuelle. Nous entamerons ces deux projets
dans les deux prochaines parties de ce travail.
47
3. La modélisation
Dans cette partie, nous présenterons un modèle qui reproduit sur ordinateur une
grande partie des processus de l’établissement de l’accord comme postulés par le
modèle d’activation. Pour réaliser ce modèle, nous avons modélisé la réalisation de
la tâche expérimentale utilisée par Hemforth et Konieczny (2003), c’est-à-dire le
traitement de phrases allemandes dans le paradigme du complètement de phrases.
Cette modélisation cognitive a pour but de préciser le modèle d’activation, de
l’analyser quant à de possibles contradictions internes, d’ébaucher des possibilités
d’élargissement, et de poser ainsi le fondement pour des tests empiriques du modèle.
Le modèle40 a été réalisé dans le cadre de l’architecture cognitive ACT-R (Anderson
et Lebiere, 1998), que nous présenterons brièvement en début de partie. Ensuite,
nous décrirons le modèle en lui-même. Dans la discussion finale, nous chercherons
en particulier à savoir si le modèle ACT-R peut également couvrir, parmi les résultats présentés dans la deuxième partie de ce travail, ceux qui ont été obtenus dans
d’autres langues, constructions ou paradigmes que ceux actuellement modélisés.
3.1. Présentation globale d’ACT-R
ACT-R (Atomic Components of Thought – rational) est conçu par ses auteurs comme
une théorie intégrale de la cognition humaine. Cette théorie a pour but de compléter
les théories de plus en plus spécialisés qui traitent des sous-parties ou modules de la
cognition :
There has been a proliferation of proposed mental modules in attempt to account for different
cognitive functions but so far there has been no successful account of their integration.
ACT-R has evolved into a theory that consists of multiple modules but also explains how
they are integrated to produce coherent cognition. (Anderson et coll., soumis, p. 2)
Une telle approche intégrative présente l’avantage que toute hypothèse avancée dans
le cadre d’ACT-R doit nécessairement concorder avec les connaissances fondamentales issues de tous les domaines des sciences cognitives qui ont été intégrées à ACTR pendant son développement. De cette nécessité naissent des contraintes susceptibles de guider le développement des théories portant sur les différents domaines de la
cognition.
40
Dans ce qui suit nous désignerons par le terme « modèle d’activation » toujours le modèle originel
tel qu’il est décrit par Hemforth et Konieczny (2003). La réalisation du modèle d’activation en ACT-R
sera appelée « le modèle ACT-R » ou tout simplement « le modèle ».
48
La théorie ACT-R est réalisée dans une architecture qui offre un cadre à la modélisation de processus cognitifs, quel que soit le domaine des sciences cognitives dans
lequel on se situe. Les contraintes évoquées sont liées au fait que certaines parties de
l’architecture ne peuvent être changées et sont communes à tous les modèles réalisés
en ACT-R. Dans ce qui suit, nous présenterons brièvement ces parties centrales de
l’architecture.
3.1.1. La structure d’ACT-R
La figure 5 donne une vue d’ensemble de la structure d’ACT-R :
Intentional Module
(not identified)
Declarative Module
(Temporal/Hippocampus)
Goal Buffer
(DLPFC)
Retrieval Buffer
(VLPFC)
Production Rule
System
(Basal Ganglia)
Visual Buffer
(Parietal)
Manual Buffer
(Motor)
Manual Module
(Motor/Cerebellum)
Visual Module
(Occipital/etc.)
Environment
Figure 5 : L’organisation de l’information dans ACT-R 5 (adapté de : Introduction à ACT-R)
Anderson et coll. (soumis) suggèrent par ailleurs de faire correspondre aux différents
modules présupposés des régions du cerveau (comme indiqué entre parenthèse dans
la figure). Nous n’exposerons pas plus en avant cette idée, sans doute simplificatrice.
Ce qui est important dans le cadre de notre travail, c’est qu’ACT-R émet des hypothèses empiriquement fondées sur l’existence de modules, leur nature ainsi que la
coordination de leur fonctionnement respectif.
Les quatre modules les plus importants d’ACT-R41 se situent aux quatre coins de la
figure : le module intentionnel, le module déclaratif, le module visuel et le module
manuel. Les modules visuel et manuel permettent la communication du système avec
41
Il y a d’autres modules percepteurs à côté du module visuel et d’autres modules moteurs à côté du
module manuel. Mais étant donné qu’ils ne fonctionnent pas de manière fondamentalement différente
par rapport aux modules visuel ou manuel, ils ne sont pas représentés ici. Ils n’ont pas d’incidence sur
notre modèle et, à ce titre, ne seront pas traités dans ce travail.
49
l’environnement : Le système peut percevoir l’environnement par le module visuel et
l’influencer par le module manuel. Le module intentionnel permet de fixer des objectifs, et le module déclaratif, enfin, permet le stockage et la récupération du savoir
déclaratif. Par savoir déclaratif, il faut entendre un savoir sur des faits qui est accessible à la conscience. Comment fonctionne la coordination des modules, source de la
cognition cohérente ?
Chaque module a une mémoire tampon qui, à un moment donné, peut soit être vide
soit remplie par exactement un élément. Par exemple, le module intentionnel peut
déposer le but que le système s’est fixé dans la mémoire tampon destinée à cet effet
(goal buffer en anglais) ; le module visuel peut quant à lui placer des informations
sur l’objet perçu à un moment donné dans la mémoire tampon visuelle. Une autre
mémoire tampon importante est la mémoire tampon de récupération, dans laquelle se
trouve l’élément qui vient d’être récupéré de la mémoire déclarative.
Un système central de règles de production a accès aux différentes mémoires tampons. Les productions correspondent au savoir procédural du système, c’est-à-dire le
savoir de comment faire quelque chose qui, en règle générale, n’est pas conscient.
Elles prennent la forme de règles qui vérifient quelles informations sont présentes
dans les mémoires tampons et qui peuvent provoquer des changements dans les mémoires tampons (voir Anderson et coll., soumis, p. 5 sq.)
Chaque modélisation dans le cadre de ce système fonctionne en même temps sur un
niveau symbolique et sur un niveau sous-symbolique. Le niveau symbolique comprend la manipulation d’unités auxquels on peut attribuer un sens, donc les processus
de consultation et de changement dans les mémoires tampons effectués par les règles
de production que nous venons d’évoquer. Mais pour comprendre la sélection d’un
élément précis dans une mémoire tampon et d’une règle de production parmi toutes
les règles possibles, il faut prendre en compte les processus sous-symboliques. Ces
deux niveaux seront décrits de façon plus détaillée dans ce qui suit.42
3.1.2. Le niveau symbolique
Comme on l’a déjà mentionné ci-dessus, le savoir qui existe dans un modèle ACT-R
peut être reparti en un savoir déclaratif et en savoir procédural. Dans ce qui suit nous
42
Tous les détails de l’environnement de programmation que nous exposerons dans la suite sont
extraits du tutorat ACT-R et de l’introduction à ACT-R qui se trouve sur le site web d’ACT-R (voir
bibliographie). Les exemples sont tirés, sauf indication contraire, du modèle que nous présenterons
ensuite.
50
décrirons la représentation symbolique de ces deux types de savoir dans le cadre
d’ACT-R.
Le savoir déclaratif : Les chunks
Le savoir déclaratif est représenté en ACT-R sous la forme d’unités appelées chunks.
Un chunk est donc une partie de nos connaissances représentée sous la forme d’une
unité, par exemple la connaissance du fait que « Un et un égal deux ». Si nous prenons maintenant un exemple du modèle que nous présenterons ci-dessous, une telle
unité de savoir pourrait représenter la connaissance suivante : un SN que l’on vient
de lire comprend l’article « der » et le nom « Schüler ».
On peut déclarer pour chaque chunk à quel type de chunk il appartient, les types de
chunk pouvant être définis eux-même. Par exemple, la connaissance du fait « Un et
un égal deux » appartient à un type de chunk qui est défini par Anderson et coll. (voir
tutorat ACT-R, chapitre 1) et qu’ils appellent addition-fact. La connaissance des
mots dont se compose un SN est un chunk de type read-np que nous avons défini
dans notre modèle. Pour définir de types de chunk, il faut utiliser la commande
CHUNK-TYPE. Cette commande est suivie d’une liste de mots. Le premier mot désigne le nom du type de chunk, les mots suivants désignent ce qu’on appelle les slots
des chunks de ce type. Un slot est un attribut d’un chunk auquel on peut attribuer une
valeur. Pour donner un exemple, nous avons défini le type du chunk read-np de la
manière suivante :
(CHUNK-TYPE read-np det n case modifies parent state function)
Grâce à cette commande on peut créer des chunks du type read-np et attribuer des
valeurs aux attributs det, n, case, modifies, parent, state et function. La valeur d’un
slot peut elle-même être un autre chunk. Pour simplifier notre exemple, nous décrirons ici uniquement les slots det et n. Les chunks attribués à ces slots dans le modèle
sont du type lemma, défini comme suit :
(CHUNK-TYPE lemma string category)
Les chunks eux-mêmes, donc des instances concrètes d’un type de chunk donné,
peuvent être directement ajoutés au système par la commande ADD-DM (add to
declarative memory). Chaque chunk porte un nom et les valeurs différentes de ses
slots. Le premier slot, appelé is-a-slot, reçoit comme valeur le nom du type du chunk.
Avec cela il est déterminé quels autres slots existent auxquels une valeur peut être
51
attribuée. Pour illustration, le fait que « der » et « Schüler » présentent des lemmes et
qu’un SN a été lu dans lequel se trouvent ces lemmes serait traduit comme suit :
(ADD-DM (der-Schüler
isa read-np
det der
n Schüler)
(der
isa lemma)
(Schüler
isa lemma))
Les slots auxquels on n’attribue pas explicitement de valeur reçoivent la valeur
« nil ».43 Dans cet exemple, des chunks ont été attribué aux slots det et n du chunk
« der-Schüler », de sorte qu’il en résulte un réseau de chunks. Ce réseau est représenté dans la figure 6 :
„der-Schüler“
det
n
„der“
„Schüler“
Figure 6 : Réseau de chunks résultant de la lecture du SN « der Schüler »
Les chunks peuvent non seulement être déclarés dès le début, ils peuvent aussi être
crées pendant le déroulement d’un modèle. Si un type de chunk a été déclaré au début, des nouveaux chunks de ce type peuvent être formés à tout moment.
Le savoir procédural : Les productions
Comme nous l’avons mentionné ci-dessus, le savoir procédural est représenté en
ACT-R sous forme de règles de production, appelées aussi plus simplement productions. Les productions ont accès aux mémoires tampons. Une mémoire tampon peut
soit être vide soit contenir un chunk. Les productions peuvent d’une part consulter le
contenu des mémoires, d’autre part les modifier. Une production se compose d’une
série de conditions et d’une série d’actions. Pour que les actions puissent être exécutées, les conditions doivent être remplies.
On déclare des productions par la commande « p » suivie par le nom de la production
en question. Les conditions d’une production consistent en une série de tests appliquée aux mémoires tampons. Le contenu d’une mémoire tampon peut être consulté à
43
Dans la langue de programmation dans laquelle ACT-R est programmée, LISP, « nil » est
l’expression pour « faux » ou « valeur manquante ». A part d’un autre chunk et de « nil », un slot peut
aussi être occupé par une chaîne de caractères qui ne désigne pas de chunk.
52
l’aide du symbole = . Donc, par l’expression =goal, on peut consulter le contenu de
la mémoire tampon qui contient le but.
Le symbole ==> sépare la déclaration des conditions de la déclaration des actions
d’une production. Une action peut soit modifier le contenu d’une mémoire tampon
(symbole =), soit placer un nouveau chunk dans une mémoire tampon (symbole +).
Un signe d’égalité parmi les conditions lie le chunk qui se trouve dans la mémoire ou
dans le slot en question au variable qui suit le signe d’égalité. Une production
concrète pourrait avoir la forme suivante :
(p encode-det
=goal>
isa read-np
state „start“
=retrieval>
isa lemma
cat det
==>
=goal>
det =retrieval
state „det-encoded“)
En langage naturel, il s’agit de la règle suivante :
Si le but est de lire un SN, si l’on vient de commencer à poursuivre ce but, et si un chunk du
type lemma appartenant à la catégorie det vient d’être récupéré de la mémoire déclarative,
alors il faut attribuer ce chunk au slot det du but et marquer dans le but que l’article a été lu.
Un modèle ACT-R fonctionne toujours par le concours de plusieurs productions. La
production qui se trouve en action change le contenu des mémoires tampons de sorte
qu’après la fin d’une production, les conditions d’une autre production soient remplies. S’il n’y a plus aucune production qui puisse faire feu le modèle s’arrête.
3.1.3. Le niveau sous-symbolique
Le niveau sous-symbolique concerne les activations des chunks et l’utilité des productions ainsi que leurs possibles variations.
L’activation des chunks
En tant qu’unités de la mémoire déclarative, les chunks ont une certaine activation
qui change avec le temps. Une demande destinée à récupérer un chunk de la mémoire
déclarative n’aura de succès qu’a condition que l’activation du chunk en question ne
se trouve pas au-dessous d’un seuil critique et qu’il n’y ait pas d’autre chunk qui corresponde à la demande et qui ait une activation plus haute.
L’activation Ai d’un chunk i à un moment précis se compose d’une activation de
base, d’une activation associative et d’une valeur aléatoire qui s’y rajoute appelée
53
« bruit ».44 En somme, l’activation d’un chunk i à un moment précis se détermine de
la manière suivante :
A i = B i + Aassociativ e + ε
équation 1 : activation totale
(voir tutorat ACT-R, chapitre 6)
L’activation de base reflète le degré d’utilité du chunk dans le passé. L’activation
associative s’ajoute à l’activation de base si et seulement si le chunk en question a
une liaison avec le but du moment. Dans ce cas, il reçoit une activation supplémentaire de la part du but, qui reflète le fait que le but du moment et les éléments de la
mémoire qui se trouvent en relation avec celui-ci reçoivent plus d’attention que les
autres éléments de la mémoire. Enfin, le bruit ε représente une valeur qui est ajoutée
au hasard et qui est censée modéliser les fluctuations non-systématiques dans le travail de la mémoire humaine. Dans le modèle, l’activation de base est le facteur le
plus important de cette équation. On décrira donc de façon un peu plus détaillée
comment cette activation de base change avec le temps :
n
Bi = ln ∑ t −j d
équation 2 : changements de l’activation de base
j =1
(voir tutorat ACT-R, chapitre 7)
A chaque récupération j d’un chunk i, i reçoit une certaine quantité d’activation.
Dans l’équation, tj représente l’espace de temps qui est passé depuis une apparition
d’i. Plus cet espace de temps est long, plus la valeur de l’expression t −j d est petite.
Plus précisément, cette valeur se détermine selon une fonction de puissance du
temps, correspondant à l’allure à laquelle l’être humain oublie les choses (connu sous
le nom de power law of forgetting). L’importance de la baisse dans le temps dépend
du paramètre d, qui a la valeur de 0.5 par défaut. Pour déterminer l’activation d’i à un
moment donné, il faut faire la somme des activations de toutes les récupérations d’i
et la soumettre à une transformation logarithmique. Il en résulte également une fonction de puissance du temps qui correspond à l’allure à laquelle l’être humain apprend
des choses dans beaucoup de domaines (power law of learning, pour les deux fonctions de puissance ainsi qu’une discussion de l’équation 2, voir Anderson et coll.,
1999). Somme tout, l’activation de base d’un chunk est soumise à une baisse continuelle qui est interrompue à chaque nouvelle récupération du chunk. La courbe typi44
L’activation peut de plus être influencée par le degré de similarité entre le chunk et la demande
grâce à laquelle on veut récupérer celui-ci. Mais cet aspect ne joue aucun rôle dans le modèle et ne
sera donc pas traité ici.
54
que qui en résulte pour un chunk récupéré régulièrement est présentée dans la figure
7.
1.5
1.0
Activation Level
0.5
0.0
-0.5
-1.0
-1.5
0
50
100
150
200
Figure 7 : Développement de l’activation
d’un chunk récupéré régulièrement (tiré de
l’introduction à ACT-R)
Seconds
Pour résumer, on peut dire que plus la fréquence de récupération d’un chunk dans le
passé est haute et plus la dernière récupération est récente, plus son activation sera
haute.
L’utilité des productions
Le pendant procédural des activations des chunks est l’utilité des productions. Celleci joue un rôle si, dans une constellation donnée des contenus des mémoires tampons,
plusieurs productions pourraient être activées. Dans ce cas, c’est la production qui a
le plus d’utilité (U) qui fait feu. L’utilité d’une production i est déterminée par
l’équation suivante :
Ui = Pi G - Ci + ε
équation 3 : L’utilité des productions
(voir tutorat ACT-R, chapitre 8)
Dans cette équation, P désigne la probabilité avec laquelle i peut contribuer à atteindre le but. G représente la valeur du but. On en soustrait les coûts C qui vont probablement être provoqués par i. Les coûts ainsi que la valeur du but sont mesurés en
unités de temps. Finalement, on ajoute ici aussi un bruit aléatoire pour simuler des
fluctuations non-systématiques.
On peut directement attribuer des valeurs aux variables de cette équation (on peut
donc déterminer la valeur d’un but pour un modèle, les probabilités de succès ainsi
que les coûts de production). Dans un système donné, il est également possible
d’apprendre quelles sont les probabilités de succès et les coûts des différentes pro55
ductions. De la même manière que les activations de chunks changent selon leur fréquence de récupération, l’utilité des productions change avec le nombre de fois où
elles ont mené au but. On ne présentera pas ici les équations pertinentes de ce point
de vue, car ce mécanisme n’est pas utilisé dans le modèle. Ce qui est important ici,
c’est la possibilité de modéliser des priorités humaines en manipulant les paramètres
variables de l’utilité : ainsi, on modélisera le fait qu’il soit très important d’atteindre
un but par une valeur G élevée. Ceci augmentera l’influence de l’élément P*G et
avec cela l’influence de la probabilité de succès sur l’utilité d’une production. Si par
contre, l’importance du but diminue, ce sera l’influence des coûts de production,
donc C, sur l’utilité qui augmentera.
3.2. Description du modèle
Dans ce qui suit nous décrirons un modèle ACT-R qui réalise les aspects centraux du
modèle d’activation. Un modèle concret comporte toujours plusieurs parties, dont
toutes ne seront pas discutées ici : A côté du savoir déclaratif sous forme de chunks
et du savoir procédural sous forme de productions, le modèle comporte également un
code écrit en LISP qui rend possible l’interaction du modèle avec l’environnement
(c’est-à-dire la présentation au modèle de phrases expérimentales et l’enregistrement
des réactions du modèle, voir annexe I). Nous ne traiterons pas cette partie du modèle, car elle est sans rapport avec les questions d’établissement de l’accord qui nous
intéressent ici. Nous nous limiterons, après la présentation de quelques réflexions
préliminaires, à une description du modèle, d’abord au niveau symbolique en termes
de chunks et de productions, ensuite au niveau sous-symbolique nécessaire à la modélisation des effets observés par Hemforth et Konieczny (2003). Nous traiterons ici
l’influence des utilités et des activations ainsi que leur détermination en fonction de
différents paramètres.
3.2.1. Réflexions préliminaires
Le modèle d’activation de Hemforth et Konieczny (2003) prétend à une description
des processus centraux pendant l’établissement de l’accord capable d’expliquer les
résultats empiriques relatifs aux erreurs d’accord. L’apport de cette description ne
réside pas seulement dans l’explication des erreurs d’accord. Il se situe également
dans la capacité à opérer une distinction -empiriquement fondée- entre les processus
56
du traitement du langage essentiels pour l’établissement de l’accord et ceux qui ne le
sont pas.
Le modèle ACT-R se limite aux processus considérés comme essentiels pour
l’établissement de l’accord. Nous ne prétendons pas donner l’image la plus complète
possible du traitement et de la production du langage. Il nous faut ajouter que même
l’ensemble des processus qui peuvent apparaître importants dans le cadre de notre
problématique –soit parce qu’ils sont discutés par Hemforth et Konieczny, soit parce
que leur intégration présenterait un élargissement intéressant du modèle- ne peut être
modélisée et discutée dans le cadre restreint de ce travail. Notre objectif sera, dans un
premier temps, de réaliser les hypothèses centrales du modèle d’activation dans un
modèle ACT-R. Les principales possibilités d’élargissement, en particulier le transfert à la langue française, seront ensuite abordées dans les paragraphes ultérieurs.
Nous commencerons par un résumé des aspects du modèle d’activation que nous
considérons comme centraux et que nous avons à ce titre intégrés dans le modèle
ACT-R.
L’importance du paradigme expérimental
Le modèle d’activation se distingue des autres modèles d’explication que nous avons
présentés par le fait qu’il n’explique pas les processus de l’établissement de l’accord
indépendamment du paradigme expérimental dans lequel ils sont étudiés (voir paragraphe 2.3.5.2.). Pour transférer le modèle d’activation vers une modélisation cognitive, il paraît donc nécessaire de modéliser également le paradigme, c’est-à-dire la
tâche à accomplir par les sujets expérimentaux. ACT-R se prête bien à cela, parce
que les modules visuels et manuels permettent la modélisation de l’interaction avec
l’environnement. On peut ainsi donner une tâche au modèle, comme la lecture et le
complètement d’un début de phrase, et les données produites par le modèle peuvent
ensuite être directement comparées à des données obtenues par des sujets qui ont
accompli la même tâche.
Comme le modèle d’activation est basé sur la tâche de complètement utilisée par
Hemforth et Konieczny (2003), c’est cette tâche-là que nous avons modélisée. Elle
demande à la fois un effort de compréhension -lors de la lecture du début de phraseet un effort de production -lors de la production du verbe. Hemforth et Konieczny
(2003) ont travaillé sur les constructions SPV et SOV (voir ci-dessus.). De notre côté, une modélisation des deux constructions aurait été trop vaste pour pouvoir être
décrite de manière satisfaisante dans ce travail. Nous nous limiterons donc à la mo57
délisation du traitement des phrases du type SPV. Nous avons retenu cette construction parce qu’elle existe dans beaucoup de langues - contrairement à la construction
SOV qui est assez spécifique – et que, par conséquent, la portée du modèle nous apparaît plus grande avec une modélisation des phrases de ce type.
L’explication des erreurs d’accord par des processus de compréhension
Comme nous l’avons expliqué de manière détaillée dans le paragraphe 2.3.6.2., les
erreurs d’accord sont expliquées dans le cadre du modèle d’activation par des processus qui se déroulent pendant la compréhension du début de la phrase. Ceci rend
nécessaire une modélisation assez détaillée de la compréhension. Nous n’avons toutefois pas modélisé des processus de compréhension au niveau sémantique, parce que
sur la base des résultats de la recherche exposés dans le paragraphe 2.2.3., nous
considérons que l’accord est un phénomène de nature essentiellement syntaxique.45
Au bilan, notre modélisation se limitera à la récupération des lemmes du dictionnaire
mental, au traitement syntaxique et au traitement du nombre.
L’importance du traitement syntaxique résulte du fait que, dans la lignée de
l’approche de feature-percolation à laquelle le modèle se réfère, il est supposé que la
probabilité d’erreurs d’accord augmente en fonction de la proximité syntaxique entre
la tête du SN sujet et le SN intervenant. Dans des phrases du type SPV, la proximité
syntaxique entre les deux SN résulte, d’un point de vue psycholinguistique, du fait
qu’il faut rattacher le syntagme modificateur au syntagme modifié. Ce processus est
par conséquent modélisé dans le modèle ACT-R. De plus, les processus centraux du
traitement fonctionnel, qui d’après le modèle d’activation sont également
d’importance, sont modélisés.46
Quant au traitement et à la production du nombre, le modèle rend compte de
l’hypothèse de Hemforth et Konieczny (2003) –qui se fondent là sur Eberhard
45
Comme le montre également le paragraphe 2.2.3., des influences sémantiques ne sont néanmoins
pas à exclure totalement. Hemforth et Konieczny (2003) n’abordent pas la question de la nature sémantique ou syntaxique du trait de pluriel. Nous montrerons dans la dernière partie de ce travail qu’il
serait tout à fait possible d’intégrer le niveau sémantique dans la modélisation que nous allons présenter. Le niveau sémantique devrait de toute façon être intégré pour modéliser également les phrases du
type SOV, car l’effet de réactivation y est expliqué par l’anticipation du verbe qui se situe clairement
sur le niveau sémantique ou conceptuel. Quant au niveau morpho-phonologique, les informations de
ce type sont prises en compte dans la mesure où ils sont de toute évidence nécessaires à la compréhension et au traitement syntaxique. Nous ne présupposons cependant pas d’influence importante de ces
informations sur les processus d’accord et ne modélisons donc pas une telle influence.
46
On suppose en accord avec presque tous les modèles d’explication que c’est le trait de pluriel du
sujet qui est pertinent pour le nombre du verbe. Or, pour pouvoir appliquer cette règle, il faut d’abord
déterminer quel SN remplit la fonction de sujet.
58
(1997)- selon laquelle la forme du singulier représente la forme par défaut, tandis que
le pluriel est marqué par un trait.
L’influence de l’activation des éléments de la mémoire
Hemforth et Konieczny (2003) supposent que les erreurs d’accord s’expliquent par
des changements d’activation du trait de pluriel. Ceci peut facilement être modélisé
en ACT-R : tous les éléments de la mémoire déclarative ont une certaine activation
qui varie avec le temps, comme le montre la formule présentée ci-dessus. Dans le
modèle, tous les syntagmes qui ont été lus ainsi que le trait de pluriel sont soumis à
une baisse constante de leur activation, tant qu’ils ne sont pas récupérés ou connectés
avec le but. Il serait théoriquement possible d’empêcher artificiellement la baisse de
l’activation des éléments d’une phrase en formant un chunk aux slots duquel on attribue tous les éléments de la phrase qui ont été lus, et en gardant ce chunk continuellement dans la mémoire tampon du but. Un tel style de modélisation permettrait un
contrôle facile des processus de traitement. Mais si le traitement du langage se passait réellement de cette manière chez l’être humain, il serait parfaitement impossible
d’expliquer pourquoi nous commettons des fautes. Dans un tel cas de figure, en effet,
nous devrions par exemple pouvoir retenir des phrases de n’importe quelle longueur
sans jamais oublier quel était le sujet de la phrase. Vu que cela ne correspond évidemment pas à la réalité, nous avons évité un tel style de programmation. Les mots
qui sont lus et les groupes qui en sont formés deviennent des unités de la mémoire
déclarative qui doivent de nouveau être récupérés pour être rappelés.
3.2.2. Le modèle au niveau symbolique
Dans ce qui suit nous décrirons de façon plus approfondie la réalisation des hypothèses centrales du modèle d’activation que nous venons de résumer dans le paragraphe
précédent. Nous commencerons par une présentation du savoir lexical et morphologique que le modèle possède au début du traitement de la tâche. Ensuite, nous décrirons le traitement d’un début de phrase qui implique la formation de nouveaux éléments de la mémoire déclarative et qui est effectué par les productions. Nous décrirons d’abord de manière isolée les différentes parties du traitement, comme par
exemple la lecture d’un mot, pour expliquer ensuite comment ces parties sont reliées
dans le déroulement global du modèle pour permettre finalement la production du
nombre du verbe.
59
3.2.2.1. Le savoir lexical et morphologique
Comme nous l’avons expliqué plus haut, le modèle lit les débuts de phrases et les
traite à un niveau syntaxique. Le nombre de phrases différentes d’un même type qui
peuvent être traitées par le modèle dépend de son savoir lexical déclaratif. Etant donné que pour le moment, nous ne modélisons pas des effets de niveau sémantique, il
nous suffit ici de modéliser la lecture d’une seule phrase. Le modèle lit donc uniquement une phrase du type SPV, notamment la phrase (28), qui a été prise au hasard, dans les quatre versions bien connues :
(28a)
(28b)
(28c)
(28d)
SS : Die Lehrerin des Schülers __ verwundert.
SP : Die Lehrerin der Schüler __ verwundert.
PS : Die Lehrerinnen des Schülers __ verwundert.
PP : Die Lehrerinnen der Schüler __ verwundert.
Pour pouvoir lire cette phrase, le modèle est équipé d’informations supplémentaires
sur les lemmes en question. Ces informations sont représentées par des chunks des
types lemma et lemma-feature. Les chunks du type lemma ont la forme suivante (voir
aussi ci-dessus) :
(lemma category string)
Chaque chunk du type lemma a ainsi deux slots à côté du isa-slot : Le slot dénommé
string sert à stocker la forme graphique du lemme, donc une chaîne de caractères, et
le slot dénommé category sert à stocker la catégorie à laquelle appartient le lemme.
Les catégories qui peuvent apparaître dans le modèle sont l’article (det), le nom (n) et
le participe (part). Afin de pouvoir récupérer des lemmes pour tous les mots de la
phrase (28), le modèle renferme le savoir suivant :
(der isa lemma string "der" category det)
(die isa lemma string "die" category det)
(des isa lemma string "des" category det)
(Schüler isa lemma string "schüler" category n)
(Lehrerin isa lemma string "lehrerin" category n)
(Schülers isa lemma string "schülers" category n)
(Lehrerinnen isa lemma string "lehrerinnen" category n)
(verwundert isa lemma string "verwundert" category part)
De plus, certaines propriétés morphologiques des unités lexicales sont importantes
pour le traitement syntaxique. Elles sont représentées par des chunks de type lemmafeature qui ont la forme suivante :
(lemma-feature type feature det n)
60
Ces chunks de propriétés ne se réfèrent pas à des lemmes isolés, mais à des syntagmes nominaux.47 Ils ont par conséquent un slot dénommé det pour stocker l’article
du SN et un slot dénommé n pour stocker le nom du SN. Le slot dénommé type sert à
stocker l’information sur le type de la propriété (par exemple : le nombre) et le slot
feature sert à stocker l’information sur la valeur de la propriété (par exemple : le pluriel). Les informations suivantes sont présentes dans le modèle :
(plural-der-Schüler isa lemma-feature type number feature plural det der n Schüler)
(plural-die-Lehrerinnen isa lemma-feature type number feature plural det die n Lehrerinnen)
(nominativ-die-Lehrerin isa lemma-feature type case feature nom det die n Lehrerin)
(nominativ-die-Lehrerinnen isa lemma-feature type case feature nom det die n Lehrerinnen)
(genitiv-des-Schülers isa lemma-feature type case feature gen det des n Schülers)
(genitiv-der-Schüler isa lemma-feature type case feature gen det der n Schüler)
On voit que le savoir sur le cas d’un SN est représenté de manière explicite dans la
mémoire déclarative. Concernant le nombre, des chunks du type lemma-feature
n’existent que pour le pluriel. Comme le singulier est la forme par défaut, une représentation explicite de ce nombre n’est pas nécessaire.
A côté des chunks que nous venons de présenter, il existe un autre chunk qui se
trouve dans la mémoire déclarative dès le début de la procédure, à savoir un chunk de
type comprehend-sentence. Ce chunk est mis dans la mémoire tampon du but au début d’un passage du modèle par la commande GOAL-FOCUS pour rendre compte du
fait que le modèle « s’attend » à lire et à traiter une phrase. Nous exposerons dans ce
qui suit comment cela se passe exactement.
3.2.2.2. Les productions et les buts : introduction et vue d’ensemble
Les productions assurent le traitement du début de phrase et la production du verbe.
Un point important pour le bon fonctionnement du modèle à ce niveau-là est le
contrôle de l’ordre des productions. Ce contrôle est réalisé avant tout par les buts,
c’est-à-dire par les chunks qui se trouvent dans la mémoire tampon du but pendant le
déroulement du modèle.
Le contrôle que peut exercer un chunk se trouvant dans la mémoire tampon du but
trouve son origine dans le fait que chaque production a parmi ses conditions un test
du contenu de la mémoire tampon du but. Il en résulte que, pour chaque type de
47
Les chunks du type lemma-feature représentent une simplification par rapport à la réalité à plusieurs
égards : On ne suppose pas en réalité que les propriétés de groupes de mots soient directement représentées dans le dictionnaire ni que des propriétés morphologiques soient représentées au niveau de
lemmes. De plus, les propriétés en question ici, comme le cas syntaxique, ne peuvent en réalité être
déterminées de manière claire que dans un énoncé donné en utilisant aussi l’ordre des mots. Ces simplifications nous paraissent justifiables parce que les questions d’organisation du dictionnaire et de la
compréhension au niveau morphologique ne sont pas d’une grande importance pour l’établissement de
l’accord selon le modèle d’activation.
61
chunk dont les instances peuvent être mises dans la mémoire tampon du but, il n’y a
qu’un nombre restreint de productions qui présuppose parmi leur conditions ce type
de chunk et qui peut donc s’activer pendant que l’instance en question se trouve dans
la mémoire tampon du but. L’ordre des productions est de plus contrôlé par la possibilité de hiérarchiser les buts : pour cela, on déclare un slot dans le type de chunk
réservé au but superordonné du but poursuivi. De cette manière, on garde l’accès au
but superordonné et on peut le remettre dans la mémoire tampon du but dès que le
premier but est terminé. Ce slot est par convention appelé parent (voir tutorat ACTR, chapitre 9).
Dans les paragraphes suivants, nous décrirons de façon plus précise les différentes
étapes du déroulement du modèle. Pour chaque étape, nous présenterons le type de
chunk se trouvant dans la mémoire tampon du but pendant le déroulement de cette
sous-tâche précise. De plus, nous présenterons les productions qui réalisent la tâche
en question. Par souci de lisibilité, nous décrirons uniquement les fonctions des productions sans nous attarder sur leurs formes précises (mis à part celles des productions revêtant une importance majeure). Une liste de l’ensemble des productions figure dans l’annexe I. Afin de donner un aperçu de la répartition du travail entre les
différentes productions, nous avons retranscrit un déroulement du modèle dans le
tableau 5. Dans la colonne de gauche figure le type du chunk correspondant au but
poursuivi ; dans la colonne du milieu, on trouve la production qui fait feu; dans la
colonne de droite, enfin, on peut lire le mot qui est traité ou produit par le modèle.48
Dans les prochaines pages, nous décrirons dans le détail ce qui est concrètement réalisé par les différentes productions.
3.2.2.3. Le traitement lexical des syntagmes
Le traitement lexical des syntagmes est effectué en deux étapes : à un niveau inférieur, chaque mot qui est présenté au modèle est lu pour lui-même. Selon la catégorie
à laquelle appartiennent les mots en question, le modèle instancie ensuite un but superordonné qui rassemble les différents mots dans des syntagmes.
48
ACT-R produit un protocole lors de chaque déroulement du modèle. Le tableau 5 a été construit à
partir du protocole 1 de l’annexe II.
62
Nr. but
Production
1
comprehend-sentence
check-item
2
read-item
attend-item
3
read-item
retrieve-item
4
read-item
end-subgoal
5
comprehend-sentence
comprehend-sentence-start-process-np
6
process-np
start-process-np
7
read-np
start-read-np
8
read-item
attend-item
9
read-item
retrieve-item
10
read-item
end-subgoal
11
read-np
encode-n
12
read-np
encode-nominativ-np
13
process-np
start-check-plural-2
14
check-plural
search-plural-feature
15
plural-feature
no-plural
16
check-plural
stop-check-plural
17
process-np
stop-process-np
18
comprehend-sentence
search-subject-np
19
comprehend-sentence
encode-subject-np
20
comprehend-sentence
check-item
21
read-item
attend-item
22
read-item
retrieve-item
23
read-item
end-subgoal
24
comprehend-sentence
comprehend-sentence-start-process-np
25
process-np
start-process-np
26
read-np
start-read-np
27
read-item
attend-item
28
read-item
retrieve-item
29
read-item
end-subgoal
30
read-np
encode-n
31
read-np
encode-genitiv-np
32
process-np
start-search-modified-np
33
search-modified-np
search-modified-np
34
search-modified-np
encode-modified-np
35
search-modified-np
end-search-modified-np
36
process-np
start-check-plural-1
37
check-plural
search-plural-feature
38
plural-feature
search-plural-np
39
plural-feature
encode-plural-np
40
check-plural
stop-check-plural
41
process-np
stop-process-np
42
comprehend-sentence
process-modifier-np
43
comprehend-sentence
check-item
44
read-item
attend-item
45
read-item
retrieve-item
46
read-item
continue-subgoal-no-retrieval
47
read-item
attend-item
48
read-item
retrieve-item
49
read-item
end-subgoal
50
comprehend-sentence
comprehend-sentence-start-read-vp
51
read-vp
start-read-vp
52
read-item
no-more-items
53
read-vp
encode-no-more-items
54
comprehend-sentence
end-comprehend
55
comprehend-sentence
answer-plural
56
comprehend-sentence
answer-singular-2
Tableau 5 : Déroulement possible des productions dans la condition SP
mots traités/produits
die
Lehrerin
des
Schülers
__
verwundert
ist
63
La lecture de mots isolés : read-item
La lecture de mots isolés présentés au modèle peut se faire lorsque le but est constitué d’un chunk du type read-item. Comme on peut le voir dans le tableau 5, un tel but
est formulé à plusieurs moments : au début d’un déroulement du modèle et au cours
de celui-ci, plus exactement à chaque moment où le traitement d’un mot est terminé
et le traitement du mot suivant est à commencer (voir lignes 2-4, 8-10, 21-23, 27-29,
44-49 et 52). Le tableau 6 énumère les slots du type d’un chunk read-item ainsi que
les productions qui peuvent être activées lorsqu’un tel chunk représente le but poursuivi.
slots
productions
lemma, category, parent, state
attend-item
no-more-items
retrieve-item
continue-subgoal-no-retrieval
end-subgoal
Tableau 6 : Les buts du type read-item, leurs slots et les productions possibles
Lorsque le modèle lit un mot pour lequel il existe un chunk du type lemma dans sa
mémoire déclarative, la lecture se fait uniquement au travers de trois productions : La
production attend-item fait que l’attention du module visuel est concentrée sur le mot
à lire. Cette première étape permet le stockage de la forme graphique du mot dans la
mémoire tampon visuelle. Dans un deuxième temps, la production retrieve-item récupère le lemme qui correspond à cette forme de la mémoire déclarative. Finalement,
la production end-subgoal attribue le lemme au slot lemma et la catégorie du lemme
au slot category et remet ensuite le but superordonné, qui est stocké dans le slot parent, dans la mémoire tampon du but.
La production no-more-items fait feu lorsqu’il n’y a plus de mots présentés au modèle. Elle remet directement le but superordonné dans la mémoire tampon du but.
Dans le tableau 5, ligne 52, figure la trace de ce procès, qui correspond, comme nous
venons de le dire, au moment où tous les mots ont été lus et où le module visuel ne
peut plus trouver de mots nouveaux.
En revanche, la production continue-subgoal-no-retrieval fait feu dans les cas où un
mot a bien été lu, mais où il n’existe pas d’entrée correspondante dans la mémoire
déclarative. Dans le tableau 5, cette situation figure à la ligne 46. La forme graphique
qui est lue à ce moment (le signe _ ) ne correspond pas à un lemme dans la mémoire
64
déclarative du modèle. La production continue-subgoal-no-retrieval active alors la
production attend-item afin de faire porter l’attention sur le mot suivant.
En somme, le but read-item effectue la récupération du lemme et de la catégorie d’un
mot à partir de la mémoire déclarative et stocke ces informations dans deux de ses
slots.
La lecture des syntagmes nominaux : read-np
Le type de chunk read-np a déjà été présenté brièvement dans l’introduction à ACTR. Le tableau 7 donne une vue globale des slots et des productions possibles.
slots
productions
det, n, case, modifies, parent, state, function
start-read-np
encode-n
encode-nominativ-np
encode-genitiv-np
Tableau 7 : Les buts du type read-np, leurs slots et les productions possibles
Le modèle instancie des chunks de type read-np lorsqu’un lemme de la catégorie de
l’article vient d’être lu. Dans ce cas, on peut conclure que le syntagme à lire est un
syntagme nominal. La production start-read-np attribue l’article qui vient d’être lu
au slot det et instancie un nouveau but subordonné du type read-item pour déclencher
la lecture du nom (voir tableau 5, ligne 7 et ligne 27). Après la lecture du nom, le but
read-np est remis dans la mémoire tampon du but (tableau 5, lignes 11 et 30). Ensuite, la production encode-n récupère de la mémoire déclarative l’information sur le
cas syntaxique qui prend la combinaison de l’article et du nom. Cette information est
ensuite stockée dans le slot case par la production encode-nominativ-np et encodegenitiv-np respectivement. De plus, ces productions remettent le but superordonné du
chunk read-np dans la mémoire tampon du but. Dès que le chunk read-np lui-même
ne se trouve plus dans la mémoire tampon du but, il devient une unité de la mémoire
déclarative qui doit être récupérée si le modèle a besoin de « se souvenir » de ce
SN.49 Cela est le cas dans la suite du processus, où slots modifies et function entrent
en jeu (voir le paragraphe suivant).
En somme, le but read-np sert à stocker les lemmes et le cas syntaxique d’un SN.
49
Dans le cadre de la description du modèle, le terme « SN » désigne donc toujours un chunk du type
read-np, ainsi que les termes « article », « nom » etc. désignent des chunks du type read-item.
65
Le but read-vp
Le but read-vp est le pendant verbal de read-np. Il stocke les lemmes qui font partie
d’un syntagme verbal (SV). Un but de ce type est mis dans la mémoire tampon du
but dès qu’un lemme de la catégorie du participe a été lu (voir tableau 5, ligne 51).
La production start-read-vp instancie alors un but subordonné du type read-item, qui
sert en principe à rassembler les autres mots du SV. Cette étape n’est jamais terminée
avec succès dans le modèle sous sa forme actuelle : en effet, le modèle ne trouve
jamais d’auxiliaire, étant donné que celui-ci est à produire. C’est alors la production
encode-no-items qui fera feu en remettant le but superodonné dans la mémoire tampon du but.
Pour arriver à un modèle plus complet, il faudrait ajouter d’autres productions pour
pouvoir traiter des SVs complets. Mais cela n’est pas essentiel pour la modélisation
de l’accord. Les slots des buts de type read-vp et les deux productions possibles sont
résumés dans le tableau 8.
slots
productions
aux, part, parent, state, function
start-read-vp
encode-no-more-items
Tableau 8 : Les buts du type read-vp, leurs slots et les productions possibles
3.2.2.4. Le rattachement des syntagmes modificateurs
Le rattachement des syntagmes modificateurs aux syntagmes modifiés rend possible
la modélisation de la proximité syntaxique. Ce rattachement peut être effectué si un
chunk de type search-modified-np se trouve dans la mémoire tampon du but. Les
slots et les productions possibles de ce type de but sont résumés dans le tableau 9.
slots
productions
modifying, modified, parent, state
search-modified-np
encode-modified-np
end-search-modified-np
Tableau 9 : Les buts de type search-modified-np, leurs slots et les productions possibles
Un but de type search-modified-np est instancié lorsqu’un SN qui vient d’être lu
porte le cas syntaxique du génitif.50 Chaque début de phrases qui est lu est concerné
une fois (voir par exemple la ligne 33 du tableau 5).
Le rattachement du SN au génitif au SN au nominatif est réalisé au travers de trois
productions : D’abord, la production search-modified-np cherche un SN au nominatif
50
Pour l’adaptation du modèle à d’autres langues, envisagé en bas, ce mécanisme devrait être déclenché par le fait que le deuxième syntagme soit un syntagme prépositionnel.
66
dans la mémoire déclarative. Cette recherche mène à la récupération du dernier SN
au nominatif (sous la forme d’un chunk du type read-np) à avoir été lu. La production encode-modified-np désigne celui-ci au slot modified du but. Ensuite, la production end-search-modified-np récupère encore une fois le SN au génitif pour le désigner au slot modifies du chunk représentant le SN au nominatif (voir ci-dessus pour
le type de chunk read-np).
En résumé, ce but amène le SN au nominatif dans le slot modifies du SN au génitif.
3.2.2.5. La représentation et le traitement du nombre
Le nombre d’un SN à traiter est déterminé après que les buts read-np et, si nécessaire, search-modified-np ont terminé leur contribution au traitement. La représentation du nombre dans le modèle reflète l’idée selon laquelle le singulier est le nombre
par défaut, tandis que le pluriel est un trait marqué (voir paragraphe 2.2.2.). Un tel
trait de pluriel est formé lorsqu’un SN a été reconnu comme étant au pluriel.
Le but check-plural
Le but check-plural a pour seule fonction d’instancier un but subordonné du type
plural-feature après que le traitement d’un SN est par ailleurs terminé (voir tableau
5, lignes 14 et 37). Il n’a donc pas d’autres slots que le slot parent et le slot state qui
ne sert qu’à suivre le déroulement des productions (voir tableau 10). La production
search-plural-feature instancie un chunk de type plural-feature, qui est ensuite placé
dans la mémoire tampon du but lui-même. En même temps, elle provoque la recherche d’un trait de pluriel attaché au SN en question.51 Après que les productions liées
à ce nouveau but du type plural-feature ont fait feu (voir le paragraphe suivant), le
chunk du type check-plural est remis dans la mémoire tampon du but. La production
stop-check-plural place ensuite le but superordonné à celui-ci dans la mémoire tampon du but.
slots
productions
parent, state
search-plural-feature
stop-check-plural
Tableau 10 : Les buts de type check-plural, leurs slots et les productions possibles
Le but plural-feature
51
Ce chunk du type lemma-feature n’est pas à confondre avec le trait de pluriel syntaxique. Il ne s’agit
que de la connaissance d’ordre morpho-phonologique du fait qu’une forme comme par exemple „die
Schüler“ constitue une forme du pluriel. Ceci est à distinguer du pluriel syntaxique d’un SN dans un
énoncé concret.
67
Comme les chunks du type plural-feature ont un rôle essentiel dans le modèle, nous
décrirons leur structure de façon assez détaillée. Comme on le voit dans le tableau
11, un chunk de type plural-feature possède les quatre slots feature, np, parent et
state.
slots
productions
feature, np, parent, state
no-plural
search-plural-np
encode-plural-np
Tableau 11 : Les buts de type plural-feature, leurs slots et les productions possibles
Le modèle n’attribue au slot state jamais un autre chunk, mais toujours une chaîne de
caractères qui permet de suivre le déroulement de la détermination du nombre. Quant
au slot parent, il reçoit toujours le but superordonné de type ceck-plural. Ces deux
slots ne contribuent donc pas directement à la représentation du nombre.
Les slots np et feature sont les slots décisifs. Si un SN traité se trouve au pluriel, on
désigne le chunk de type read-np qui correspond à ce SN au slot np du but de type
plural-feature. Pour cela, le chunk de type read-np doit d’abord être cherché dans la
mémoire déclarative, ce qui est déclenché par la production search-plural-np. Si le
SN a été récupéré avec succès, un chunk « plural » est attribué au slot feature du
chunk plural-feature. Ce chunk n’appartient à aucun des types que nous avons définis, mais au type prédéfini chunk qui n’a pas de slots et qui est utilisé à chaque fois
qu’un chunk est instancié sans que son type ait été déclaré. La constellation qui en
résulte est présentée dans la figure 8.
„plural-feature1“
feature
np
„plural“
„read-np1“
Figure 8 : La représentation du pluriel d’un SN
Le fait qu’un SN soit au pluriel n’est donc pas représenté directement dans le chunk
du type read-np, mais sous forme d’un chunk du type plural-feature. Cette représentation du nombre rend compte de deux résultats empiriques fondamentaux :
D’une part, le fait que le nombre ne soit pas lié de façon indissociable au SN en
question. Visiblement, il arrive qu’un sujet se souvienne encore de beaucoup de propriétés d’un SN (sinon, il serait impossible de produire un verbe adapté), mais choisisse tout de même le mauvais nombre pour le verbe. Ce phénomène s’observe dans
toutes les expériences présentées dans la deuxième partie.
68
D’autre part, cette forme de représentation rend compte de tous les résultats empiriques qui soulignent la pertinence d’un marquage différentiel des deux nombres dans
le sens d’Eberhard (1997). Il n’existe pas de trait de singulier correspondant au trait
de pluriel. Un SN au singulier se distingue d’un SN au pluriel par le simple fait de ne
pas être lié à un trait de pluriel. Dans le cas où un SN examiné dans le cadre d’un but
plural-feature ne se trouveerait pas au pluriel, la production no-plural remet simplement le but superordonné du type check-plural dans la mémoire tampon du but.
3.2.2.6. Les processus de traitement superordonnés
Les buts présentés jusqu’ici ont en commun de n’avoir pas plus qu’un but subordonné. Ils ne servent pas tellement au contrôle du traitement de la phrase, mais plutôt à
l’accomplissement de sous-tâches précises. Les processus de traitement superordonnés sont effectués dans le cadre des buts process-np et comprehend-sentence. Pour
donner une vue d’ensemble des relations entre les différents buts, la figure 9 indique
tous les types de chunk qui prennent la fonction du but pendant le déroulement du
modèle ainsi que leurs relations hiérarchiques. Une flèche qui mène d’un but à un
autre indique que le dernier est un but superordonné au premier.
comprehend-sentence
process-np
read-np
read-item
search-modified-np
read-item
check-plural
read-vp
plural-feature
read-item
Figure 9 : Les buts du modèle et leurs relations hiérarchiques
On voit dans cette figure que tous les buts qui servent au traitement des syntagmes
nominaux sont rassemblés sous le but superordonné process-np. De plus, tous les
buts sont subordonnés au but comprehend-sentence. Le fonctionnement de ces deux
buts sera décrit avec plus de détail dans ce qui suit.
Le but process-np
Le fait que le but process-np ait une fonction de contrôle se reflète dans deux choses : premièrement, dans le peu de slots que possède le type chunk process-np ;
deuxièmement, dans le nombre relativement élevé de productions associées à ce type
69
(voir tableau 12). Un but de type process-np ne sert pas à stocker des informations,
mais plutôt à déclencher au bon moment les différentes étapes du traitement.
slots
productions
parent, state
start-process-np
start-search-modified-np
start-check-plural-1
start-check-plural-2
stop-process-np
Tableau 12 : Les buts de type process-np, leurs slots et les productions possibles
Comme on le voit dans la figure 9, un chunk de type process-np peut être le but superordonné de trois types de buts subordonnés possibles, qui servent tous au traitement
des SN : read-np, search-modified-np et check-plural. Un but de type process-np sert
à contrôler le fonctionnement de ces trois types de but. Un but de type process-np est
mis dans la mémoire tampon du but par un but comprehend-sentence si un article
vient d’être lu et que le syntagme à lire sera donc un syntagme nominal. La production start-process-np instancie ensuite un but subordonné de type read-np (voir tableau 5, lignes 6 et 25). Après la lecture du SN, le but de type process-np est remis
dans la mémoire tampon du but. Dans le même temps, le but read-np qui est terminé
est placé dans la mémoire tampon de récupération. Les productions peuvent ainsi
vérifier le cas du SN qui vient d’être lu, cette information étant représentée dans les
chunks de type read-np. S’il s’agit du nominatif, c’est la production start-checkplural-1 qui fait feu (voir tableau 5, ligne 13). Elle instancie un but subordonne de
type check-plural afin de déterminer le nombre du SN.
Si le dernier SN lu est au contraire un SN au génitif, c’est la production start-searchmodified-np qui fait feu afin de trouver le SN modifié (voir tableau 5, ligne 32).
Lorsque le processus de rattachement est terminé, la production start-check-plural-2
fait feu pour déterminer finalement le nombre du SN au génitif (voir tableau 5, ligne
36). Lorsqu’un but subordonné de type check-plural est terminé, la production stopprocess-np remet le but superordonné de type comprehend-sentence dans la mémoire
tampon du but.
Le but comprehend-sentence
Comme on le voit dans le tableau 13, les chunks de type comprehend-sentence ont
eux aussi peu de slots, mais en revanche beaucoup de productions associées. Cela est
d’autant plus vrai que même les slots subject et predicat ne servent pas au stockage
70
de chunks , mais indiquent seulement si le sujet et le prédicat ont oui ou non été lus
(les deux valeurs possibles de ces slots sont « nil » et la chaîne de caractères « complete »). Dans ce paragraphe, nous présenterons les six premières productions énumérées dans le tableau 13. Les cinq autres productions servent à la production du
verbe et seront traitées dans le paragraphe suivant.
slots
productions
subject, predicate, state
check-item
comprehend-sentence-start-process-np
comprehend-sentence-start-read-vp
search-subject-np
encode-subject-np
process-modifier-np
end-comprehend
answer-singular
answer-singular-2
answer-plural
answer-plural-2
Tableau 13 : Les buts de type comprehend-sentence, leurs slots et les productions possibles
Lorsqu’un tour de modèle débute - nous l’avons déjà dit plus haut - c’est un chunk de
type comprehend-sentence qui se trouve dans la mémoire tampon du but. Le slot
state de ce chunk a comme valeur la chaîne de caractères « start-check-item ». La
production check-item est la seule à pouvoir faire feu dans cette configuration. Elle
instancie un but subordonné de type read-item pour lire le premier mot (voir tableau
5, ligne 2). Cela montre d’ailleurs que les chunks du type read-item ne sont pas toujours subordonnés à des buts de type read-np ou read-vp, mais peuvent être directement instanciés par un but de type comprehend-sentence (ceci est représenté dans la
figure 9 par la flèche entre read-item et comprehend-sentence). On modélise ainsi
une forme de traitement plutôt ascendant (bottom-up) : Les buts subordonnés du type
process-np ou read-np ne sont instanciés que lorsque le premier mot de la phrase a
déjà été lu, et leur instanciation dépend de la catégorie de ce mot. Ainsi, la production comprehend-sentence-start-process-np instancie un but de type process-np, si un
article vient d’être lu, et la production comprehend-sentence-start-read-vp instancie
un but de type read-vp, si un participe a été lu. En théorie du moins, cette forme de
traitement permet, sans grandes difficultés, l’élargissement du modèle à des phrases
plus complexes.
Le traitement fonctionnel des syntagmes est également réalisé au niveau des buts de
type comprehend-sentence. La fonction d’un syntagme peut être déterminée après
que son traitement syntaxique a été terminé et que le but superordonné de type com71
prehend-sentence se trouve à nouveau dans la mémoire tampon du but. Si le syntagme en question est un syntagme nominal et que la fonction de sujet n’a pas encore
été attribuée (le slot sujet du but comprehend-sentence doit alors avoir la valeur
« nil »), on attribue la fonction de sujet au syntagme en question. Cette information
n’est pas directement inscrite dans le but superordonné de type comprehendsentence, mais dans le syntagme lui-même, c’est-à-dire dans un chunk de type readnp.52 Pour cela, le chunk en question doit d’abord être récupéré de la mémoire déclarative, ce qui est fait par la production search-subject-np. La production encodesubject-np attribue ensuite le chunk « subject » au slot function du syntagme qui
vient d’être récupéré. De plus, la chaîne de caractères « complete » est attribuée au
slot subject du but de type comprehend-sentence. Lorsque le traitement d’un autre
SN est terminé, ce SN ne reçoit plus de fonction. La production process-modifier-np
déclenche la lecture du mot suivant.53 Ici, un élargissement du modèle aux fonctions
de l’objet direct et de l’objet indirect serait facilement possible réalisable. Cet élargissement n’est pas nécessaire dans la version actuelle, car il n’existe pas de SN dans
le modèle qui remplissent ces fonctions. L’assignement de la fonction du « prédicat »
au SV est effectué par la production end-comprehend, qui fait feu dès qu’il n’y a plus
de nouveaux mots à lire. L’assignement de la fonction est réalisé à ce moment-là
parce que le SV est toujours le dernier syntagme à lire, du moins dans la version actuelle du modèle. Il s’ensuit que le modèle devrait être élargi pour pouvoir traiter des
phrases plus complexes.
3.2.2.7. La production du nombre du verbe
Les sujets expérimentaux des expériences de Hemforth et Konieczny (2003) ont eu à
produire un auxiliaire après avoir lu le début de la phrase. Dans le cadre de notre
réflexion, la partie la plus importante de cette tâche est la décision qui doit être prise
quant au nombre du verbe. Par conséquent, nous avons simplifié le modèle : seule la
sélection du nombre a été modélisée, et non pas l’ensemble des processus de la production du verbe. Comme des appuis sur des touches sont plus faciles à modéliser et
52
Cela correspond au principe que nous avons présenté dans les réflexions préliminaires selon lequel
on ne devrait pas stocker un nombre trop élevé d’informations dans des buts superordonnés.
53
En somme, c’est donc le premier des deux SN qui reçoit la fonction de sujet Ceci n’est toutefois pas
entièrement correct, parce qu’en principe, c’est le SN complexe en entier qui constitue le sujet de la
phrase. D’un autre côté, la fonction du sujet est importante dans le modèle uniquement parce que le
sujet détermine le nombre du verbe. Il nous paraît donc justifié de traiter la fonction de sujet comme
un trait caractérisant le SN qui détermine le nombre du verbe. Pour ces raisons, une distinction entre
« SN sujet » et « tête du SN sujet » ne nous paraît pas nécessaire.
72
à dépouiller que par exemple des réactions orales, la « décision » du modèle se traduit par le fait d’appuyer sur une touche : la touche « s » traduit alors une décision
pour le singulier, et la touche « p » traduit une décision pour le pluriel.54 En même
temps, les mots « ist » respectivement « sind » sont émis.55 Les cinq dernières productions du tableau 13 contribuent à former la réponse du modèle. Elles seront présentées de manière détaillée dans ce qui suit.
La première de ces productions à faire feu est la production end-comprehend, qui a la
forme suivante :
(p end-comprehend
=goal>
isa comprehend-sentence
subject "complete"
state "encode"
=retrieval>
isa read-vp
state "no-more-items"
==>
=retrieval>
function predicate
=goal>
state "answer"
predicate "complete"
+retrieval>
isa read-np
function subject)
Cette production fait feu si un but subordonné du type read-vp a été terminé (ce qui
se montre par le fait qu’il ne se trouve plus dans la mémoire du but, mais dans celle
de récupération, où chaque but terminé est placé par convention) et si la chaîne de
caractères « no-more-items » se trouve dans le slot state de ce but, ce qui signifie
qu’il n’y a plus de mots à lire.
Concernant les actions de cette production, il importe tout d’abord que le slot state
reçoive comme valeur la chaîne de caractères « answer ». Ceci permet aux productions qui produisent la réponse de faire feu. De plus, la récupération d’un chunk de
type read-np de la mémoire déclarative est provoquée par le signe +retrieval. Le slot
function de ce chunk doit avoir la valeur « subject ». Il s’agit donc du chunk read-np
qui a été formé lors de la lecture du SN sujet. La récupération de ce chunk est nécessaire pour pouvoir déterminer son nombre si besoin.
54
Une telle expérience avec des sujets humains n’aurait pas de sens, car le caractère artificiel de la
tâche brouillerait les résultats. En revanche, dans le modèle ACT-R, ce risque n’existe pas. Par ailleurs, une modélisation de l’ensemble du processus de la production du verbe n’augmenterait pas
l’intérêt du modèle, car nous partons du principe que ces processus sont sans influence sur les erreurs
d’accord.
55
« émettre » signifie ici que le mot en question apparaît dans le protocole du passage. Une émission
peut être provoquée par la commande !output! qui compte parmi les actions d’une production.
73
Il existe deux productions qui peuvent faire feu dans la situation qui émerge, answersingular et answer-plural :
(p answer-singular
=goal>
isa comprehend-sentence
state "answer"
=retrieval>
isa read-np
function subject
=manual-state>
isa module-state
modality free
==>
+manual>
isa press-key
key "s"
=goal>
state "stop"
!output! "ist")
(p answer-plural
=goal>
isa comprehend-sentence
state "answer"
=retrieval>
isa read-np
function subject
==>
+retrieval>
isa plural-feature
np =retrieval)
Au regard des conditions, il n’y pas de différence importante entre ces deux productions.56 A chaque fois qu’une des deux peut faire feu, l’autre pourrait le faire aussi.
Parmi les actions, answer-singular provoque une « décision » du modèle pour un
auxiliaire au singulier : Cela est révélé par le fait que la touche « s » est pressée (ce
qui est provoqué en mettant un chunk de type prédéfini press-key dans la mémoire
tampon manuelle). Cette production provoque une « décision » pour le singulier sans
que le nombre du SN sujet ait été vérifié.
En revanche, answer-plural déclenche la recherche d’un chunk de type pluralfeature, dont le slot np soit rempli par le chunk de type read-np qui se trouve dans la
mémoire tampon de récupération. Comme nous venons de l’expliquer ci-dessus, le
SN qui est représenté par ce chunk est le SN sujet. Après qu’answer-plural a fait feu,
il y a de nouveau deux productions qui peuvent faire feu :
56
Nous ne tenons ici pas compte du fait qu’answer-singular, contrairement à answer-plural, teste le
contenu de la mémoire tampon qui enregistre les informations concernant les mouvements ou
l’absence de mouvement des mains (simulées) du modèle (manual-state-buffer). Ce test est appliqué
parce qu’une des actions provoquées par answer-singular actionne les mains qui doivent alors être
dans un état stationnaire au départ (Le slot modality doit avoir la valeur free). Comme il n’y a pas
d’autres mouvements des mains pendant le déroulement du modèle, cette condition est toujours remplie. Au bilan, les deux productions posent des conditions équivalentes.
74
(p answer-plural-2
=goal>
isa comprehend-sentence
state "answer"
=retrieval>
isa plural-feature
=manual-state>
isa module-state
modality free
==>
+manual>
isa press-key
key "p"
=goal>
state "stop"
!output! "sind")
(p answer-singular-2
=goal>
isa comprehend-sentence
state "answer"
=retrieval>
isa error
=manual-state>
isa module-state
modality free
==>
+manual>
isa press-key
key "s"
=goal>
state "stop"
!output! "ist")
Answer-plural-2 fait feu si un chunk de type plural-feature a été trouvé dans la mémoire déclarative et placé dans la mémoire tampon de récupération. Cela n’est le cas
que si le SN sujet de la phrase est au pluriel. Answer-plural-2 provoque une « décision » pour un verbe au pluriel : le modèle appuie sur la touche « p » et émet la
forme verbale « sind ».
Si, au contraire, un chunk de type plural-feature ne peut pas être trouvé dans la mémoire déclarative, un message d’erreur est placé dans la mémoire tampon de récupération. Dans ce cas, c’est la production answer-singular-2 qui fait feu. Possédant les
mêmes actions que la production answer-singular, elle produit comme elle un verbe
au singulier.
Quelles sont les hypothèses concernant l’établissement de l’accord qui sont à la base
de ces schémas de productions ? Il s’agit surtout de l’hypothèse selon laquelle il
existe une tendance de base vers le singulier (voir ci-dessus). Cette tendance se reflète dans les deux productions answer-singular et answer-singular-2 : Elles ne font
pas feu grâce à l’existence d’un trait spécifique comme les productions qui produisent le pluriel, mais par défaut, soit lorsqu’une recherche de trait de pluriel n’a pas eu
lieu (answer-singular), soit lorsque celle-ci n’a pas été couronnée de succès (answersingular-2). Sans le test de la mémoire tampon de récupération, on pourrait même
rassembler les deux productions dans une seule. Cette programmation rendrait encore
plus claire le fait que ces productions expriment une tendance de base qui est présente sans devoir être déclenchée par la présence de chunks spécifiques, et qui en
revanche ne peut être refrénée que par la présence de certains chunks.57
57
L’idée de départ était de rassembler les deux productions answer-singular et answer-singular-2 en
une seule production. La dissociation artificielle en deux productions était nécessaire pour des raisons
purement techniques et n’est pas censée refléter une quelconque hypothèse sur l’organisation psychique réelle. Les raisons techniques étaient les suivantes : On ne peut pas mettre en concurrence en
ACT-R deux productions qui n’effectuent pas des tests sur les mêmes mémoires tampons. Comme
answer-singular se trouve en concurrence avec answer-plural et que answer-plural effectue un test
75
En revanche, le fait que le pluriel ne puisse être produit que par les actions conjointes
de deux productions est voulu. Cela reflète le fait qu’il est plus difficile de produire
un verbe au pluriel que de produire un verbe au singulier : Pour produire un verbe au
pluriel, un locuteur doit se souvenir du fait que la tête du SN sujet en question était
au pluriel. Transposé au modèle ACT-R, cela signifie qu’un chunk du type pluralfeature qui est lié au SN remplissant la fonction du sujet doit être cherché dans la
mémoire déclarative. Ce processus de recherche est modélisé à l’aide de la production answer-plural. Answer-plural-2 ne peut ensuite faire feu que lorsque cette recherche a été exécutée avec succès.
En somme, le modèle peut aboutir à une réponse par trois voies différentes : Premièrement, la production answer-singular peut faire feu à la place de la production answer-plural. Dans ce cas, la modèle « se décide » toujours pour un singulier, ce qui est
juste dans 50 % des cas (tête au singulier), et faux dans les 50 autres % (tête au pluriel).
Deuxièmement, si c’est par contre la production answer-plural qui fait feu, une recherche du trait de pluriel est déclenchée. Le modèle « se décide » alors pour le pluriel si un trait est trouvé et pour le singulier si la recherche n’est pas concluante (ce
qui correspond à la troisième voie envisagée). Dans la plupart des cas, le modèle
produit donc une réponse qui est correcte. Par exemple, dans le passage consigné
dans le tableau 5, c’est answer-plural qui fait feu et non pas answer-singular (ligne
55). Ensuite, aucun trait de pluriel n’ayant été trouvé, answer-singular-2 fait feu au
lieu d’answer-plural-2 et la phrase « die Lehrerin der Schüler __ verwundert » est
correctement complétée par le mot « ist » (ligne 56).
Toutefois, on peut trouver des erreurs même après qu’answer-plural a fait feu. Pour
comprendre comment cela se produit, il faut prendre en compte le niveau soussymbolique du modèle. Avant d’entreprendre cela, nous résumerons brièvement dans
le paragraphe qui suit les processus du niveau symbolique.
3.2.2.8. Résumé
En conclusion, nous avons montré dans cette partie que les processus modélisés en
ACT-R sont ceux qui sont considérés par le modèle d’activation comme essentiels
pour l’établissement de l’accord en construction SPV.
sur la mémoire tampon de récupération, il n’était pas possible de former une seule production qui
produise le singulier en laissant le contenu de cette mémoire sous-spécifié.
76
Le modèle reproduit le déroulement d’une tâche expérimentale précise qui se compose des processus de compréhension et de production. Pour reproduire la compréhension, le modèle lit des mots en les regroupant en syntagmes qui deviennent des
éléments de la mémoire déclarative. De plus, des syntagmes modificateurs sont rattachés aux syntagmes modifiés, ce qui correspond à l’aspect de proximité syntaxique.
Finalement, le modèle reproduit également le marquage différentiel du singulier et
du pluriel ainsi que la règle de base selon laquelle le nombre du verbe dépend du
nombre du sujet de la phrase. Afin de pouvoir appliquer cette règle, le modèle reproduit aussi un traitement fonctionnel.
Avec cela, les processus du niveau symbolique sont décrits de façon complète. Pour
permettre de mieux comprendre le fonctionnement du modèle et l’émergence des
erreurs, nous décrirons dans la prochaine sous-partie le modèle en nous plaçant au
niveau sous-symbolique.
3.2.3. Le modèle au niveau sous-symbolique
La majorité des processus sous-symboliques qui ont lieu pendant le déroulement du
modèle ne contribue pas directement au fonctionnement du modèle ou à
l’établissement de l’accord. Les processus sous-symboliques ne sont importants pour
nous que dans la mesure où ils permettent la modélisation d’erreurs. Si le modèle
n’existait qu’au niveau symbolique, ses réponses seraient soit toujours justes soit
toujours fausses soit toujours totalement accidentelles. La modélisation d’erreurs qui
apparaissant avec une certaine probabilité n’est possible qu’au niveau soussymbolique.
Concernant les phrases de type SPV qui ont jusqu’ici été utilisées pour la modélisation, Hemforth et Konieczny (2003) ont observé deux types d’erreurs : L’erreur générale de singulier ainsi que l’effet mismatch après des têtes au singulier qui ne
s’observe pas après des têtes au pluriel (voir ci-dessus).
Nous décrirons dans ce qui suit la genèse de ces deux erreurs au niveau soussymbolique. Pour cela, nous résumerons d’abord quelles productions et quels chunks
contribuent à l’erreur en question. Ensuite, nous décrirons la manière dont des changements au niveau sous-symbolique portant sur les activations des chunks et les utilités des productions influent sur ces processus. Les changements en question sont
influençables et dans leur nature et dans leur impact par les valeurs que prennent
certains paramètres prédéfinis. Chacun de ces paramètres a une valeur de défaut de
77
laquelle un modèle peut s’écarter afin de parvenir à une meilleure couverture des
données. Une telle modification de la valeur semble justifiée dans la mesure où les
valeurs de défaut elles-mêmes présentent nécessairement une simplification. D’un
autre côté, il est toujours préférable d’éviter d’ajuster des paramètres, parce qu’un
modèle est particulièrement convaincant s’il fonctionne sur des valeurs qui se sont
déjà avérées bonnes dans d’autres modèles. Par conséquent, nous indiquerons si les
valeurs des paramètres ont pu être conservées ou non et nous justifierons à chaque
fois la valeur en question (pour une liste de tous les paramètres, l’annexe I). Par ailleurs, nous illustrerons par des passages concrets du modèle l’émergence des erreurs
de l’ensemble des processus sous-symboliques.
3.2.3.1. L’erreur générale de singulier
Comme décrit plus haut, Hemforth et Konieczny (2003) expliquent l’erreur générale
de singulier par une baisse trop importante de l’activation du trait de pluriel qui empêche la récupération de celui-ci, ce qui a pour conséquence que la tendance générale
vers des verbes au singulier l’emporte (voir paragraphe 2.3.6.3.). Les mécanismes
qui réalisent cette hypothèse en ACT-R seront décrits dans la suite.
Answer-singular vs. answer-plural : Des utilités divergentes
La production answer-singular a pour caractéristique de produire des verbes au singulier sans avoir nullement essayé de chercher un trait de pluriel. Si cette règle
n’existait pas, un verbe au singulier ne pourrait être produit qu’après la recherche –
infructueuse- d’un trait de pluriel. Ceci serait en contradiction avec l’idée fondamentale selon laquelle le singulier est le nombre par défaut.
Nous avons déjà mentionné que la production answer-singular se trouve dans une
situation de concurrence directe avec la production answer-plural. De plus, nous
avons déjà expliqué que 50 % des réponses de la production answer-singular sont
fausses. Au niveau symbolique, cela n’a pas de conséquences : La question de savoir
si une production fait feu ou non ne dépend pas de sa probabilité de succès, mais
uniquement de la correspondance entre ses conditions et la situation donnée. En revanche, au niveau sous-symbolique, la probabilité de succès d’une production devrait
être reflétée par son utilité.
Pour simuler cela, de différentes utilités ont été attribuées à answer-singular et answer-plural dans le modèle.
78
Pour ce faire, nous avons directement attribué des valeurs aux variables de équation
de l’utilité que nous avons déjà présentée (l’équation 3 : Ui = Pi G - Ci + ε ). Les valeurs par défaut des variables de cette équation sont les suivantes :
P (probabilité de succès ) = 1 seconde
G (valeur du but) = 20 secondes
C (coûtes) = 0,05 secondes
ε (bruit) = nil
(voir tutorat ACT-R, chapitre 8, p. 7)
Il en résulte une utilité de défaut de 19.950 secondes par production. Cette valeur a
été conservée pour la majorité des productions du modèle. Comme il n’y a presque
toujours qu’une seule production qui puisse faire feu à un moment donné du déroulement du modèle, l’utilité de ces productions n’a de toute façon pas beaucoup
d’importance.
Seules les productions answer-singular et answer-plural se trouvent dans une situation de concurrence, ce qui fait que leurs utilités ont beaucoup d’influence sur les
résultats du modèle. Nous avons changé ces utilités et abaissé P à une valeur de 0.55
pour answer-singular, mais de 0.6 pour answer-plural. Il en résulte une utilité totale
de 10.950 pour answer-singular, mais de 11.950 pour answer-plural. Ces valeurs se
justifient par le succès différent des deux productions décrites plus haut.
S’il n’y avait pas de bruits dans le système, cette répartition des utilités provoquerait
la sélection systématique d’answer-plural. Ceci est illustré par le passage suivant
extrait du protocole pour lequel nous avons éliminé tout bruit du calcul des utilités :
1 productions out of 1 considered; expected gain of chosen is : 19.950
Time 3.409 : End-Comprehend Selected
Time 3.459 : End-Comprehend Fired
Time 3.468 : Goal215 Retrieved
1 productions out of 2 considered; expected gain of chosen is : 11.950
Time 3.468 : Answer-Plural Selected
Time 3.518 : Answer-Plural Fired
Time 3.540 : Goal220 Retrieved
1 productions out of 1 considered; expected gain of chosen is : 19.950
Time 3.540 : Answer-Plural-2 Selected
sind
Time 3.590 : Answer-Plural-2 Fired (extrait du protocole 2, annexe II)
Ce protocole énumère toutes les productions qui font feu ainsi que, pour chaque production, son utilité et le nombre de productions parmi lesquelles elle a été sélectionnée.58 Dans cet extrait, la sélection des trois dernières productions, c’est-à-dire endcomprehend, answer-plural et answer-plural-2, est documentée. On voit qu’il n’y a
58
ACT-R permet de faire un choix parmi nombre d’informations différentes susceptibles d’être représentées dans les protocoles. Les protocoles de l’annexe dont nous présentons ici des extraits se distinguent quant aux informations contenues, parce que nous avons utilisé des protocoles différents pour la
démonstration de phénomènes différents. Les protocoles qui contiennent toutes les informations ne
nous paraissent pas assez lisibles.
79
pas d’alternatives pour les productions end-comprehend et answer-plural-2, il
n’existe à chaque fois qu’une production qui remplisse toutes les conditions (ceci est
également vrai pour toutes les autres productions qui font feu avant end-comprehend,
voir le protocole complet dans l’annexe II). Il n’y que la production answer-plural
pour qui une alternative aurait été possible. Tant que les utilités ne sont pas soumises
à des fluctuations, l’utilité de la production alternative answer-singular sera toujours
plus basse que celle d’answer-plural et ce sera toujours cette dernière qui sera sélectionnée.
Pour ajouter du bruit aux utilités, il faut assigner une valeur au paramètre de bruit, s.
Si ce paramètre a une valeur autre que «nil», il y a une valeur supplémentaire qui est
ajoutée lors de chaque calcul d’une utilité (valeur désignée par ε dans l’équation 3).
Si s est petit, les valeurs varient autour de 0 avec une variance qui est peu importante.
Plus s augmente, plus la variance augmente et avec elle l’influence du bruit. Dans le
modèle actuel, nous avons désigné à s la valeur assez petite de 0.05 (ceci se fait par
le paramètre :egs, voir annexe I). Si l’on regarde à nouveau l’extrait du protocole
dans lequel la sélection des trois dernières productions est documentée, on observe
des fluctuations de l’utilité :
1 productions out of 1 considered; expected gain of chosen is : 19.788
Time 3.394 : End-Comprehend Selected
Time 3.444 : End-Comprehend Fired
Time 3.451 : Goal355 Retrieved
1 productions out of 2 considered; expected gain of chosen is : 11.905
Time 3.451 : Answer-Plural Selected
Time 3.501 : Answer-Plural Fired
Time 3.522 : Goal360 Retrieved
1 productions out of 1 considered; expected gain of chosen is : 19.854
Time 3.522 : Answer-Plural-2 Selected
sind
Time 3.572 : Answer-Plural-2 Fired (extrait du protocole 3, annexe II)
End-comprehend et answer-plural-2 n’ont plus l’utilité exacte de 19.950, mais respectivement celle de 19.788 ou de 19.854. L’utilité d’answer-plural est elle aussi
relativement basse avec une valeur de 11.905. Mais l’utilité de la production answersingular aurait dû été beaucoup plus haute que la moyenne de 10.950 pour dépasser
11.905, ce qui n’est visiblement pas le cas.
L’utilité d’answer-singular dépasse somme toute très rarement celle d’answerplural, et cela est dû au bruit relativement modéré de s = .05 (voir aussi paragraphe
3.2.3.).
Nous pouvons dire pour résumer que les fluctuations dans les utilités des productions
peuvent provoquer la formation d’une forme verbale au singulier sans qu’une recher80
che d’un trait de pluriel ait été entamée. Ce mécanisme est toutefois extrêmement
rare étant donné les valeurs actuelles des paramètres. En conséquence, le mécanisme
qui mène à des erreurs de singulier même après que la production answer-plural a
fait feu est plus important. Il sera présenté dans ce qui suit.
La baisse de l’activation du trait de pluriel
Selon la proposition de Hemforth et Konieczny (2003), l’erreur générale de singulier
est due principalement à une baisse de l’activation du trait de pluriel.
Le trait de pluriel dont nous parlons ici, c’est-à-dire celui de la tête du SN sujet (et
non pas celui d’un SN local dans les conditions PP et SP, qui ne devrait pas avoir
d’importance pour l’accord), est formé assez tôt dans le traitement du début de la
phrase. L’extrait suivant d’un protocole permet d’observer la formation du trait de
pluriel :
Time 0.849 : Search-Plural-Feature Selected
Modifying CHUNK Goal275.
Creating CHUNK goal276.
Switching to goal Goal276.
Sources of activation are : (Goal275)
Computing a base level of 9.407 from 1000 references from creation time -10.000
CHUNK Plural-Die-Lehrerinnen Activation 9.407 Latency 0.000
Time 0.899 : Search-Plural-Feature Fired
(…)
Time 0.955 : Encode-Plural-Np Selected
Modifying CHUNK Goal276.
Switching to goal Goal275.
Sources of activation are : (Goal270)
Computing a base level of 4.815 from 1 references from creation time 0.899
CHUNK Goal276 Activation 4.815 Latency 0.008
Time 1.005 : Encode-Plural-Np Fired (extrait du protocole 4, annexe II59)
L’extrait du protocole commence au moment où la production search-plural-feature
fait feu. Elle instancie le but subordonné de type plural-feature, qui constitue le trait
de pluriel qui nous intéresse ici et qui reçoit, dans ce passage concret le nom de
« goal276 ». Ce chunk représente le but pendant que le nombre est traité comme décrit ci-dessus. Comme le SN qui vient d’être lu à ce moment, « die Lehrerinnen », se
trouve véritablement au pluriel, « goal276 » est connecté avec le chunk de type readnp qui représente ce SN et en même temps avec le chunk « plural » (partie omise
dans l’extrait). Pour terminer le traitement, le but superordonné est remis dans la
59
Ce protocole est à lire de la manière suivante : Lors de chaque mise en marche d’une production, il
est d’abord indiqué le nom de la production en question. Ensuite, les chunks qui sont modifiés par les
actions de cette production sont énumérés. Si le but a été changé par la production, le chunk représentant le nouveau but est ensuite indiqué. Enfin, il est indiqué le calcul de l’activation pour tout chunk à
récupérer ainsi que la nature du chunk dont il s’agit.
81
mémoire tampon du but et le but actuel jusqu’alors, c’est-à-dire « goal276 », est placé dans la mémoire tampon de récupération.
On voit dans l’extrait que le trait de pluriel a alors une activation de 4.815.
L’activation va baisser continuellement pendant le traitement ultérieur. Cette baisse
ne sera enrayée qu’aux moments où le but actuel sera connecté à « goal276 ».
« Goal276 » ne sera plus récupéré avant le moment où le nombre du verbe sera à
déterminer et ne recevra pas d’activation supplémentaire par cette voie. Le moment
de la production du verbe est documenté dans l’extrait suivant :
Time 3.463 : Answer-Plural Selected
Sources of activation are : nil
Computing a base level of 3.906 from 2 references from creation time 0.899
CHUNK Goal276 Activation 3.906 Latency 0.020
Time 3.513 : Answer-Plural Fired
Time 3.533 : Goal276 Retrieved
Time 3.533 : Answer-Plural-2 Selected
Modifying CHUNK Goal.
sind
Time 3.583 : Answer-Plural-2 Fired
Time 3.583 : Module :MOTOR running command PRESS-KEY
Time 3.833 : Module :MOTOR running command PREPARATION-COMPLETE
Time 3.883 : Module :MOTOR running command INITIATION-COMPLETE
Time 3.983 : Device running command OUTPUT-KEY
<< Window "Agreement Experiment" got key #\p at time 3983 >>
(extrait du protocole 4, annexe II)
Ici, c’est d’abord la production answer-plural qui fait feu. Elle provoque la recherche
du trait de pluriel. Le système calcule alors l’activation du trait de pluriel recherché.
Comme il n’est pas associé au but du moment, il ne reçoit pas d’activation associative :
Sources of activation are : nil
Pour l’activation de base, la durée de l’existence du chunk et le nombre de récupérations sont importants. On compte deux récupérations pour le trait de pluriel : premièrement, la formation d’un chunk compte comme première récupération, et deuxièmement, la placement du trait de pluriel dans la mémoire tampon de récupération au
moment où s’est effectué le changement de ce but vers un but superordonné.
Il en résulte une activation de base de 3.906 60 :
Computing a base level of 3.906 from 2 references from creation time 0.899
Comme le protocole documente un passage sans bruit, cette activation de base correspond exactement à l’activation totale, soit :
60
En condition PS, l’activation de base du trait de pluriel, à ce stade du traitement, a une valeur de
3.909, c’est-à-dire une valeur un peu plus haute. Cela est dû au fait que, contrairement à la condition
PP, il n’y a qu’un SN au pluriel à traiter dans la condition PS, ce qui fait que le modèle arrive plus vite
à la fin et que l’activation du trait de pluriel a un peu moins baissé. Toutefois, la différence est si petite
qu’elle n’est pas perceptible dans les résultats.
82
CHUNK Goal276 Activation 3.906 Latency 0.020
Comme cette activation se trouve au-dessus du seuil critique, answer-plural-2 peut
faire feu et produire un verbe au pluriel.
Pour modéliser le processus que nous venons de décrire, deux ajustements de paramètres ont été nécessaires : D’une part, tous les chunks qui existent dès le début dans
le modèle reçoivent une activation de départ assez importante (9.450). Ceci semble
justifié parce qu’il s’agit d’un savoir lexical standard. Il nous semble naturel de supposer que ces informations existent depuis longtemps dans la mémoire et qu’ils ont
depuis souvent été récupérés. D’autre part, chaque chunk nouvellement formé reçoit
une activation de départ de 3. Cette valeur aurait pu être laissée à sa valeur de défaut
de 0. Mais, dans ce cas, le modèle se déroule assez lentement, car les récupérations
s’effectuent à une vitesse qui dépend du niveau d’activation. Une augmentation uniforme de 3 de l’activation de tous les chunks n’introduit aucune différence entre les
chunks et ne nous semble donc pas problématique. En plus de ces deux valeurs, la
vitesse de la baisse de l’activation (influencée par la variable d à laquelle on attribue
une valeur par le paramètre :bll) est bien sûr elle aussi importante pour la modélisation. Elle a été laissé à sa valeur de défaut, d = 0.05.
Pour faire émerger des erreurs de singulier dans le modèle, il faut changer les valeurs
de deux autres paramètres : le seuil de récupération et le bruit. Plus le seuil de récupération est haut et plus le bruit est important, plus le nombre de fois où l’activation
du trait de pluriel chute en-dessous du seuil sera haute. Les valeurs de ces deux paramètres ont été déterminées empiriquement, c’est-à-dire dans des passages de test
du modèle. La valeur de 3.82 pour le seuil critique (désigné par le paramètre :rt) et la
valeur de 0.052 pour le bruit (désigné par le paramètre :ans) se sont ainsi avérées
comme étant les meilleures valeurs. L’activation moyenne qui a le trait de pluriel à la
fin d’un passage dans la condition PP, 3.906, se trouve ainsi légèrement au-dessus du
seuil, et tombe de temps en temps en-dessous de celui-ci à cause des fluctuations
provoquées par le bruit. Dans ce cas, le trait de pluriel ne peut pas être récupéré,
même s’il a bien été formé au départ. C’est ce que montre l’extrait suivant de protocole :
Time 3.461 : Answer-Plural Selected
Sources of activation are : nil
Computing a base level of 3.906 from 2 references from creation time 0.898
Adding noise -0.160
CHUNK failure Activation 3.820 Latency 0.022
Time 3.511 : Answer-Plural Fired
Time 3.533 : Failure Retrieved
Time 3.533 : Answer-Singular-2 Selected
83
Modifying CHUNK Goal.
ist
(extrait du protocole 5, annexe II)
L’activation du trait de pluriel avant que le bruit ne soit ajouté est ici toujours à
3.906. Le bruit qui y est ajouté se chiffrant à –0.160, l’activation totale ne s’élève
toutefois qu’à 3.764. Le seuil de récupération a donc une activation plus haute (3.82)
que le trait de pluriel, et celui-ci ne peut pas être récupéré. C’est la production answer-singular-2 qui fait feu et produit un verbe au singulier.
En conclusion, l’erreur générale de singulier s’explique en partie par des fluctuations
dans les utilités des productions answer-plural et answer-singular, mais surtout par
des changements dans l’activation du trait de pluriel du SN sujet.
3.2.3.2. L’effet mismatch après les têtes au singulier
Hemforth et Konieczny (2003) n’expliquent pas en détail comment la proximité syntaxique peut provoquer un attachement fautif du trait de pluriel au SN sujet. Dans le
cadre du modèle d’activation, il est concevable de chercher une explication explication à cet effet basée sur l’activation. Une telle explication entraîne l’hypothèse selon
laquelle le trait de pluriel du SN local serait attaché au SN sujet dans les cas où le SN
sujet aurait plus d’activation que le SN local. C’est cette idée fondamentale qui a été
réalisée dans le modèle ACT-R.
Pour comprendre cet aspect du modèle, il faut d’abord se rendre compte de la manière exacte dont est formé un trait de pluriel dans le modèle : Elle implique que le
SN en question ainsi que le chunk « plural » soient attribués à des slots du trait de
pluriel (voir figure 8). Pendant le traitement du trait de pluriel, le SN en question doit
être récupéré. Cela se fait par la production search-plural-np, qui comporte parmi ses
actions la demande de recherche suivante :
+retrieval>
isa read-np
state "complete" (voir annexe I)
Le modèle cherche ici simplement un SN dont le traitement soit terminé, sans
l’identifier de manière plus exacte. Une telle identification n’aurait été possible que
si le SN en question avait été lié à un slot du but. Comme nous l’avons expliqué dans
les réflexions préliminaires, un tel style de programmation ne nous paraît pas justifiable. La demande de récupération sous sa forme actuelle a d’ailleurs une assez
haute probabilité de succès, parce que normalement, c’est le SN qui a été lu le plus
récemment qui a l’activation la plus haute parmi tous les SN qui peuvent se trouver
84
dans la mémoire déclarative. Toutefois, dans notre cas, les activations du SN sujet et
du SN local sont assez proches l’une de l’autre, et cela parce que le SN sujet doit être
encore une fois récupéré lors du traitement du SN local pour permettre le rattachement de ce dernier (cela se passe, comme expliqué plus haut, dans le cadre d’un but
de type encode-modified-np). C’est pour cela que le premier SN a une activation plus
haute dans des phrases du type SPV que dans des phrases du type SOV, dans lesquelles il n’est évidemment pas nécessaire de récupérer le premier SN pour traiter le
deuxième SN. L’encodage fautif du nombre n’est ainsi pas directement dû à une erreur d’encodage, mais plutôt à une erreur de récupération61 : Le premier SN est récupéré au lieu du deuxième au moment où le trait de pluriel du deuxième SN est traité.
Cela est susceptible de se produire uniquement en raison des fluctuations nonsystématiques des activations.
L’extrait suivant d’un protocole montre un tel cas où, sous l’effet du bruit,
l’activation du SN tête est plus haute que celle du SN modificateur, bien que
l’activation de base de ce dernier soit plus élevée :
Time 2.321 : Search-Plural-Np Selected
Modifying CHUNK Goal7637.
Sources of activation are : (Goal7636 Plural)
Computing a base level of 4.961 from 5 references from creation time 0.392
Adding noise 0.137
Computing a base level of 5.207 from 4 references from creation time 1.596
Adding noise -0.112
CHUNK Goal7621 Activation 5.098 Latency 0.006
Time 2.371 : Search-Plural-Np Fired (extrait du protocole 6, annexe II)
Le protocole documente le moment où le trait de pluriel du deuxième SN – « der
Lehrerinnen » dans « der Schüler der Lehrerinnen » – est formé. On voit que deux
chunks différents sont susceptibles d’être récupérés à ce moment : Un chunk avec
une activation de base de 5.207, qui est en fait le chunk de type read-np qui représente le SN modificateur qui vient d’être traité, et un autre chunk d’une activation de
base de 4.961 représentant le SN tête. A l’activation de base de ce dernier chunk
s’ajoute un bruit de 0.137, tandis qu’un bruit de 0.112 est soustrait du premier chunk.
Ainsi, c’est le chunk qui représente le SN tête qui a l’activation la plus haute (5.089)
et qui est en conséquence récupéré (le paramètre de bruit a d’ailleurs toujours la valeur de 0.052 dans ce passage). Ensuite, le trait de pluriel est formé comme décrit
plus haut. Ce processus terminé, il existe donc dans la mémoire déclarative du système un trait de pluriel qui est connecté au SN sujet. En conséquence, ce trait de plu61
Théoriquement, il nous semble également justifié de supposer une véritable erreur d’encodage.
Mais dans le cadre d’ACT-R, une erreur de ce genre n’est pas prévue.
85
riel est récupéré vers la fin du traitement de la phrase par une action de la production
answer-plural, ce qui provoque la formation d’une forme verbale au pluriel :
Time 3.475 : Answer-Plural Fired
Time 3.486 : Goal7637 Retrieved
Time 3.486 : Answer-Plural-2 Selected
Modifying CHUNK Goal.
sind
Time 3.536 : Answer-Plural-2 Fired (extrait du protocole 6, annexe II).
Nous pouvons dire pour résumer que l’effet mismatch après des têtes au singulier
dans des phrases du type SPV s’explique, selon ce modèle, par une activation encore
relativement haute de la tête du SN au moment où le trait de pluriel du deuxième SN
est formé.
Cette modélisation permet d’expliquer l’absence d’effet mismatch après des têtes au
pluriel : Comme il n’y a pas de trait de nombre formé pour un SN modificateur au
singulier, un tel trait ne peut évidemment pas être attribué fautivement à la tête du
SN (ceci revient toujours à l’explication d’Eberhardt).62 De plus, on peut expliquer
grâce à cela pourquoi il n’y a pas d’effet mismatch comparable dans des phrases du
type SOV : Le traitement de l’objet ne demande pas – contrairement à celui d’un SN
modificateur – que la tête du SN sujet soit une nouvelle fois récupérée. Par conséquent, elle aura une activation plus basse dans les phrases de ce type que dans des
phrases du type SPV.
3.2.4. Résultats
Pour analyser la distribution des erreurs qui émergent dans le modèle et pour pouvoir
la comparer à celle trouvée par Hemforth et Konieczny (2003), nous avons étudié
100 passages du modèle (voir protocole 7, annexe II).
Lors de ces passages, les erreurs se sont réparties sur les différentes conditions
comme indiqué dans le tableau 14. Une analyse détaillée des passages du modèle a
montré que toutes les erreurs du singulier sont dues à une baisse trop importante de
l’activation du trait de pluriel, et que toutes les erreurs dans la condition SP sont dues
à l’erreur d’encodage comme décrite plus haut. Pour faciliter la comparaison, le
62
Il faut toutefois prendre en compte ici que l’effet décrit n’existe pas uniquement dans la condition
SP, mais aussi dans la condition PP. C’est-à-dire que dans cette condition, il arrive que deux traits de
pluriel soient formés qui se réfèrent tous les deux au premier SN, au lieu d’un trait par SN. Dans ce
cas, il ne devrait plus du tout arriver qu’aucun trait de pluriel ne soit trouvé lors de la production du
verbe. L’effet décrit devrait toutefois être relativement rare. De plus, il devrait être compensé par
l’effet de l’activation différente du trait de pluriel dans les conditions PS et PP décrit dans la note 60
dessous. Comme nous n’avons pas de résultat fiable qui atteste d’une différence entre les conditions
PS et PP dans des passages de test du modèle, ceci semble bien être le cas.
86
nombre d’erreurs trouvé par Hemforth et Konieczny (2003) dans les quatre conditions respectives est également indiqué.
Condition
erreurs dans 100 passages du modèle
erreurs observées par Hemforth et Konieczny (2003)
SS
0
2,2
SP
3
5,2
PS
13
14,2
PP
11
13,9
Tableau 14 : Pourcentage d’erreurs dans les différentes conditions
De toute évidence, la répartition des erreurs se ressemble : Dans les deux articles de
données, on peut observer l’erreur générale de singulier et l’effet mismatch pour les
têtes au singulier. Il nous faut toutefois remarquer que le nombre d’erreurs dans son
ensemble est un peu plus élevé dans les données de Hemforth et Konieczny (2003)
que dans les données produites par le modèle.
3.2.5. Discussion
Le nombre plus élevé d’erreurs dans les données empiriques que dans les données
produites par le modèle pourrait être interprété comme le signe d’une sous-estimation
dans le modèle du nombre d’erreurs d’origine non-systématique. Vu l’impact assez
restreint de cet effet, une adaptation du modèle dans ce sens nous paraît tout de
même prématurée. En outre, les deux articles de données dans le tableau 14
s’accordent bien. On ne peut pas exclure que les processus réalisés par le modèle
ressemblent aux processus cognitifs réels. Cette supposition ne peut toutefois pas être
prouvée par la ressemblance entre les données : D’une part, on peut concevoir
d’autres modèles qui pourraient produire les même données, et d’autre part, la ressemblance entre les articles de données n’a pas été quantifiée et testée statistiquement.63 Dans les lignes qui suivent, nous chercherons à savoir quel bénéfice on peut
tout de même tirer des résultats fournis jusqu’ici par le modèle et dans quelle mesure
l’objectif de la modélisation, que nous avons explicité dans l’introduction, a pu être
atteint.
Le modèle ACT-R satisfait à l’objectif de préciser le modèle d’activation et de vérifier sa consistance interne. Il était possible de modéliser la baisse du trait de pluriel
ainsi que l’erreur d’encodage et d’intégrer ces effets dans un modèle général de la
compréhension. De plus, comme nous l’avons montré dans le texte, les processus
modélisés ne s’écartent généralement pas des conceptions courantes sur la compré63
Une telle vérification statistique nous paraît prématurée, parce que nous n’avons pas prétendu à une
modélisation complète des processus pertinents pour l’établissement de l’accord. L’objectif était pour
nous de réaliser seulement les idées centrales du modèle d’activation en ACT-R. Cela impliquait déjà
que nous ne considérions pas le modèle comme complet.
87
hension et la production du langage (cela concerne la représentation des unités lexicales et du nombre aussi bien que la pertinence des catégories et unités syntaxiques
employées). Le modèle d’activation a été précisé en ce que nous avons formulé quels
sont les représentations et les processus impliqués dans l’établissement de l’accord,
et cela d’une manière plus détaillée que Hemforth et Konieczny (2003). Cela
concerne en particulier la description de l’origine de l’effet mismatch dans la condition SP, description qui s’écarte plus clairement de celle du mécanisme de featurepercolation par Vigliocco et Nicol (1998). Le modèle ACT-R propose ainsi une réalisation de l’attribution fautive du trait de pluriel qui ne repose pas sur l’hypothèse
problématique de l’approche de feature-percolation selon laquelle il existerait une
analyse syntaxique complète du début de phrase qui est stockée dans le mémoire de
travail.
Toutefois, toutes les parties du modèle ne sont pas aussi bien motivées que celles
mentionnées jusqu’ici. Ainsi, le fait que l’ordre des processus impliqués soit crucial
pour l’émergence de l’effet mismatch pose problème : C’est seulement parce que le
SN modificateur est rattaché au SN sujet avant la formation du trait de pluriel que
l’erreur d’encodage peut avoir lieu. Or, il n’y a aucune raison de privilégier cet ordre
plutôt que l’ordre inverse. Par ailleurs, certaines valeurs de paramètres sont peu justifiables en dehors du modèle : Les valeurs du seuil de récupération et du paramètre de
bruit ont été choisies en fonction des données des Hemforth et Konieczny (2003)
auxquelles nous voulions nous approcher. Il reste à vérifier si ces valeurs s’avéreront
bonnes dans des élargissements du modèle.
De plus, nous n’avons pas encore satisfait à l’objectif d’analyser des possibilités
d’élargissement du modèle et de les vérifier empiriquement. Pour remédier à ce
manque, il faudrait d’abord analyser si des élargissements du modèle permettant de
couvrir ces résultats sont concevables. Une telle analyse ne peut pas remplacer une
validation plus directe du modèle, mais elle est aussi nécessaire que cette dernière.
Dans un deuxième temps, on devrait déduire des prédictions empiriques du modèle
pour les tester ensuite.
Dans
le
paragraphe
suivant,
nous
discuterons
d’abord
des
possibilités
d’élargissement du modèle. Un premier test empirique sera ensuite décrit dans la
quatrième partie du travail.
88
3.2.6. Couverture des données obtenues jusqu’ici
Nous allons maintenant examiner si le modèle ACT-R peut contribuer à mieux expliquer les données connues que le modèle d’activation et, le cas échéant, comment il
devrait être élargi pour y parvenir. Dans un premier temps, nous discuterons de la
possibilité pour notre modèle de couvrir les données concernant les phrases SOV,
parce que le modèle d’activation se réfère directement à cette construction. Dans un
deuxième temps, nous examinerons plus brièvement si les autres données présentées
dans la deuxième partie de ce travail peuvent être expliquées mieux ou autrement par
le modèle ACT-R que par le modèle d’activation.
La construction SOV en allemand
L’élargissement à la construction SOV nous semble naturel pour le modèle ACT-R,
étant donné que le modèle d’activation traite de ce type de phrase.
Pour les têtes au singulier, un tel élargissement serait très simple : Le modèle effectuerait les même processus que ceux décrits plus haut, mais le SN objet - contrairement au SN modificateur – ne serait pas rattaché au SN sujet. Ce processus de rattachement est de toute façon déclenché dans la version actuelle du modèle par
l’identification du deuxième SN comme génitif, qui n’aurait bien sûr pas lieu pour un
SN objet. Si le rattachement n’a pas lieu, la baisse de l’activation du premier SN ne
sera pas interrompue et ne sera pas récupérée faussement plus tard de sorte qu’on ne
trouvera pas d’effet mismatch dans cette construction.
En revanche, le cas des têtes au pluriel nécessiterait un plus grand élargissement du
modèle : Pour expliquer l’effet mismatch qui a été observé ici, Hemforth et Konieczny (2003) proposent un effet de réactivation qui serait dû au statut particulier des
arguments verbaux. Ils supposent que le trait de pluriel de l’objet pourrait réactiver le
trait de pluriel du sujet, parce que les deux SN en question sont des arguments du
verbe (voir ci-dessus). Pour intégrer cette proposition dans le modèle ACT-R, il serait nécessaire de clarifier comment se passe exactement le traitement des arguments
verbaux.
Konieczny (voir Konieczny, 1996, Konieczny et Döring, 2003) propose le concept
d’anticipation pour traiter les arguments verbaux dans des structures dans lesquels le
verbe est le dernier élément de la phrase. Selon ce concept, les arguments d’un verbe
sont utilisés pour anticiper celui-ci dans de telles structures. Une application de cette
proposition fondamentale en ACT-R pourrait avoir la forme suivante : Avant la production ou même la compréhension du verbe, le modèle devrait récupérer les
89
concepts liés aux arguments verbaux ainsi que l’information sur leur nombre afin de
chercher dans sa mémoire déclarative une relation qui puisse lier ces différentes informations et qui correspondrait donc à peu près à la sémantique du verbe. Ce mécanisme entraînerait, comme on le voit, une intégration du niveau sémantique dans le
modèle.64
Si un tel mécanisme était intégré dans le modèle, le trait de pluriel du sujet pourrait
effectivement être réactivé dans la condition PP, et cela par le mécanisme de
l’activation associative : Si le but est d’anticiper le verbe et si ce but entraîne une
récupération des concepts liés à l’objet et au sujet ainsi que leurs traits de pluriel s’ils
existent, et cela en commençant avec le dernier SN lu - donc l’objet -, le chunk « plural » sera en connexion avec le but par l’intermédiaire du trait pluriel de l’objet après
sa récupération. Comme le chunk « plural » se trouve aussi dans un des slots du trait
de pluriel du sujet, celui-ci recevra une activation associative par le but, ce qui augmentera sa probabilité d’être récupéré lui aussi pendant l’anticipation du verbe. Ceci
augmentera en revanche fortement la probabilité que le trait de pluriel du sujet soit
également récupéré au moment de la production du verbe par la production answerplural. Si au contraire l’objet n’est pas au pluriel (comme dans la condition PS), le
chunk « plural » ne sera pas connecté au but pendant l’anticipation du verbe. Pour
cette raison, il est plus probable que le trait de pluriel du sujet ne sera soit ni retrouvé
pendant l’anticipation du verbe ni lors de sa production. L’erreur générale de singulier devrait donc être moins prononcée dans la condition PP que dans la condition PS.
En somme, il paraît possible d’élargir le modèle à la construction SOV de
l’allemand. Il semble que le modèle pourra alors expliquer les données de Hemforth
et Konieczny d’une manière plus détaillée que le modèle d’activation ne le fait sous
sa forme actuelle. En même temps, cet élargissement devrait probablement permettre
d’expliquer d’autres effets d’ordre sémantique (voir paragraphe 2.2.3.).
Les constructions SOV dans d’autres langues
Le mécanisme décrit en haut devrait fonctionner dans toutes les langues dans lesquelles existent des constructions avec le verbe à la fin. Le modèle prédit les mêmes
effets dans toutes les langues qui connaissent la construction SOV : pas d’effet mismatch pour les têtes au singulier, mais un effet mismatch pour des têtes au pluriel.
64
Cette idée se base sur la conceptualisation du traitement sémantique dans une modèle ACT-R par
Budiu et Anderson (soumis). Pour une discussion plus approfondie, voir Konieczny, Schimke et Hemforth (2004).
90
Comme nous l’avons déjà exposé plus haut, cela ne correspond toutefois pas aux
résultats trouvés dans les autres langues étudiées sous cet aspect, à savoir le néerlandais et le français : On a bien observé dans ces deux langues des indices pour un effet
de réactivation après les sujets au pluriel (voir ci-dessus, en particulier le tableau 3),
mais les résultats pour des sujets au singulier étaient contradictoires : On a trouvé un
effet mismatch faible en néerlandais et un effet mismatch très fort en français (l’effet
de l’attraction par l’objet, voir tableau 4). Comme nous l’avons déjà mentionné, il
n’existe jusqu’ici pas d’explication satisfaisante pour cette différence inter-langue.
Dans ce qui suit, nous avancerons de nouvelles hypothèses sur cette question difficile
en partant du modèle ACT-R.
Comme le modèle se réfère nécessairement à un paradigme expérimental concret,
nous allons analyser les paradigmes expérimentaux dans lesquels les résultats cités
ont été obtenus. Dans l’expérience de Hartsuiker et coll. (2001) en néerlandais, les
sujets ont été incités à travailler le plus vite possible. Ils ont vu le début de phrase sur
un écran et avaient comme tâche de produire le verbe dans un espace de temps très
court, visualisé par l’apparition d’une ligne sur l’écran dont la longueur diminuait
rapidement. Les sujets devaient donner la réponse avant que la ligne n’ait totalement
disparu.
Une simulation de cette expérience en ACT-R inclurait sans doute les conséquences
de cette hâte sur les utilités des productions : Pour rendre compte de la situation de
cette expérience, on devrait baisser la valeur du but, G, ce qui aurait pour conséquence que des productions menant rapidement au but recevraient une utilité relativement élevée même si leur probabilité de succès est petite. D’un côté, cela entraînerait une activation plus fréquente de la production answer-singular, qui quant à elle
provoquerait plus d’erreurs de singulier. De l’autre côté, on pourrait penser que la
formation du trait de pluriel sera raccourcie dans un tel système. Le trait de pluriel
pourrait en effet être formé sans être rattaché à un SN concret. Lors de la production
du verbe, un tel trait sous-spécifié pourrait de temps en temps mener à la production
d’un verbe au pluriel, même avec un sujet au singulier. Ce mécanisme devrait se dérouler de la même façon pour des SN modificateurs que pour des SN objets, ce qui
pourrait expliquer le faible effet d’attraction par l’objet observé Hartsuiker et coll.
(2001).
Il reste toutefois difficile d’expliquer le fort effet d’attraction par l’objet qui a été
observé en français. Franck et coll. (soumis) l’ont trouvé d’abord dans des construc91
tions de type SclitV, comme la phrase (22), « Le professeur les lit ». On pourrait
concevoir que l’effet d’attraction de l’objet s’explique ici simplement par la brièveté
des pronoms clitiques. Les pronoms laissant moins de temps de traitement au modèle
que les SN complets, un trait de pluriel qui se réfère à un pronom pourrait peut-être
aussi laisser sous-specifié de temps en temps.
Il y a toutefois des arguments importants contre cette hypothèse :
D’une part, Hartusiker a également utilisé dans son expérience des SN complets et
des pronoms, sans trouver de différences entre ces deux cas. D’autre part, l’effet
d’attraction par l’objet a également été observé avec des SN objets complets, même
si l’ordre de mots étaient nécessairement différent dans ce cas. Il s’agit des constructions citées au-dessus en (23) et en (24) du type « C’est les négociations que le ministre suspend » ainsi que « C’est les négociations que suspend le ministre.». Dans
ces constructions, le SN objet « les négociations » a fortement interféré avec
l’établissement correct de l’accord (cf. supra). Il n’est pas certain que cet effet soit dû
aux mêmes mécanismes que ceux provoqués par les pronoms clitiques, parce qu’on
peut supposer ici une influence de l’ordre de mots non-canonique. Une partie des
erreurs pourrait ainsi être due à une confusion entre sujet et objet. Un tel effet serait
d’ailleurs facile à modéliser en ACT-R.
Le nombre très élevé d’erreurs mismatch dans des constructions différentes avec un
objet semble tout de même indiquer l’existence d’un véritable effet d’attraction par
l’objet en français qui ne s’explique pas par des simples confusions. Dans le cadre du
modèle ACT-R, l’explication la plus immédiate semble résider dans l’ordre de récupération des différents éléments d’une phrase, facteur crucial dans le modèle. L’ordre
de traitement différent en français par rapport à d’autres langues pourrait s’expliquer
par le fait que contrairement à d’autres langues, il peut exister en français un accord
entre le participe et l’objet. La réalisation concrète de ce mécanisme en ACT-R reste
à faire. Somme toute, les explications restent spéculatives. Toutefois, le modèle
ACT-R a l’avantage d’ouvrir des pistes de réflexion pour expliquer pourquoi l’effet
de l’attraction par l’objet est inexistant en allemand, faible en néerlandais et fort en
français.
Autres effets syntaxiques
A côté de l’effet d’attraction par l’objet, il existe d’autres résultats qu’on ne peut expliquer qu’en ayant recours à la syntaxe. Cela concerne la différence entre les syntagmes et les propositions en fonction de modificateur, entre N2 et N3 dans des cons92
tructions N1 N2 N3 ainsi que le résultat observé pour les phrases interrogatoires anglaises (voir lignes 3 à 5 du tableau 4). Tous ces effets syntaxiques peuvent être aussi
bien expliqués par le modèle ACT-R que par le modèle d’activation originel :
L’attachement d’un troisième syntagme dans des constructions N1 N2 N3 et d’une
proposition – plutôt qu’un syntagme - ont en commun la caractéristique suivante : un
plus grand nombre de processus devraient se dérouler entre la récupération nécessaire du sujet et la formation du trait pluriel du nom local si on compare ces cas au
cas d’un SN qui modifie directement le sujet. L’expérience de Vigliocco et Nicol
(1998) a déjà été discuté plus haut : Il faut supposer ici que la représentation cruciale
du préambule est déjà formée pendant la première lecture, et que donc la formation
du verbe avant ou après la répétition du préambule n’est pas un facteur qui a beaucoup d’influence.
En partant de cette supposition, les résultats pour l’inversion libre en italien restent
toutefois surprenants (voir ci-dessus.). Ils sont peut-être à expliquer par le fait qu’il
existe des dialectes italiens dans lesquels un verbe préposé n’est effectivement pas
accordé avec le sujet, comme le remarquent également Franck et coll. eux-mêmes
(voir Franck et coll., soumis).
Les effets de la mémoire de travail
Les effets de la mémoire de travail (voir lignes une et deux du tableau 4) pourraient
être aisément intégrés dans le modèle ACT-R. En particulier, les effets d’une surcharge correspondent aux prédictions naturelles d’ACT-R : Si un modèle doit accomplir deux tâches à la fois, il y a une baisse générale des activations due à une
répartition de l’activité associative sur plus de chunks et à une plus grande influence
de la baisse dans le temps, étant donné que le travail sur deux tâches va durer plus
longtemps que celui sur une seule tâche. Ceci devrait augmenter le nombre d’erreurs,
ce qui a effectivement été observé.
Autres effets
Concernant les effets des différents paradigmes expérientiels également présents
dans le tableau 4 (moins d’erreurs du singulier si le préambule n’est pas répété et les
effets de l’accord dans la lecture, voir lignes onze et douze), les hypothèses formulées pour le modèle d’activation peuvent être directement transférées au modèle
ACT-R : Une modélisation de ces tâches comporterait en gros les mêmes processus
que le modèle actuel, l’importance de l’erreur générale de singulier variant avec le
93
nombre de fois que des chunks liés au trait pluriel du sujet sont récupérés en plus dû
à des particularités du paradigme. Quant aux questions que posent les résultats
contradictoires après les têtes au pluriel, elles restent toujours ouvertes.
Résumé de la couverture des effets
En conclusion, les résultats après les têtes au pluriel posent problèmes pour le modèle ACT-R comme pour le modèle d’activation. Pour les autres effets marqués par
une croix ou par un signe d’interrogation dans le tableau 4 (effets de l’ordre des mots
et effet de l’attraction par l’objet), on peut déduire de nouvelles explications du modèle ACT-R, mais celles-ci restent spéculatives.
Le bénéfice du modèle ACT-R est surtout d’expliquer de façon beaucoup plus précise les effets pour lesquels le modèle d’activation proposait déjà certaines explications. De plus, le fait même que le modèle d’activation ait pu être réalisé dans le cadre empiriquement bien fondé d’ACT-R représente une validation supplémentaire du
modèle.
3.3. Résumé
Nous avons montré dans la partie 3. que le modèle d’activation peut être réalisé en
ACT-R. De plus, la modélisation a permis de préciser le modèle d’activation. Ceci
concerne en particulier l’explication de l’effet mismatch après des têtes au singulier.
Une première validation de notre modèle consiste dans le fait que les résultats de
Hemforth et Konieczny (2003) pour les constructions SPV ont pu y être reproduits.
Nous avons également montré dans la discussion qu’une couverture des données
obtenues jusqu’ici semble théoriquement possible.
Dans toutes ces réflexions il s’agit toutefois d’une explication post hoc de données
existantes. Il faut compléter cette démarche en déduisant de nouvelles hypothèses du
modèle pour les tester empiriquement. La précision du modèle ACT-R devrait le
permettre relativement aisément. Une première tentative de vérification empirique
sera présentée dans la partie suivante.
94
4. Vérification empirique: Le transfert à la langue française
La discussion du paragraphe précédent devrait avoir montré qu’on peut déduire du
modèle des prédictions concernant différentes constructions, différents paradigmes
expérimentaux et différentes langues. Une prédiction particulièrement importante,
car non triviale, est celle selon laquelle on devrait toujours trouver une erreur générale de singulier dans les expériences du paradigme de complètement des phrases. Le
fait qu’on n’ait pas toujours trouvé une telle erreur dans les expériences précédemment citées pourrait être dû à l’utilisation d’autres paradigmes expérimentaux. Cette
hypothèse n’a pas encore été vérifiée empiriquement, de sorte qu’un premier test du
modèle peut consister en sa vérification. Il nous semble particulièrement utile de mener ce test en français pour deux raisons : premièrement, il n’existe pour l’heure pas
beaucoup d’indices témoignant d’une erreur générale de singulier dans cette langue ;
deuxièmement, le paradigme de complètement n’y a pas encore été appliqué.
4.1. Introduction
Le modèle reproduit l’expérience de complètement de phrases menée par Hemforth
et Konieczny (2003) en allemand pour la construction SPV. Dans le cadre du modèle, il n’existe aucune raison de croire que les effets trouvés soient spécifiques à
l’allemand. En conséquence, les résultats du modèle devraient se retrouver, en appliquant le paradigme de complètement, dans toutes les langues dans lesquelles la construction SPV existe. En d’autres termes, on devrait retrouver, à côté de l’effet mismatch et de l’effet d’asymétrie, l’erreur générale de singulier, c’est-à-dire un nombre
généralement élevé d’erreurs d’accord après des têtes au pluriel. Un tel résultat a été
rapporté par Branigan (1995) pour l’anglais (voir tableau 2).
Concernant les expériences menées en français (voir tableau 2, lignes 5-9), il faut
d’abord souligner la variance extrême dans la proportion d’erreurs trouvée selon les
études, allant de pourcentages situés entre 0 et 14 % selon la condition chez Franck
et al. (2003) jusqu’à 56.7 % d’erreurs dans l’étude de Hupet et al. (1996), dans la
condition SP avec une surcharge importante de mémoire. Il semble donc hasardeux
de tirer des conclusions définitives à partir d’expériences probablement difficilement
comparables. La vue d’ensemble permet quand même de constater que dans toutes
les expériences, une forme du paradigme avec répétition du préambule a été utilisée,
et que des signes clairs indiquant l’existence d’une erreur générale de singulier ont
95
rarement été observés. Celle-ci aurait dû se révéler à travers un nombre élevé
d’erreurs dans les conditions PS et PP, plus élevé que dans la condition SS. Un résultat de ce type n’a pas pu être trouvé dans une des expériences (Hupet et coll., 1996)
et n’était présent que numériquement dans les autres études sans avoir été testé systématiquement (voir tableau 2). De plus, contrairement aux résultats de Braingan
(1995) et de Hemforth und Konieczny (2003), il se trouvait dans toutes les expériences moins d’erreurs dans les conditions PS et PP que dans la condition SP (à
l’exception de Franck et al., 2003, qui ont trouvé un nombre particulièrement élevé
d’erreurs dans la condition PP). Nous avons interprété cela comme un signe d’une
importance moins grande de l’erreur générale de singulier dans le paradigme de répétition (cf. supra). En revanche, l’effet mismatch après des têtes au singulier et
l’asymétrie singulier-pluriel ont pu être vérifiés clairement dans ce paradigme.
Le modèle prédit que l’erreur générale de singulier devrait être plus forte si on étudie
la même construction dans le paradigme de complètement. En revanche, l’effet mismatch et l’asymétrie singulier-pluriel ne devraient pas être influencés par un tel
changement de paradigme. En somme, on peut déduire du modèle les quatre hypothèses suivantes pour la construction SPV en français dans le paradigme de complètement :
1. Il y a plus d’erreurs dans la condition SP que dans la condition SS (effet mismatch après des têtes au singulier)
2. Il n’y a pas de différence entre les conditions PS et PP (effet d’asymétrie)
3. Il y a plus d’erreurs dans les conditions PS et PP que dans la condition SS
(existence de l’erreur générale de singulier)
4. Il y a plus d’erreurs dans les conditions PS et PP que dans les conditions SS
et SP (importance élevée de l’erreur générale de singulier dans ce paradigme)
4.2. Methode
Sujets
46 personnes de langue maternelle française âgées de 18 à 39 ans (âge moyen: 20.7
ans) ont participé volontairement à l’expérience.
Matériel
Pour parvenir à une bonne comparabilité de l’expérience présente avec celle de Hemforth et Konieczny (2003), nous avons pris le matériel de cette expérience comme
96
matériel de départ pour la notre. Ce matériel présente de plus l’avantage d’être testé
empiriquement pour des différences de plausibilité entre les différentes conditions
d’un préambule (voir sur ce point Hölscher et Hemforth, 2000), ce qui élimine un
facteur perturbateur potentiel.
13 des 16 préambules utilisés par Hemforth et Konieczny ont été traduits le plus fidèlement possible en français. Pour les trois autres préambules, une telle traduction
n’était pas possible, le SN modificateur ne pouvant pas être attaché au SN sujet par
une préposition en français. Ces trois préambules ont été remplacés par des préambules nouvellement construits. Quatre autres préambules ont été construits et ajoutés
pour élargir la base de données. L’absence de fautes de français et de différences
évidentes de plausibilité entre les différentes versions d’un même préambule a été
vérifiée par deux personnes de langue maternelle française.
Dans l’expérience de Hemforth et Konieczny, tous les sujets ont complété toutes les
phrases par un seul auxiliaire, étant donné que le SN complexe et un adjectif attributif leur étaient présentés (voir phrase (25), reproduite ici):
Die Farbe auf der Leinwand .............. trocken.
Cette configuration n’était pas possible en français, parce que la grande majorité des
adjectifs porte une marque de nombre, ce qui aurait représenté un facteur perturbateur très important. En conséquence, nous avons seulement présenté le SN complexe
aux sujets, avec l’instruction de le compléter librement. Ceci correspond exactement
à l’expérience de Branigan (1995).
Il y avait en tout 20 préambules expérimentaux dans quatre conditions (voir phrase
(29a) –(29d)). Une liste de toutes les phrases figure dans l’annexe III.
(29a)
(29b)
(29c)
(29d)
condition SS : La couleur sur la toile …………………
condition SP : La couleur sur les toiles………………….
condition PS : Les couleurs sur la toile ………………..
condition PP : Les couleurs sur les toiles ………………..
60 phrases de distraction ont été construites dans lesquelles il manquait également un
verbe que les sujets devaient insérer. 20 d’entre eux étaient des SN complexes disjoints, 20 présentaient la construction SVO (avec un espace blanc à la place du verbe
qui devrait être inséré) et 20 consistaient en un SN simple. Les sujets des phrases de
distraction étaient pour moitié au singulier et pour moitié au pluriel.
Quatre listes différentes ont été construites, chaque liste contenant une version différente de chaque préambule. L’ordre des phrases dans les listes différentes a été randomisé.
97
Procédure
Les sujets ont reçu un questionnaire avec une des listes, donc 80 fragments de
phrase, et l’instruction de compléter les phrases par le premier mot qui leur venait à
l’esprit. Pour clarifier la tâche, deux exemples leur étaient donnés. Il leur était dit de
travailler les phrases rapidement et dans l’ordre donné. Il était possible de remplir le
questionnaire en environ 15 minutes.
Design statistique et analyse des données
Deux analyses de variance à trois facteurs ont été effectuées avec le facteur
« match » (match/mismatch) et « nombre » (tête au singulier/pluriel) comme facteurs
fixes et « sujets » (calcul de F1) ou respectivement
« phrases » (calcul de F2)
comme facteur aléatoire. La variable dépendante était le nombre d’erreurs d’accord.
4.3. Résultats
Les sujets ont complété 742 des 920 préambules expérimentaux présentés dans
l’expérience par un verbe par un verbe au nombre univoque. Tous les autres cas (la
réponse ne consistait pas en un verbe, n’était pas lisible ou manquait totalement)
n’ont pas été dépouillés. Parmi les 742 réponses, 50 erreurs d’accord ont été trouvées
(6.74%). Le pourcentage d’erreurs d’accord se chiffrait à 0.9% (condition SS), 9.4%
(condition SP), 9.0% (condition PS) et 7.4% (condition PP) pour les différentes
pourcentage d'erreurs
conditions. Cette répartition est illustrée dans la figure 10.
10,0
9,0
8,0
7,0
6,0
5,0
4,0
3,0
2,0
1,0
0,0
match
mismatch
tête sg
tête pl
Figure 10: Erreurs d’accord en
construction SPV, en français
L’analyse statistique a fait ressortir un effet significatif de la variable « match »
(F1(1,45) = 6.65, p < 0.05, F2(1,19) = 7,32, p < 0.05) et une interaction significative
entre cette variable et la variable « nombre » (F1(1,45) = 4.69, p < 0.05, F2(1,19) =
98
5.98, p < 0.05). Il n’y avait a pas d’effet significatif de la variable « nombre » toute
seule (F1(1,45) = 2.663, p = 0.11, F2(1,19) = 1.75, p = 0.20). Dans l’analyse F2,
l’interaction entre les variables „nombre“ et „phrases“ est elle aussi significative
(F2(1,19) = 2.93, p < 0.05). Tous les autres effets sont non-significatifs (tous les Fs <
1,2).
Des comparaisons entre des conditions isolées ont révélé que l’effet de la variable
« match » est uniquement dû à la différence entre les conditions SS et SP, différence
hautement significative (F1(1,45) = 11.34, p = 0.001, F2(1,19) = 14.14, p = 0.001). La
différence entre les conditions PS et PP n’était en revanche pas significative (les
deux Fs < 0.3). Une comparaison des conditions SS et PP, enfin, a révélé une différence significative entre ces deux conditions (F1(1,45) = 10.25, p = 0.002 F2(1,19) =
9.24, p = 0.007).
4.4. Discussion
Parmi les effets trouvés, seule l’interaction entre les variables « nombre » et « phrases » n’avait pas été prévue. Elle réside dans le fait qu’il n’y pas d’erreur de singulier
dans sept des vingt préambules (phrases 1, 4, 5, 7, 13, 17 et 20, voir annexe III). Ces
phrases ne différant pas des autres quant à leur longueur ou leur structure, il semble
s’agir ici d’un effet d’ordre sémantique qui peut être interprété comme l’indice supplémentaire d’une influence du niveau sémantique sur l’établissement de l’accord. Il
ne nous est toutefois pas possible, à partir de cet effet, de tirer des conclusions supplémentaires sur la nature exacte de cette influence, parce que nous ne voyons pas de
différence systématique, même au niveau sémantique, entre les phrases en question
et les autres phrases.
Mis à part cela, les données valident trois des quatre prédictions énumérées cidessus : L’effet de la variable « match » ainsi que l’interaction entre les variables
« match » et « nombre » reflètent l’effet mismatch après les têtes au singulier et
l’asymétrie singulier-pluriel (hypothèse 1 et 2). Ce résultat n’est pas surprenant,
parce qu’il reproduit les résultats précédents. Il est plus intéressant d’examiner
l’erreur générale de singulier. Comme il apparaît dans la figure 10, cet effet n’est pas
plus marqué que celui de mismatch après les têtes au singulier. Il faut donc rejeter
l’hypothèse 4 : De manière générale, il n’y a pas plus d’erreurs dans les conditions de
têtes au pluriel que dans les conditions de têtes au singulier. D’un autre côté, une
erreur générale de singulier existe bel et bien dans les données, vu qu’il y a une diffé99
rence entre les conditions SS et PP qui autrement reste inexplicable (vérification de
l’hypothèse 3).
Pour comparer ce résultat directement avec les prédictions du modèle et avec les résultats obtenus jusqu’ici dans le paradigme de complètement, toutes les données pertinentes sont résumées dans le tableau 15.
Condition
100 passages du modèle
Branigan (1995)65
Hemforth et Konieyzny (2003)
expérience décrite ici
SS
0
0.35
2.2
0.9
SP
3
2.8
5.2
9.4
PS
13
9.4
14.2
9.0
PP
11
11
13.9
7.4
Tableau 15: Les pourcentages d’erreurs dans les expériences et dans les passages du modèle
La comparaison directe des données obtenues avec les prédictions du modèle et les
résultats des expériences comparables montre que la non-validation de l’hypothèse
quatre ne semble pas s’expliquer par une faible importance de l’erreur générale de
singulier. Il est vrai que le nombre d’erreurs de singulier est légèrement inférieur
dans l’expérience actuelle par rapport à celui auquel on pouvait s’attendre étant donné les autres résultats. Mais l’existence de l’erreur générale de singulier a surtout été
voilée dans les analyses statistiques par l’importance inattendue du nombre d’erreurs
dans la condition SP. Ces deux effets n’ont pas été prédits par le modèle. On peut
toutefois essayer de les expliquer de la façon suivante :
L’importance relativement faible de l’erreur générale de singulier, surtout en comparaison avec les résultats de Hemforth und Konieczny (2003) et les prédictions du
modèle, pourrait résider dans le fait que les fragments de phrase utilisés étaient plus
courts dans notre expérience, étant donné qu’il n’y avait pas d’adjectif. Dans un espace de temps plus court, l’activation du trait de pluriel devrait moins baisser. Cette
explication s’accorde bien avec les données obtenues par Branigan (1995), qui n’a
pas présenté d’adjectif non plus et qui a trouvé une erreur générale de singulier qui
était également un peu moins importante. Il s’y ajoute que, dans les expériences sur
le français résumées ci-dessus qui étaient menées dans le paradigme de répétition, et
dans lesquels les sujets n’étaient pas confrontés à une difficulté supplémentaire, il y
avait moins d’erreurs de singulier que dans la présente expérience (au plus 6.8 %,
Franck et al., 2003). On peut conclure de l’ensemble de toutes ces données qu’une
65
voir Branigan (1995), p. 104. Branigan a mené des expériences avec différents types de modificateurs post-posés. Nous reprenons les résultats pour modificateurs de type syntagme prépositionnel qui
correspondent à notre matériel.
100
erreur générale de singulier existe, mais qu’elle est très sensible aux changements de
paradigme.
Pour l’effet mismatch après les têtes au singulier, qui est plus important dans notre
expérience qu’en anglais et en allemand, il y a plusieurs explications envisageables.
D’une part, le fait que la majorité des sujets ait rempli le questionnaire assez vite
pourrait être à prendre en considération. Même si l’instruction ne les pressait pas
outre mesure, la simple longueur du questionnaire a peut-être incité certains sujets à
travailler très vite. Si c’était le cas, l’augmentation de l’effet mismatch n’a plus rien
de surprenant (voir aussi paragraphe 3.2.6.). D’autre part, l’effet pourrait être dû à
une spécificité de la langue française. Des indices ont été trouvés qui témoignent
d’un nombre d’erreurs généralement élevé en français (pour une discussion, voir
Franck et al., 2002). Les résultats sur cette question sont toutefois très peu clairs,
parce que, comme nous l’avons déjà dit, le niveau général d’erreurs est très variable
selon les études. Pour cette raison, on ne peut pas conclure, à partir d’un nombre élevé d’erreurs dans une expérience, à une spécificité de la langue étudiée, étant donné
qu’il pourrait aussi bien s’agir d’une spécificité du matériel, du paradigme ou autre.
De plus, il n’apparaît pas clairement comment une telle tendance générale vers plus
d’erreurs en français pourrait s’expliquer ni pourquoi elle se révèlerait tout particulièrement dans la condition SP.
En somme, ces questions ne pourront être résolues qu’au travers d’expériences qui
compareront systématiquement les différentes langues et les différents paradigmes.
Les comparaisons que nous avons tentées entre différentes expériences sont toujours
parasitées par le manque de comparabilité entres les conditions dans lesquelles les
expériences ont été menées. Pour compléter l’expérience que nous venons de présenter, il serait nécessaire de mener une expérience avec le même matériel, mais dans un
autre paradigme, notamment celui de répétition. Ce n’est que de cette façon que nous
pourrions démontrer de façon univoque notre hypothèse : si l’erreur générale de singulier est plus importante dans notre expérience que dans d’autres, cela est dû au
paradigme. Notre expérience ne constitue donc qu’un premier pas pour vérifier les
prédictions du modèle. Nous donnerons une évaluation terminale du bénéfice de
cette expérience et des prolongements possibles dans la dernière partie de ce travail.
101
5. Discussion générale et perspectives de recherche
L’objectif de ce travail a été de contribuer à l’étude des origines d’erreurs d’accord
en nombre entre sujet et verbe, en français et en allemand.
Dans cet objectif, nous avons d’abord résumé, dans la deuxième partie, les résultats
empiriques les plus importants. Nous avons ensuite pu montrer que, parmi les modèles d’explication existants, le modèle d’activation proposé par Hemforth et Konieczny est le plus apte à couvrir les données dans ces langues et dans des langues apparentées, car il peut expliquer à la fois des influences d’ordre syntaxique et des influences d’ordre non-syntaxique.
Ensuite, nous avons présenté, dans la troisième partie, un modèle ACT-R qui réalise
les idées centrales du modèle d’activation. Nous avons pu montrer par là même que
le modèle d’activation peut être intégré dans un modèle général de la compréhension
et qu’il se trouve en harmonie avec les principes généraux de la cognition humaine
intégrés dans ACT-R. Par ailleurs, le modèle d’activation a pu être précisé sur beaucoup de points. En particulier, nous avons avancé une explication basée sur
l’activation qui touchait également l’effet mismatch après les têtes au singulier. Nous
avons également pu montrer qu’il est possible d’élargir le modèle afin de couvrir les
principales données obtenues jusqu’ici par la recherche. Cela concerne en particulier
les résultats contradictoires sur l’effet d’attraction par l’objet dans différentes langues, pour lequel nous avons pu avancer les premières hypothèses d’explication en
partant de la modélisation.
Finalement, nous avons pu vérifier une prédiction importante du modèle pour la langue française, notamment celle de l’existence d’une erreur générale de singulier, ce
qui constitue un premier support expérimental pour le modèle.
Il reste toutefois des questions empiriques ouvertes et des lacunes dans la modélisation. Les questions empiriques ouvertes sont d’une part quelques-unes des questions
évoquées dans la deuxième partie et qui n’ont pas été résolues jusqu’ici. Il s’agit surtout des résultats contradictoires après des têtes au pluriel dans la construction SPV.
D’autre part, l’importance inattendue de l’effet mismatch et la faiblesse également
inattendue de l’erreur générale de singulier dans notre expérience ont fait surgir de
nouvelles questions quant à des effets spécifiques reliés à des langues et paradigmes
différents.
102
Les lacunes dans la modélisation consistent d’une part en un manque de motivation
indépendante de certains aspects du modèle et d’autre part dans un excès de simplification dans le modèle qui ne rend pas compte de beaucoup d’aspects pertinents. On
pourra probablement remédier aux deux sortes d’insuffisances par un circuit
d’élargissements du modèle, des vérifications empiriques de ceux-ci, et de nouveaux
élargissements prenant en compte les résultats. Dans ce qui suit nous allons ébaucher
les prochains étapes envisageables d’un tel projet.
Pour améliorer le modèle, il faudrait d’abord réaliser les élargissements dont nous
avons seulement discuté dans la troisième partie. Pour cela, il faudrait surtout intégrer le niveau sémantique dans le modèle. Cela signifierait qu’à chaque traitement
syntaxique d’un syntagme, il suivrait un traitement sémantique. Il faudrait alors rechercher le concept lié au lemme en question pour l’intégrer dans un modèle de discours. De la même façon, le traitement du nombre devrait avoir un pendant sur le
niveau sémantique. Il conviendrait de clarifier quelles fonctions un trait de pluriel
sémantique remplirait différemment du trait de pluriel syntaxique. L’intégration du
niveau sémantique permettrait de modéliser l’effet de réactivation en construction
SOV. Si on suppose qu’un trait de pluriel sémantique peut aussi contribuer à la détermination du nombre du verbe, il serait également possible de remédier à la lacune
évoquée dans la troisième partie : l’ordre peu motivé entre la connexion syntaxique
d’un SN modificateur et la détermination de son nombre. On pourrait renoncer à cet
ordre si on suppose qu’après le traitement syntaxique, il se produit encore la formation d’un trait de pluriel sémantique susceptible de se référer fautivement au premier
SN en condition SP. Eventuellement, une explication basée sur la combinaison des
influences sémantiques et syntaxiques pourrait également éclairer les fluctuations des
résultats après les têtes au pluriel.
Il serait également intéressant d’élargir le modèle à d’autres paradigmes expérimentaux. Cet élargissement rendrait justice à l’influence importante du paradigme sur les
résultats. Il montrerait également que le paradigme expérimental joue sur l’ordre des
étapes du traitement et peut requérir d’ajouter ou d’enlever certains étapes, sans toutefois changer les principes généraux du traitement sur lesquels est fondé le modèle
actuel. Ceci serait vrai aussi pour un élargissement particulièrement intéressant, notamment celui qui viserait à intégrer des paradigmes qui tentent de provoquer une
production pure sans avoir recours à la compréhension. Dans un tel paradigme, le
modèle devrait partir de concepts prédéfinis pour former toute la phrase. Cela chan103
gerait sans doute la dynamique des activations, mais il y aurait tout de même des
processus qui resteraient les mêmes que ceux de la modélisation de la compréhension. Par exemple, le modèle formerait lors de la production un trait de pluriel qui
aurait la même forme que dans les expériences de compréhension et qui devrait aussi
être récupéré pour la production du verbe.
Ces changements devraient être accompagnés d’études empiriques. Certaines questions empiriques se posent déjà à partir du modèle existant et de notre premier test
expérimental : Ainsi pourrait-on, par une réplique exacte de l’expérience décrite dans
la quatrième partie en allemand, vérifier si l’absence de l’adjectif peut véritablement
influencer l’erreur générale de singulier. Les interprétations concernant la présente
expérience pourraient aussi être testées par l’utilisation d’un autre paradigme expérimental en français. De plus, les
idées développées pour expliquer l’effet
d’attraction par l’objet dans la troisième partie seraient à tester par des expériences
dans des langues différentes, dans lesquelles non seulement la construction, mais
aussi le paradigme expérimental resteraient constants.
Les élargissements du modèle feraient émerger de nouvelles questions empiriques. Il
serait bon, par exemple, d’accompagner l’élargissement sémantique par des études
empiriques concernant les influences sémantiques, dont peu jusqu’ici ont été réalisées en allemand. Enfin, le rôle important attribué au paradigme expérimental suggère d’étudier de façon systématique les effets d’autres paradigmes expérimentaux.
Pour créer une situation plus proche de la production réelle, on pourrait par exemple
inciter des sujets à décrire des images.
Ce n’est que de cette façon qu’il nous semble possible d’identifier tous les facteurs
pertinents dans l’établissement de l’accord, afin de nous approcher du but superordonné de la recherche sur les erreurs d’accord, évoqué dans l’introduction : ce but est
de mieux comprendre, dans la production du langage, l’établissement global des dépendances sur de longues distances.
104
Bibliographie
Abraham, W. (1988). Terminologie zur neueren Linguistik. Tübingen: Max Niemeyer Verlag.
ACT-R, site web: http://act-r.psy.cmu.edu/
ACT-R, tutorat: http://act-r.psy.cmu.edu/tutorials/
ACT-R, introduction: http://act-r.psy.cmu.edu/tutorials/ACT-R_intro_tutorial.ppt
Anderson, J. R., Bothell, D., Byrne M. D. et Lebiere, C. (soumis). An Integrated
Theory of the Mind. Psychological Review.
Anderson, J. R., Fincham, J. M. et Douglass, S. (1999). Practice and retention: A
unifying analysis. Journal of Experimental Psychology: Learning, Memory, and
Cognition, 25, 1120-1136.
Anderson, J. R. et Lebiere, C. (1998). The atomic components of thought. Mahwah,
NJ: Erlbaum.
Baddeley, A. D. (1986). Working Memory. Oxford: Oxford University Press.
Bock, J. K. et Cutting, J. C. (1992). Regulating mental energy: Performance units in
language production. Journal of Memory and Language, 31, 99-127.
Bock, J. K. et Eberhard, K. N. (1993). Meaning sound and syntax in English number
agreement. Language and Cognitive Processes, 8, 57-99.
Bock, J. K., Eberhard, K., Cutting, C. J., Meyer, A. S. et Schriefers, H. (2001). Some
attractions of verb agreement. Cognitive Psychology, 43, 83-128.
Bock, J. K. et Levelt, W. (1994). Language Production. Grammatical Encoding. in
Gernsbacher, M. A. (Edit.) Handbook of Psycholinguistics. San Diego: Academic
Press.
Bock, J. K. et Miller, C. A. (1991). Broken Agreement. Cognitive Psychology, 23,
35-43.
Branigan, H. P. (1995). Language processing and the mental representation of syntactic structure. Thèse de doctorat, Edinburgh University.
Branigan, H. P., Liversedge, S. P. et Pickering, M. J.(1995). Verb agreement in written comprehension and production. Paper présenté au 8th Annual CUNY Sentence
Processing Conference, Tuscon, AZ.
Budiu, R. & Anderson, J. R. (soumis). Interpretation-Based Processing: A Unified
Theory of Semantic Sentence Processing.
105
Chanquoy, L. et Negro, I. (1996). Subject-Verb Agreement in written productions: a
study on French children and adults. Journal of Psycholinguistic research, 25, 553570.
Chomsky, N. (1995). The Minimalist Program. Cambridge, MA: MIT Press.
Dubois, J. (1965). Grammaire structurale du Français: Nom et Pronom. Paris : Larousse.
Eberhard, K. (1997). The Marked Effect of Number on Subject-Verb Agreement.
Journal of Memory and Language, 36, 147-164.
Fayol, M. et Got, C. (1991). Automatisme et contrôle dans la production écrite / Les
erreurs d’accord sujet-verbe chez l’enfant et l’adulte. L’année Psychologique, 91,
187-205.
Fayol, M., Largy, P. et Lemaire, P. (1994). Cognitive Overload and Orthographic
Errors : When Cognitive Overload Enhances Subject-Verb-Agreement errors. A
Study in French Written Language. The quarterly Journal of Experimental Psychology, 47A (2), 437- 464.
Francis, W. N. (1986). Proximity Concord in English. Journal of English linguistics,
19, 309-318.
Fodor, J. A. (1983). The modularity of mind. Cambridge, MA: MIT Press.
Franck, J., Bowers, J. S., Frauenfelder, U. H. et Vigliocco, G. (2003): Orthographic
influences on agreement: a case for modality-specific form effects of grammatical
encoding. Language and cognitive processes, 18(1), 61-79.
Franck, J., Lassi, G., Frauenfelder, U. H. et Rizzi, L. (soumis). Agreement and
movement: a syntactic analysis of attraction.
Franck, J., Vigliocco, G. et Nicol, J. (2002). Subject-Verb agreement errors in French
and English: The role of syntactic hierarchy. Journal of Language and Cognitive
Processes.
Garrett, M. F. (1975). The analysis of sentence production. in G. H. Bower (Edit.),
The Psychology of Learning and Motivation, 133-177. New York: Academic Press.
Garrett, M. F. (1980). Levels of processing in sentence production. In Butterworth,
B. (Edit.) Language production, Vol. 1, 177-220. London: Academic Press.
Gathercole, S. E. et Baddeley, A. D. (1993). Working memory and language. Hove:
Lawrence Earlbaum Associates Ltd.
Hartsuiker, R., Antón-Méndez, I. et van Zee, M. (2001). Object attraction in SubjectVerb agreement Construction. Journal of Memory and Language 45, 546-572.
106
Haskell, T. et MacDonald, M. (2002). Proximity does matter: Evidence for distributional effects in the production of subject-verb agreement. Poster présenté au
15thannual CUNY conference on human sentence processing, New York.
Haskell, T. et MacDonald, M. (2003). Conflicting cues and competition in subjectverb agreement. Journal of Memory and Language 48, 760-778.
Hemforth, B. et Konieczny, L. (2003). Proximity in Agreement Errors. in Proceedings of the 25th Annual Conference of the Cognitive Science Society, Boston, MA.
Hemforth, B. Konieczny, L. et Schimke, S. (2003). Modifier attraction and object
attraction. Poster présenté au Conference on architectures and Mechanisms of Language Processing (AMLaP), August 2003, Glasgow.
Hölscher, C. et Hemforth, B. (2000). Subject-verb agreement in German. In B. Hemforth & L. Konieczny, German sentence processing (279-310). Dordrecht: Kluwer
Academic publishers.
Hupet, M., Fayol, M. et Schelstraete, M.-A. (1998). Effects of semantic variables on
the subject-verb agreement process in writing. British Journal of Psychology, 89, 5975.
Hupet, M., Schelstraete, M.A., Demaeght, N. et Fayol, M. (1996). Les erreurs
d’accord sujet-verbe en production écrite. L’Année Psychologique, 96, 587-610.
Jakobson, R. (1957). Shifters, verbal categories and the russian verb (Russian Language Project Report). Cambridge: Harvard University, Department of Slavic Languages and Literatures.
Jespersen, (1924). The philosophy of Grammar. London: Allen & Unwin.
Kail, M. et Bassamo, D. (1997). Verb Agreement Processing in French: A study of
on-line grammaticality judgements. Language and Speech, 40, 25-46.
Kempen, G. et Hoenkamp, E. (1987). An incremental procedural grammar for sentence formulation. Cognitive science, 11, 201-258.
Konieczny, L. (1996). Human sentence processing: A semantics-oriented parsing
approach. Thèse de doctorat. Freiburg, Allemagne: IIG-Berichte, 6-96. AlbertLudwigs-Universität.
Konieczny, L. et Döring, P. (2003). Anticipation of clause-final heads. Evidence
from eye-tracking and SRNs. in Slezak, P. P. (Edit.): Proceedings of the 4th
International Conference on Cognitive Science, July 13-17, 2003, University
of New South Wales, Sydney, Australia, 330-335.
Konieczny, L., Schimke, S. et, Hemforth, B. (2004). An activation-based model of
agreement errors in production and comprehension. Poster à présenter au
26th Annual Meeting of the Cognitive Science Society, Chicago, août 2004.
107
Largy, P., Chanquoy, L. et Fayol, M. (1993). Automatic and controlled writing: subject-verb agreement errors in French native speakers. In Eigler, G. et Jechle, T.
(Edit.), Writing: Current trends in European research, 109-120. Freiburg, Allemagne: Hochschul Verlag.
Largy, P. et Fayol, M. (2001). Oral cues improve subject-verb-agreement in written
French. International Journal of Psychology, 36, 121-131.
Levelt, W. (1989). Speaking: From intention to articulation. Cambridge: MIT Press.
Nicol, J. (1995). Effects of clausal structure on Subject-Verb Agreement Errors.
Journal of psycholinguistic Research, 24, 507-516.
Nicol, J. Forster, K.L. et Veres, C. (1997). Subject-verb Agreement Processes in
Comprehension. Journal of Memory and Language, 36, 569 – 587.
Pearlmutter, N. J. (2000). Linear versus hierarchical agreement feature processing in
comprehension. Journal of psycholinguistic research, 29, 89-98.
Pearlmutter, N. J., Garnsey, S. M. et Bock, J. K. (1999). Agreement processes in sentence comprehension. Journal of Memory and Language, 41, 427-456.
Power, M. J. (1985). Sentence Production and Working memory. Quarterly Journal
of Experimental Psychology, 37A, 376-385.
Schriefers, H. et van Kampen, A. (1993). Syntaktische Prozesse bei der Sprachproduktion: Zur Numerus-Kongruenz zwischen Subjekt und Verb. Sprache und Kognition, 12, 205-216.
Sternberger, J. P. (1985). An interactive actvation model of language production. in
Ellis, A. (Edit.). Progress in the Psychology of language, 143-186. Hove, UK: Lawrence Erlbaum Asoociates Ltd.
Vigliocco, G. , Butterworth, B. et Garrett, M. (1996). Subject-Verb-Agreement in
Spanish and English: Differences in the role of conceptual constraints. Cognition, 61,
261-298.
Vigliocco, G., Butterworth, B. et Semenza, C. (1995). Constructing Subject-VerbAgreement in speech: the role of semantic and morphological factors. Journal of
memory and language, 34, 186-215.
Vigliocco, G., Hartsuiker, R., Jarema, G. et Kolk, H. (1996). One or More Lables on
the Bottles? Notional Concord in Dutch and French. Language and Cognitive Processes, 11 (4), 407-442.
Vigliocco, G. et Nicol, J. (1998). Separating hierarchical relations and word order in
language production: is proximity concord syntactic or linear? Cognition (68), B13B29.
108
Annexe
I. Le modèle
Les types de chunk
(chunk-type comprehend-sentence subject predicate state)
(chunk-type process-np parent state )
(chunk-type read-vp aux part parent state function)
(chunk-type read-np det n case modifies parent state function)
(chunk-type read-item lemma category parent state)
(chunk-type search-modified-np modifying modified parent state)
(chunk-type check-plural parent state)
(chunk-type plural-feature feature np parent state)
(chunk-type lemma-feature type feature det n)
(chunk-type lemma string category)
La mémoire déclarative
(add-dm
(goal isa comprehend-sentence state "start-check-item")
(der isa lemma string "der" category det)
(die isa lemma string "die" category det)
(des isa lemma string "des" category det)
(Schüler isa lemma string "schüler" category n)
(Lehrerin isa lemma string "lehrerin" category n)
(Schülers isa lemma string "schülers" category n)
(Lehrerinnen isa lemma string "lehrerinnen" category n)
(verwundert isa lemma string "verwundert" category part)
(plural-der-Schüler isa lemma-feature type number feature plural det der n Schüler)
(plural-die-Lehrerinnen isa lemma-feature type number feature plural det die n Lehrerinnen)
(nominativ-die-Lehrerin isa lemma-feature type case feature nom det die n Lehrerin)
(nominativ-die-Lehrerinnen isa lemma-feature type case feature nom det die n Lehrerinnen)
(genitiv-des-Schülers isa lemma-feature type case feature gen det des n Schülers)
(genitiv-der-Schüler isa lemma-feature type case feature gen det der n Schüler)
)
Les productions
(p check-item
=goal>
isa comprehend-sentence
state "start-check-item"
==>
=goal>
state "check-item"
+visual-location>
isa visual-location
screen-x greater-than-current
nearest current
+goal>
isa read-item
parent =goal
state "attend")
(p comprehend-sentence-start-process-np
=goal>
isa comprehend-sentence
state "check-item"
=retrieval>
isa read-item
state "complete"
lemma =det
category det
==>
=goal>
state "encode"
+goal>
isa process-np
parent =goal
state "start")
(p comprehend-sentence-start-read-vp
isa comprehend-sentence
state "check-item"
=retrieval>
isa read-item
state "complete"
lemma =part
category part
==>
=goal>
state "encode"
109
=goal>
isa read-item
state "attend"
=visual-location>
isa visual-location
=visual-state>
isa module-state
modality free
+goal>
isa read-vp
parent =goal
part =part
state "start")
(p start-read-vp
=goal>
isa read-vp
state "start"
==>
=goal>
state "encode"
+visual-location>
isa visual-location
screen-x greater-than-current
nearest current
+goal>
isa read-item
parent =goal
state "attend")
(p start-process-np
=goal>
isa process-np
state "start"
=retrieval>
isa read-item
lemma =det
category det
state "complete"
==>
=goal>
state "encode"
+retrieval> =goal
+goal>
isa read-np
det =det
parent =goal
state "start")
(p start-read-np
=goal>
isa read-np
det =det
state "start"
=retrieval>
isa process-np
state "encode"
==>
=goal>
state "encode"
+visual-location>
isa visual-location
screen-x greater-than-current
nearest current
+goal>
isa read-item
parent =goal
state "attend")
(p attend-item
==>
+retrieval> =goal
+visual>
isa visual-object
screen-pos =visual-location
=goal>
state "retrieve")
(p no-more-items
=goal>
isa read-item
parent =parent
state "attend"
=visual-location>
isa error
==>
=goal>
state "no-more-items"
+goal> =parent
+retrieval> =goal)
(p retrieve-item
=goal>
isa read-item
parent =parent
state "retrieve"
=retrieval>
isa read-item
=visual>
isa text
value =val
==>
+retrieval>
isa lemma
string =val
=goal>
state "retrieved")
(p continue-subgoal-no-retrieval
isa read-item
state "retrieved"
=retrieval>
isa error
==>
=goal>
state "attend"
+visual-location>
isa visual-location
screen-x greater-than-current
nearest current)
(p end-subgoal
=goal>
isa read-item
110
state "retrieved"
parent =parent
=retrieval>
isa lemma
category =cat
==>
=goal>
lemma =retrieval
category =cat
state "complete"
+retrieval> =goal
+goal> =parent)
(p encode-n
=goal>
isa read-np
det =det
state "encode"
=retrieval>
isa read-item
category n
lemma =n
==>
=goal>
n =n
state "search-case"
+retrieval>
isa lemma-feature
type case
det =det
n =n)
(p encode-no-more-items
=goal>
isa read-vp
parent =parent
state "encode"
=retrieval>
isa read-item
state "no-more-items"
==>
=goal>
state "no-more-items"
+goal> =parent
+retrieval> =goal)
(p encode-nominativ-np
=goal>
isa read-np
parent =parent
state "search-case"
=retrieval>
isa lemma-feature
type case
feature nom
==>
=goal>
case nom
state "complete"
+retrieval> =goal
+goal> =parent)
(p encode-genitiv-np
=goal>
isa read-np
parent =parent
state "search-case"
=retrieval>
isa lemma-feature
type case
feature gen
==>
=goal>
case gen
state "complete"
+retrieval> =goal
+goal> =parent)
(p start-search-modified-np
=goal>
isa process-np
state "encode"
=retrieval>
isa read-np
case gen
state "complete"
==>
=goal>
state "search-modified-np"
+goal>
isa search-modified-np
modifying =retrieval
parent =goal
state "start")
(p search-modified-np
=goal>
isa search-modified-np
state "start"
==>
+retrieval>
isa read-np
case nom
state "complete"
=goal>
state "search-modified")
(p encode-modified-np
=goal>
isa search-modified-np
modifying =modifying
state "search-modified"
=retrieval>
isa read-np
case nom
==>
=goal>
modified =retrieval
state "search-modifying"
+retrieval> =modifying)
(p end-search-modified-np
=goal>
111
isa search-modified-np
parent =parent
modified =modified
state "search-modifying"
=retrieval>
isa read-np
state "complete"
==>
=goal>
state "complete"
=retrieval>
modifies =modified
+retrieval> =goal
+goal> =parent)
(p start-check-plural-1
=goal>
isa process-np
state "encode"
=retrieval>
isa read-np
- case gen
state "complete"
==>
=goal>
state "check-plural"
+retrieval>
isa read-np
- case gen
state "complete"
+goal>
isa check-plural
parent =goal
state "start")
(p start-check-plural-2
=goal>
isa process-np
state "search-modified-np"
=retrieval>
isa search-modified-np
state "complete"
==>
=goal>
state "check-plural"
+retrieval>
isa read-np
case gen
state "complete"
+goal>
isa check-plural
parent =goal
state "start")
(p search-plural-feature
=goal>
isa check-plural
state "start"
=retrieval>
isa read-np
det =det
n =n
state "complete"
==>
+retrieval>
isa lemma-feature
type number
feature plural
det =det
n =n
=goal>
state "search-plural-feature"
+goal>
isa plural-feature
parent =goal
state "start")
(p no-plural
=goal>
isa plural-feature
parent =parent
state "start"
=retrieval>
isa error
==>
=goal>
state "complete"
+goal> =parent
+retrieval> =goal)
(p search-plural-np
=goal>
isa plural-feature
state "start"
=retrieval>
isa lemma-feature
feature plural
==>
+retrieval>
isa read-np
state "complete"
=goal>
feature plural
state "search-plural-np")
(p encode-plural-np
=goal>
isa plural-feature
parent =parent
state "search-plural-np"
=retrieval>
isa read-np
state "complete"
==>
=goal>
np =retrieval
state "complete"
+goal> =parent
+retrieval> =goal)
(p stop-check-plural
=goal>
isa check-plural
parent =parent
112
state "search-plural-feature"
=retrieval>
isa plural-feature
state "complete"
==>
=goal>
state "complete"
+goal> =parent
+retrieval> =goal)
(p stop-process-np
=goal>
isa process-np
parent =parent
state "check-plural"
=retrieval>
isa check-plural
state "complete"
==>
=goal>
state "complete"
+goal> =parent
+retrieval> =goal)
(p search-subject-np
=goal>
isa comprehend-sentence
subject nil
state "encode"
=retrieval>
isa process-np
state "complete"
==>
+retrieval>
isa read-np
parent =retrieval
state "complete"
=goal>
state "search-subject-np")
(p encode-subject-np
=goal>
isa comprehend-sentence
state "search-subject-np"
=retrieval>
isa read-np
det =det
n =n
state "complete"
==>
=retrieval>
function subject
=goal>
subject "complete"
state "start-check-item")
(p process-modifier-np;
=goal>
isa comprehend-sentence
subject "complete"
state "encode"
=retrieval>
isa process-np
state "complete"
==>
=goal>
state "start-check-item")
(p end-comprehend
=goal>
isa comprehend-sentence
subject "complete"
state "encode"
=retrieval>
isa read-vp
state "no-more-items"
==>
=retrieval>
function predicate
=goal>
state "answer"
predicate "complete"
+retrieval>
isa read-np
function subject)
(p answer-singular
=goal>
isa comprehend-sentence
state "answer"
=retrieval>
isa read-np
function subject
=manual-state>
isa module-state
modality free
==>
+manual>
isa press-key
key "s"
=goal>
state "stop"
!output! "ist")
(p answer-singular-2
=goal>
isa comprehend-sentence
state "answer"
=retrieval>
isa error
=manual-state>
isa module-state
modality free
==>
+manual>
isa press-key
key "s"
=goal>
state "stop"
!output! "ist")
(p answer-plural
=goal>
isa comprehend-sentence
113
=retrieval>
isa plural-feature
=manual-state>
isa module-state
modality free
state "answer"
=retrieval>
isa read-np
function subject
==>
==>
+retrieval>
isa plural-feature
np
=retrieval)
+manual>
isa press-key
key "p"
=goal>
state "stop"
!output! "sind")
(p answer-plural-2
=goal>
isa comprehend-sentence
state "answer"
Les valeurs de paramètres
(sgp :esc t :dmt nil :gt nil :mt nil :cst nil :act nil :blc 3 :ga 1 :ans 0.052 :v nil :bll 0.5 :rt 3.82 :egs
0.05)
(pm-set-params :visual-num-finsts 10 :visual-finst-span 100 :real-time nil :show-focus nil)
(setallbaselevels 1000 -10)
(goal-focus goal)
(spp answer-singular :p .55)
(spp answer-plural :p .6)
Code pour le déroulement de l’expérience
(defvar *response* nil)
(defvar *response-time* nil)
(defconstant *hem-kon-02-data* '(2 5 14
13.9))
(defparameter *materials* '(
(1 ss
Lehrerin des Schülers _ verwundert")
(2 sp
Lehrerin der Schüler _ verwundert")
(3 ps
Lehrerinnen des Schülers _ verwundert")
(4 pp
Lehrerinnen der Schüler _ verwundert")
"Die
"Die
"Die
"Die
))
(defun get-s-num (sentence)
(first sentence))
(defun get-condition (sentence)
(second sentence))
(defun get-sentence (sentence)
(third sentence))
(defun correct-response-p (response condition)
(if (or (equal condition 'ss)
(equal condition 'sp))
(string= "s" response)
(string= "p" response)))
(defun test-sentence (test)
(if *actr-enabled-p*
(test-sentence-model test)
(test-sentence-person test)))
(defun test-sentence-model (test)
(let ((window (open-exp-window "Agreement Experiment" :visible t))); :width 300)))
(reset)
(pm-install-device window)
(add-text-to-exp-window :text (third test) :x
50 :y 100)
(pm-proc-display); :clear t)
(setf *response-time* nil)
(setf *response* nil)
(let ((start-time (pm-get-time)))
(pm-run 30.00 :full-time nil)
(setf *response-time* (if *response-time*
(- *response-time* starttime)
30000)))
(list (get-s-num test)
(get-condition test)
(/ *response-time* 1000.0)
(correct-response-p *response* (getcondition test)))))
(defun test-sentence-person (test)
(let ((window (open-exp-window "Sentence
Experiment" :visible t :width 300)))
;(reset)
(add-text-to-exp-window :text (third test) :x
25 :y 150 :width 250)
(setf *response-time* nil)
(setf *response* nil)
(sgp :v nil)
(let ((start-time (pm-get-time)))
(while (null *response*)
(allow-event-manager window))
(setf *response-time* (- *response-time*
start-time)))
114
(list (get-s-num test)
(get-condition test)
(/ *response-time* 1000.0)
(correct-response-p *response*
condition test)))))
(get-
(defun test-sentences (set)
(let ((results nil))
(dolist (x set)
(push (test-sentence x) results))
(pprint results)
results))
(defun do-experiment (&key (in-order t) (vpn
1))
(let ((all-results nil))
(do ((i 0 (1+ i)))
((= i vpn))
(let ((tests (if in-order
*materials*
(permute-list *materials*))))
(reset)
(push (cons (1+ i)
(test-sentences tests))
all-results)))
(report-data all-results)))
(defun collect-condition (condition alist)
(let ((selected nil))
(dolist (trial alist)
(when (equal condition (first trial))
(push trial selected)))
selected))
(defun mean (lst)
(/ (apply #'+ lst) (length lst)))
(defun mean-rt (items)
(mean (mapcar #'second items)))
(defun percent-errors (items)
(* (mean (mapcar #'(lambda (item)
(if (third item)
0
1))
items))
100))
(pp-err nil)
(mean-rts nil)
(mean-err nil))
(dolist (vpn lis)
(let ((ss (collect-condition 'ss (mapcar
#'rest (rest vpn))))
(sp (collect-condition 'sp (mapcar
#'rest (rest vpn))))
(ps (collect-condition 'ps (mapcar
#'rest (rest vpn))))
(pp (collect-condition 'pp (mapcar
#'rest (rest vpn)))))
(push (mean-rt ss) ss-rts )
(push (mean-rt sp) sp-rts )
(push (mean-rt ps) ps-rts )
(push (mean-rt pp) pp-rts )
(push (percent-errors ss)ss-err )
(push (percent-errors sp) sp-err )
(push (percent-errors ps) ps-err )
(push (percent-errors pp) pp-err )
))
(setf mean-rts
(list (mean ss-rts)
(mean sp-rts)
(mean ps-rts)
(mean pp-rts)))
(setf mean-err
(list (mean ss-err)
(mean sp-err)
(mean ps-err)
(mean pp-err)))
(format t "~%~%
Mean RT Percent
errors~%")
(format t "SS: ~9,3F ~9,1F~%" (first meanrts) (first mean-err))
(format t "SP: ~9,3F ~9,1F~%" (second
mean-rts) (second mean-err))
(format t "PS: ~9,3F ~9,1F~%" (third meanrts) (third mean-err))
(format t "PP: ~9,3F ~9,1F~%" (fourth
mean-rts) (fourth mean-err)))
'done)
(defmethod rpm-window-key-event-handler
((win rpm-window) key)
(setf *response-time* (pm-get-time))
(setf *response* (string key)))
;(percent-errors '((ss 3.4 t) (ss 3.4 nil) (ss 3.4
nil) (ss 3.4 nil) (ss 3.4 nil) (ss 3.4 t)))
;(mean-rt '((ss 3.4 t) (ss 3.4 nil) (ss 3.4 nil) (ss
3.4 nil) (ss 3.4 nil) (ss 3.4 t)))
;(mean '(1 2 3 4))
(defun go ()
(do-experiment))
(defun report-data (lis)
(let ((ss-rts nil)
(sp-rts nil)
(ps-rts nil)
(pp-rts nil)
(ss-err nil)
(sp-err nil)
(ps-err nil)
(clear-all)
(pm-reset)
(defun go2 (n)
(do-experiment :vpn n))
115
II. Protocoles de passages du modèle66
protocole 1
Condition SP
Time 0.000: Check-Item Selected
Time 0.050: Check-Item Fired
Time
0.050: Module :VISION running
command FIND-LOCATION
Time 0.050: Attend-Item Selected
Time 0.100: Attend-Item Fired
Time 0.100: Goal198 Retrieved
Time
0.100: Module :VISION running
command MOVE-ATTENTION
Time
0.185: Module :VISION running
command ENCODING-COMPLETE
Time 0.185: Retrieve-Item Selected
Time 0.235: Retrieve-Item Fired
Time 0.235: Die Retrieved
Time 0.235: End-Subgoal Selected
Time 0.285: End-Subgoal Fired
Time 0.291: Goal198 Retrieved
Time 0.291: Comprehend-Sentence-StartProcess-Np Selected
Time 0.341: Comprehend-Sentence-StartProcess-Np Fired
Time 0.341: Start-Process-Np Selected
Time 0.391: Start-Process-Np Fired
Time 0.392: Goal200 Retrieved
Time 0.392: Start-Read-Np Selected
Time 0.442: Start-Read-Np Fired
Time
0.442: Module :VISION running
command FIND-LOCATION
Time 0.442: Attend-Item Selected
Time 0.492: Attend-Item Fired
Time 0.492: Goal202 Retrieved
Time
0.492: Module :VISION running
command MOVE-ATTENTION
Time
0.577: Module :VISION running
command ENCODING-COMPLETE
Time 0.577: Retrieve-Item Selected
Time 0.627: Retrieve-Item Fired
Time 0.627: Lehrerin Retrieved
Time 0.627: End-Subgoal Selected
Time 0.677: End-Subgoal Fired
Time 0.683: Goal202 Retrieved
Time 0.683: Encode-N Selected
Time 0.733: Encode-N Fired
Time 0.733: Nominativ-Die-Lehrerin Retrieved
Time 0.733: Encode-Nominativ-Np Selected
Time 0.783: Encode-Nominativ-Np Fired
Time 0.798: Goal201 Retrieved
Time 0.798: Start-Check-Plural-1 Selected
Time 0.848: Start-Check-Plural-1 Fired
Time 0.848: Goal201 Retrieved
66
En règle générale, les passages documentés
ici ont été faits par le modèle comme présenté
à l’annexe 1. Tout changement de paramètre
par rapport à cette forme du modèle est indiqué.
Time 0.848: Search-Plural-Feature Selected
Time 0.898: Search-Plural-Feature Fired
Time 0.920: Failure Retrieved
Time 0.920: No-Plural Selected
Time 0.970: No-Plural Fired
Time 0.978: Goal206 Retrieved
Time 0.978: Stop-Check-Plural Selected
Time 1.028: Stop-Check-Plural Fired
Time 1.039: Goal205 Retrieved
Time 1.039: Stop-Process-Np Selected
Time 1.089: Stop-Process-Np Fired
Time 1.100: Goal200 Retrieved
Time 1.100: Search-Subject-Np Selected
Time 1.150: Search-Subject-Np Fired
Time 1.158: Goal201 Retrieved
Time 1.158: Encode-Subject-Np Selected
Time 1.208: Encode-Subject-Np Fired
Time 1.208: Check-Item Selected
Time 1.258: Check-Item Fired
Time
1.258: Module :VISION running
command FIND-LOCATION
Time 1.258: Attend-Item Selected
Time 1.308: Attend-Item Fired
Time 1.308: Goal207 Retrieved
Time
1.308: Module :VISION running
command MOVE-ATTENTION
Time
1.393: Module :VISION running
command ENCODING-COMPLETE
Time 1.393: Retrieve-Item Selected
Time 1.443: Retrieve-Item Fired
Time 1.443: Der Retrieved
Time 1.443: End-Subgoal Selected
Time 1.493: End-Subgoal Fired
Time 1.499: Goal207 Retrieved
Time 1.499: Comprehend-Sentence-StartProcess-Np Selected
Time 1.549: Comprehend-Sentence-StartProcess-Np Fired
Time 1.549: Start-Process-Np Selected
Time 1.599: Start-Process-Np Fired
Time 1.600: Goal210 Retrieved
Time 1.600: Start-Read-Np Selected
Time 1.650: Start-Read-Np Fired
Time
1.650: Module :VISION running
command FIND-LOCATION
Time 1.650: Attend-Item Selected
Time 1.700: Attend-Item Fired
Time 1.700: Goal212 Retrieved
Time
1.700: Module :VISION running
command MOVE-ATTENTION
Time
1.785: Module :VISION running
command ENCODING-COMPLETE
Time 1.785: Retrieve-Item Selected
Time 1.835: Retrieve-Item Fired
Time 1.835: Schüler Retrieved
Time 1.835: End-Subgoal Selected
Time 1.885: End-Subgoal Fired
Time 1.891: Goal212 Retrieved
Time 1.891: Encode-N Selected
Time 1.941: Encode-N Fired
Time 1.941: Genitiv-Der-Schüler Retrieved
Time 1.941: Encode-Genitiv-Np Selected
117
Time 1.991: Encode-Genitiv-Np Fired
Time 2.007: Goal211 Retrieved
Time 2.007: Start-Search-Modified-Np Selected
Time 2.057: Start-Search-Modified-Np Fired
Time 2.057: Search-Modified-Np Selected
Time 2.107: Search-Modified-Np Fired
Time 2.115: Goal201 Retrieved
Time 2.115: Encode-Modified-Np Selected
Time 2.165: Encode-Modified-Np Fired
Time 2.166: Goal211 Retrieved
Time 2.166: End-Search-Modified-Np Selected
Time 2.216: End-Search-Modified-Np Fired
Time 2.227: Goal215 Retrieved
Time 2.227: Start-Check-Plural-2 Selected
Time 2.277: Start-Check-Plural-2 Fired
Time 2.277: Goal211 Retrieved
Time 2.277: Search-Plural-Feature Selected
Time 2.327: Search-Plural-Feature Fired
Time 2.327: Plural-Der-Schüler Retrieved
Time 2.327: Search-Plural-Np Selected
Time 2.377: Search-Plural-Np Fired
Time 2.383: Goal211 Retrieved
Time 2.383: Encode-Plural-Np Selected
Time 2.433: Encode-Plural-Np Fired
Time 2.441: Goal217 Retrieved
Time 2.441: Stop-Check-Plural Selected
Time 2.491: Stop-Check-Plural Fired
Time 2.504: Goal216 Retrieved
Time 2.504: Stop-Process-Np Selected
Merging chunk Goal210 into chunk Goal200
Time 2.554: Stop-Process-Np Fired
Time 2.563: Goal200 Retrieved
Time 2.563: Process-Modifier-Np Selected
Time 2.613: Process-Modifier-Np Fired
Time 2.613: Check-Item Selected
Time 2.663: Check-Item Fired
Time
2.663: Module :VISION running
command FIND-LOCATION
Time 2.663: Attend-Item Selected
Time 2.713: Attend-Item Fired
Time 2.713: Goal218 Retrieved
Time
2.713: Module :VISION running
command MOVE-ATTENTION
Time
2.798: Module :VISION running
command ENCODING-COMPLETE
Time 2.798: Retrieve-Item Selected
Time 2.848: Retrieve-Item Fired
Time 2.870: Failure Retrieved
Time 2.870: Continue-Subgoal-No-Retrieval
Selected
Time 2.920: Continue-Subgoal-No-Retrieval
Fired
Time
2.920: Module :VISION running
command FIND-LOCATION
Time 2.920: Attend-Item Selected
Time 2.970: Attend-Item Fired
Time 2.970: Goal218 Retrieved
Time
2.970: Module :VISION running
command MOVE-ATTENTION
Time
3.055: Module :VISION running
command ENCODING-COMPLETE
Time 3.055: Retrieve-Item Selected
Time 3.105: Retrieve-Item Fired
Time 3.105: Verwundert Retrieved
Time 3.105: End-Subgoal Selected
Time 3.155: End-Subgoal Fired
Time 3.160: Goal218 Retrieved
Time 3.160: Comprehend-Sentence-StartRead-Vp Selected
Time 3.210: Comprehend-Sentence-StartRead-Vp Fired
Time 3.210: Start-Read-Vp Selected
Time 3.260: Start-Read-Vp Fired
Time
3.260: Module :VISION running
command FIND-LOCATION
Time 3.260: No-More-Items Selected
Time 3.310: No-More-Items Fired
Time 3.316: Goal224 Retrieved
Time 3.316: Encode-No-More-Items Selected
Time 3.366: Encode-No-More-Items Fired
Time 3.377: Goal223 Retrieved
Time 3.377: End-Comprehend Selected
Time 3.427: End-Comprehend Fired
Time 3.435: Goal201 Retrieved
Time 3.435: Answer-Plural Selected
Time 3.485: Answer-Plural Fired
Time 3.507: Failure Retrieved
Time 3.507: Answer-Singular-2 Selected
ist
Time 3.557: Answer-Singular-2 Fired
Time
3.557: Module :MOTOR running
command PRESS-KEY
Time
3.707: Module :MOTOR running
command PREPARATION-COMPLETE
Time
3.757: Module :MOTOR running
command INITIATION-COMPLETE
Time
3.767: Device running command
OUTPUT-KEY
<< Window "Agreement Experiment" got key
#\s at time 3767 >>
Time
3.857: Module :MOTOR running
command FINISH-MOVEMENT
Time 3.857: Checking for silent events.
Time 3.857: * Nothing to run: No productions, no events.
protocole 2
condition PP, :egs 0 (pas de bruits dans les
utilités) , :cst t (sélection de productions
documentée)
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 0.000: Check-Item Selected
Time 0.050: Check-Item Fired
Time
0.050: Module :VISION running
command FIND-LOCATION
118
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 0.050: Attend-Item Selected
Time 0.100: Attend-Item Fired
Time 0.100: Goal212 Retrieved
Time
0.100: Module :VISION running
command MOVE-ATTENTION
Time
0.185: Module :VISION running
command ENCODING-COMPLETE
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 0.185: Retrieve-Item Selected
Time 0.235: Retrieve-Item Fired
Time 0.235: Die Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 0.235: End-Subgoal Selected
Time 0.285: End-Subgoal Fired
Time 0.291: Goal212 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 0.291: Comprehend-Sentence-StartProcess-Np Selected
Time 0.341: Comprehend-Sentence-StartProcess-Np Fired
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 0.341: Start-Process-Np Selected
Time 0.391: Start-Process-Np Fired
Time 0.392: Goal214 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 0.392: Start-Read-Np Selected
Time 0.442: Start-Read-Np Fired
Time
0.442: Module :VISION running
command FIND-LOCATION
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 0.442: Attend-Item Selected
Time 0.492: Attend-Item Fired
Time 0.492: Goal216 Retrieved
Time
0.492: Module :VISION running
command MOVE-ATTENTION
Time
0.577: Module :VISION running
command ENCODING-COMPLETE
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 0.577: Retrieve-Item Selected
Time 0.627: Retrieve-Item Fired
Time 0.627: Lehrerinnen Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 0.627: End-Subgoal Selected
Time 0.677: End-Subgoal Fired
Time 0.684: Goal216 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 0.684: Encode-N Selected
Time 0.734: Encode-N Fired
Time
0.734: Nominativ-Die-Lehrerinnen
Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 0.734: Encode-Nominativ-Np Selected
Time 0.784: Encode-Nominativ-Np Fired
Time 0.800: Goal215 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 0.800: Start-Check-Plural-1 Selected
Time 0.850: Start-Check-Plural-1 Fired
Time 0.850: Goal215 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 0.850: Search-Plural-Feature Selected
Time 0.900: Search-Plural-Feature Fired
Time 0.900: Plural-Die-Lehrerinnen Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 0.900: Search-Plural-Np Selected
Time 0.950: Search-Plural-Np Fired
Time 0.956: Goal215 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 0.956: Encode-Plural-Np Selected
Time 1.006: Encode-Plural-Np Fired
Time 1.015: Goal220 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 1.015: Stop-Check-Plural Selected
Time 1.065: Stop-Check-Plural Fired
Time 1.078: Goal219 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 1.078: Stop-Process-Np Selected
Time 1.128: Stop-Process-Np Fired
Time 1.141: Goal214 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 1.141: Search-Subject-Np Selected
Time 1.191: Search-Subject-Np Fired
Time 1.197: Goal215 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 1.197: Encode-Subject-Np Selected
Time 1.247: Encode-Subject-Np Fired
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 1.247: Check-Item Selected
Time 1.297: Check-Item Fired
Time
1.297: Module :VISION running
command FIND-LOCATION
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 1.297: Attend-Item Selected
Time 1.347: Attend-Item Fired
Time 1.347: Goal221 Retrieved
Time
1.347: Module :VISION running
command MOVE-ATTENTION
Time
1.432: Module :VISION running
command ENCODING-COMPLETE
1 productions out of 1 considered; expected
gain of chosen is: 19.950
119
Time 1.432: Retrieve-Item Selected
Time 1.482: Retrieve-Item Fired
Time 1.482: Der Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 1.482: End-Subgoal Selected
Time 1.532: End-Subgoal Fired
Time 1.537: Goal221 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 1.537: Comprehend-Sentence-StartProcess-Np Selected
Time 1.587: Comprehend-Sentence-StartProcess-Np Fired
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 1.587: Start-Process-Np Selected
Time 1.637: Start-Process-Np Fired
Time 1.638: Goal224 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 1.638: Start-Read-Np Selected
Time 1.688: Start-Read-Np Fired
Time
1.688: Module :VISION running
command FIND-LOCATION
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 1.688: Attend-Item Selected
Time 1.738: Attend-Item Fired
Time 1.738: Goal226 Retrieved
Time
1.738: Module :VISION running
command MOVE-ATTENTION
Time
1.823: Module :VISION running
command ENCODING-COMPLETE
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 1.823: Retrieve-Item Selected
Time 1.873: Retrieve-Item Fired
Time 1.873: Schüler Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 1.873: End-Subgoal Selected
Time 1.923: End-Subgoal Fired
Time 1.928: Goal226 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 1.928: Encode-N Selected
Time 1.978: Encode-N Fired
Time 1.978: Genitiv-Der-Schüler Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 1.978: Encode-Genitiv-Np Selected
Time 2.028: Encode-Genitiv-Np Fired
Time 2.044: Goal225 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 2.044: Start-Search-Modified-Np Selected
Time 2.094: Start-Search-Modified-Np Fired
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 2.094: Search-Modified-Np Selected
Time 2.144: Search-Modified-Np Fired
Time 2.150: Goal215 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 2.150: Encode-Modified-Np Selected
Time 2.200: Encode-Modified-Np Fired
Time 2.201: Goal225 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 2.201: End-Search-Modified-Np Selected
Time 2.251: End-Search-Modified-Np Fired
Time 2.260: Goal229 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 2.260: Start-Check-Plural-2 Selected
Time 2.310: Start-Check-Plural-2 Fired
Time 2.310: Goal225 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 2.310: Search-Plural-Feature Selected
Time 2.360: Search-Plural-Feature Fired
Time 2.360: Plural-Der-Schüler Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 2.360: Search-Plural-Np Selected
Time 2.410: Search-Plural-Np Fired
Time 2.416: Goal225 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 2.416: Encode-Plural-Np Selected
Time 2.466: Encode-Plural-Np Fired
Time 2.472: Goal231 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 2.472: Stop-Check-Plural Selected
Time 2.522: Stop-Check-Plural Fired
Time 2.534: Goal230 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 2.534: Stop-Process-Np Selected
Merging chunk Goal224 into chunk Goal214
Time 2.584: Stop-Process-Np Fired
Time 2.594: Goal214 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 2.594: Process-Modifier-Np Selected
Time 2.644: Process-Modifier-Np Fired
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 2.644: Check-Item Selected
Time 2.694: Check-Item Fired
Time
2.694: Module :VISION running
command FIND-LOCATION
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 2.694: Attend-Item Selected
Time 2.744: Attend-Item Fired
Time 2.744: Goal232 Retrieved
Time
2.744: Module :VISION running
command MOVE-ATTENTION
120
Time
2.829: Module :VISION running
command ENCODING-COMPLETE
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 2.829: Retrieve-Item Selected
Time 2.879: Retrieve-Item Fired
Time 2.901: Failure Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 2.901: Continue-Subgoal-No-Retrieval
Selected
Time 2.951: Continue-Subgoal-No-Retrieval
Fired
Time
2.951: Module :VISION running
command FIND-LOCATION
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 2.951: Attend-Item Selected
Time 3.001: Attend-Item Fired
Time 3.001: Goal232 Retrieved
Time
3.001: Module :VISION running
command MOVE-ATTENTION
Time
3.086: Module :VISION running
command ENCODING-COMPLETE
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 3.086: Retrieve-Item Selected
Time 3.136: Retrieve-Item Fired
Time 3.136: Verwundert Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 3.136: End-Subgoal Selected
Time 3.186: End-Subgoal Fired
Time 3.193: Goal232 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 3.193: Comprehend-Sentence-StartRead-Vp Selected
Time 3.243: Comprehend-Sentence-StartRead-Vp Fired
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 3.243: Start-Read-Vp Selected
Time 3.293: Start-Read-Vp Fired
Time
3.293: Module :VISION running
command FIND-LOCATION
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 3.293: No-More-Items Selected
Time 3.343: No-More-Items Fired
Time 3.349: Goal238 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 3.349: Encode-No-More-Items Selected
Time 3.399: Encode-No-More-Items Fired
Time 3.409: Goal237 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 3.409: End-Comprehend Selected
Time 3.459: End-Comprehend Fired
Time 3.468: Goal215 Retrieved
1 productions out of 2 considered; expected
gain of chosen is: 11.950
Time 3.468: Answer-Plural Selected
Time 3.518: Answer-Plural Fired
Time 3.540: Goal220 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 3.540: Answer-Plural-2 Selected
sind
Time 3.590: Answer-Plural-2 Fired
Time
3.590: Module :MOTOR running
command PRESS-KEY
Time
3.840: Module :MOTOR running
command PREPARATION-COMPLETE
Time
3.890: Module :MOTOR running
command INITIATION-COMPLETE
Time
3.990: Device running command
OUTPUT-KEY
<< Window "Agreement Experiment" got key
#\p at time 3990 >>
Time
4.140: Module :MOTOR running
command FINISH-MOVEMENT
Time 4.140: Checking for silent events.
Time 4.140: * Nothing to run: No productions, no events.
protocole 3
condition PP, :cst t (sélection de productions documentée)
1 productions out of 1 considered; expected
gain of chosen is: 20.088
Time 0.000: Check-Item Selected
Time 0.050: Check-Item Fired
Time
0.050: Module :VISION running
command FIND-LOCATION
1 productions out of 1 considered; expected
gain of chosen is: 19.980
Time 0.050: Attend-Item Selected
Time 0.100: Attend-Item Fired
Time 0.100: Goal352 Retrieved
Time
0.100: Module :VISION running
command MOVE-ATTENTION
Time
0.185: Module :VISION running
command ENCODING-COMPLETE
1 productions out of 1 considered; expected
gain of chosen is: 19.872
Time 0.185: Retrieve-Item Selected
Time 0.235: Retrieve-Item Fired
Time 0.235: Die Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.958
Time 0.235: End-Subgoal Selected
Time 0.285: End-Subgoal Fired
Time 0.291: Goal352 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.773
Time 0.291: Comprehend-Sentence-StartProcess-Np Selected
121
Time 0.341: Comprehend-Sentence-StartProcess-Np Fired
1 productions out of 1 considered; expected
gain of chosen is: 20.025
Time 0.341: Start-Process-Np Selected
Time 0.391: Start-Process-Np Fired
Time 0.392: Goal354 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.947
Time 0.392: Start-Read-Np Selected
Time 0.442: Start-Read-Np Fired
Time
0.442: Module :VISION running
command FIND-LOCATION
1 productions out of 1 considered; expected
gain of chosen is: 19.891
Time 0.442: Attend-Item Selected
Time 0.492: Attend-Item Fired
Time 0.492: Goal356 Retrieved
Time
0.492: Module :VISION running
command MOVE-ATTENTION
Time
0.577: Module :VISION running
command ENCODING-COMPLETE
1 productions out of 1 considered; expected
gain of chosen is: 19.823
Time 0.577: Retrieve-Item Selected
Time 0.627: Retrieve-Item Fired
Time 0.627: Lehrerinnen Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 20.009
Time 0.627: End-Subgoal Selected
Time 0.677: End-Subgoal Fired
Time 0.683: Goal356 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.969
Time 0.683: Encode-N Selected
Time 0.733: Encode-N Fired
Time
0.733: Nominativ-Die-Lehrerinnen
Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.962
Time 0.733: Encode-Nominativ-Np Selected
Time 0.783: Encode-Nominativ-Np Fired
Time 0.800: Goal355 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.916
Time 0.800: Start-Check-Plural-1 Selected
Time 0.850: Start-Check-Plural-1 Fired
Time 0.850: Goal355 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.977
Time 0.850: Search-Plural-Feature Selected
Time 0.900: Search-Plural-Feature Fired
Time 0.900: Plural-Die-Lehrerinnen Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.738
Time 0.900: Search-Plural-Np Selected
Time 0.950: Search-Plural-Np Fired
Time 0.956: Goal355 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.936
Time 0.956: Encode-Plural-Np Selected
Time 1.006: Encode-Plural-Np Fired
Time 1.013: Goal360 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.923
Time 1.013: Stop-Check-Plural Selected
Time 1.063: Stop-Check-Plural Fired
Time 1.074: Goal359 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.950
Time 1.074: Stop-Process-Np Selected
Time 1.124: Stop-Process-Np Fired
Time 1.132: Goal354 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.872
Time 1.132: Search-Subject-Np Selected
Time 1.182: Search-Subject-Np Fired
Time 1.187: Goal355 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.924
Time 1.187: Encode-Subject-Np Selected
Time 1.237: Encode-Subject-Np Fired
1 productions out of 1 considered; expected
gain of chosen is: 20.049
Time 1.237: Check-Item Selected
Time 1.287: Check-Item Fired
Time
1.287: Module :VISION running
command FIND-LOCATION
1 productions out of 1 considered; expected
gain of chosen is: 19.893
Time 1.287: Attend-Item Selected
Time 1.337: Attend-Item Fired
Time 1.337: Goal361 Retrieved
Time
1.337: Module :VISION running
command MOVE-ATTENTION
Time
1.422: Module :VISION running
command ENCODING-COMPLETE
1 productions out of 1 considered; expected
gain of chosen is: 19.766
Time 1.422: Retrieve-Item Selected
Time 1.472: Retrieve-Item Fired
Time 1.472: Der Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.975
Time 1.472: End-Subgoal Selected
Time 1.522: End-Subgoal Fired
Time 1.528: Goal361 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 20.025
Time 1.528: Comprehend-Sentence-StartProcess-Np Selected
Time 1.578: Comprehend-Sentence-StartProcess-Np Fired
1 productions out of 1 considered; expected
gain of chosen is: 19.844
Time 1.578: Start-Process-Np Selected
Time 1.628: Start-Process-Np Fired
Time 1.629: Goal364 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.793
Time 1.629: Start-Read-Np Selected
Time 1.679: Start-Read-Np Fired
122
Time
1.679: Module :VISION running
command FIND-LOCATION
1 productions out of 1 considered; expected
gain of chosen is: 19.960
Time 1.679: Attend-Item Selected
Time 1.729: Attend-Item Fired
Time 1.729: Goal366 Retrieved
Time
1.729: Module :VISION running
command MOVE-ATTENTION
Time
1.814: Module :VISION running
command ENCODING-COMPLETE
1 productions out of 1 considered; expected
gain of chosen is: 20.008
Time 1.814: Retrieve-Item Selected
Time 1.864: Retrieve-Item Fired
Time 1.864: Schüler Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.987
Time 1.864: End-Subgoal Selected
Time 1.914: End-Subgoal Fired
Time 1.920: Goal366 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 20.041
Time 1.920: Encode-N Selected
Time 1.970: Encode-N Fired
Time 1.970: Genitiv-Der-Schüler Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 20.060
Time 1.970: Encode-Genitiv-Np Selected
Time 2.020: Encode-Genitiv-Np Fired
Time 2.032: Goal365 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.911
Time 2.032: Start-Search-Modified-Np Selected
Time 2.082: Start-Search-Modified-Np Fired
1 productions out of 1 considered; expected
gain of chosen is: 19.943
Time 2.082: Search-Modified-Np Selected
Time 2.132: Search-Modified-Np Fired
Time 2.139: Goal355 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.938
Time 2.139: Encode-Modified-Np Selected
Time 2.189: Encode-Modified-Np Fired
Time 2.190: Goal365 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.988
Time 2.190: End-Search-Modified-Np Selected
Time 2.240: End-Search-Modified-Np Fired
Time 2.249: Goal369 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.738
Time 2.249: Start-Check-Plural-2 Selected
Time 2.299: Start-Check-Plural-2 Fired
Time 2.299: Goal365 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.894
Time 2.299: Search-Plural-Feature Selected
Time 2.349: Search-Plural-Feature Fired
Time 2.349: Plural-Der-Schüler Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.969
Time 2.349: Search-Plural-Np Selected
Time 2.399: Search-Plural-Np Fired
Time 2.404: Goal365 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.777
Time 2.404: Encode-Plural-Np Selected
Time 2.454: Encode-Plural-Np Fired
Time 2.462: Goal371 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.883
Time 2.462: Stop-Check-Plural Selected
Time 2.512: Stop-Check-Plural Fired
Time 2.523: Goal370 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.963
Time 2.523: Stop-Process-Np Selected
Merging chunk Goal364 into chunk Goal354
Time 2.573: Stop-Process-Np Fired
Time 2.582: Goal354 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 20.115
Time 2.582: Process-Modifier-Np Selected
Time 2.632: Process-Modifier-Np Fired
1 productions out of 1 considered; expected
gain of chosen is: 20.002
Time 2.632: Check-Item Selected
Time 2.682: Check-Item Fired
Time
2.682: Module :VISION running
command FIND-LOCATION
1 productions out of 1 considered; expected
gain of chosen is: 19.817
Time 2.682: Attend-Item Selected
Time 2.732: Attend-Item Fired
Time 2.732: Goal372 Retrieved
Time
2.732: Module :VISION running
command MOVE-ATTENTION
Time
2.817: Module :VISION running
command ENCODING-COMPLETE
1 productions out of 1 considered; expected
gain of chosen is: 19.970
Time 2.817: Retrieve-Item Selected
Time 2.867: Retrieve-Item Fired
Time 2.889: Failure Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.929
Time 2.889: Continue-Subgoal-No-Retrieval
Selected
Time 2.939: Continue-Subgoal-No-Retrieval
Fired
Time
2.939: Module :VISION running
command FIND-LOCATION
1 productions out of 1 considered; expected
gain of chosen is: 19.892
Time 2.939: Attend-Item Selected
Time 2.989: Attend-Item Fired
Time 2.989: Goal372 Retrieved
Time
2.989: Module :VISION running
command MOVE-ATTENTION
Time
3.074: Module :VISION running
command ENCODING-COMPLETE
123
1 productions out of 1 considered; expected
gain of chosen is: 19.958
Time 3.074: Retrieve-Item Selected
Time 3.124: Retrieve-Item Fired
Time 3.124: Verwundert Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 20.101
Time 3.124: End-Subgoal Selected
Time 3.174: End-Subgoal Fired
Time 3.179: Goal372 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.853
Time 3.179: Comprehend-Sentence-StartRead-Vp Selected
Time 3.229: Comprehend-Sentence-StartRead-Vp Fired
1 productions out of 1 considered; expected
gain of chosen is: 19.862
Time 3.229: Start-Read-Vp Selected
Time 3.279: Start-Read-Vp Fired
Time
3.279: Module :VISION running
command FIND-LOCATION
1 productions out of 1 considered; expected
gain of chosen is: 19.807
Time 3.279: No-More-Items Selected
Time 3.329: No-More-Items Fired
Time 3.335: Goal378 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.856
Time 3.335: Encode-No-More-Items Selected
Time 3.385: Encode-No-More-Items Fired
Time 3.394: Goal377 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.788
Time 3.394: End-Comprehend Selected
Time 3.444: End-Comprehend Fired
Time 3.451: Goal355 Retrieved
1 productions out of 2 considered; expected
gain of chosen is: 11.905
Time 3.451: Answer-Plural Selected
Time 3.501: Answer-Plural Fired
Time 3.522: Goal360 Retrieved
1 productions out of 1 considered; expected
gain of chosen is: 19.854
Time 3.522: Answer-Plural-2 Selected
sind
Time 3.572: Answer-Plural-2 Fired
Time
3.572: Module :MOTOR running
command PRESS-KEY
Time
3.822: Module :MOTOR running
command PREPARATION-COMPLETE
Time
3.872: Module :MOTOR running
command INITIATION-COMPLETE
Time
3.972: Device running command
OUTPUT-KEY
<< Window "Agreement Experiment" got key
#\p at time 3972 >>
Time
4.122: Module :MOTOR running
command FINISH-MOVEMENT
Time 4.122: Checking for silent events.
protocole 4
condition PP, :ans 0 (pas de bruit dans les
activations), :act t, :dmt t (récupération,
création et modification de chunks sont
documentées), :gt t (changements du but
actuel sont documentés)
Switching to goal Goal.
Time 0.000: Check-Item Selected
Modifying CHUNK Goal.
Creating CHUNK goal268.
Switching to goal Goal268.
Time 0.050: Check-Item Fired
Time
0.050: Module :VISION running
command FIND-LOCATION
Time 0.050: Attend-Item Selected
Modifying CHUNK Goal268.
Sources of activation are: (Goal)
Spreading activation 3.526 from source
Goal level 1.000 times IA 3.526
Computing a base level of 5.191 from 1
references from creation time 0.050
CHUNK Goal268 Activation 8.717 Latency
0.000
Time 0.100: Attend-Item Fired
Time 0.100: Goal268 Retrieved
Time
0.100: Module :VISION running
command MOVE-ATTENTION
Time
0.185: Module :VISION running
command ENCODING-COMPLETE
Time 0.185: Retrieve-Item Selected
Modifying CHUNK Goal268.
Sources of activation are: (Goal)
Computing a base level of 9.438 from 1000
references from creation time -10.000
CHUNK Die Activation
9.438 Latency
0.000
Time 0.235: Retrieve-Item Fired
Time 0.235: Die Retrieved
Time 0.235: End-Subgoal Selected
Modifying CHUNK Goal268.
Switching to goal Goal.
Sources of activation are: nil
Computing a base level of 5.110 from 2
references from creation time 0.050
CHUNK Goal268 Activation 5.110 Latency
0.006
Time 0.285: End-Subgoal Fired
Time 0.291: Goal268 Retrieved
Time 0.291: Comprehend-Sentence-StartProcess-Np Selected
Modifying CHUNK Goal.
Creating CHUNK goal270.
Switching to goal Goal270.
Time 0.341: Comprehend-Sentence-StartProcess-Np Fired
Time 0.341: Start-Process-Np Selected
Modifying CHUNK Goal270.
Creating CHUNK goal271.
Switching to goal Goal271.
124
Sources of activation are: (Die Goal270)
Spreading activation 2.124 from source
Goal270 level 0.500 times IA 4.248
Computing a base level of 5.191 from 1
references from creation time 0.341
CHUNK Goal270 Activation 7.315 Latency
0.001
Time 0.391: Start-Process-Np Fired
Time 0.392: Goal270 Retrieved
Time 0.392: Start-Read-Np Selected
Modifying CHUNK Goal271.
Creating CHUNK goal272.
Switching to goal Goal272.
Time 0.442: Start-Read-Np Fired
Time
0.442: Module :VISION running
command FIND-LOCATION
Time 0.442: Attend-Item Selected
Modifying CHUNK Goal272.
Sources of activation are: (Goal271)
Spreading activation 3.584 from source
Goal271 level 1.000 times IA 3.584
Computing a base level of 5.191 from 1
references from creation time 0.442
CHUNK Goal272 Activation 8.775 Latency
0.000
Time 0.492: Attend-Item Fired
Time 0.492: Goal272 Retrieved
Time
0.492: Module :VISION running
command MOVE-ATTENTION
Time
0.577: Module :VISION running
command ENCODING-COMPLETE
Time 0.577: Retrieve-Item Selected
Modifying CHUNK Goal272.
Sources of activation are: (Goal271)
Computing a base level of 9.419 from 1000
references from creation time -10.000
CHUNK Lehrerinnen Activation 9.419 Latency 0.000
Time 0.627: Retrieve-Item Fired
Time 0.627: Lehrerinnen Retrieved
Time 0.627: End-Subgoal Selected
Modifying CHUNK Goal272.
Switching to goal Goal271.
Sources of activation are: (Die Goal270)
Computing a base level of 5.110 from 2
references from creation time 0.442
CHUNK Goal272 Activation 5.110 Latency
0.006
Time 0.677: End-Subgoal Fired
Time 0.683: Goal272 Retrieved
Time 0.683: Encode-N Selected
Modifying CHUNK Goal271.
Sources of activation are: (Die Goal270
Lehrerinnen)
Spreading activation 1.015 from source
Lehrerinnen level 0.333 times IA 3.045
Spreading activation 0.919 from source Die
level 0.333 times IA 2.757
Computing a base level of 9.414 from 1000
references from creation time -10.000
CHUNK Nominativ-Die-Lehrerinnen Activation 11.348 Latency 0.000
Time 0.733: Encode-N Fired
Time
0.733: Nominativ-Die-Lehrerinnen
Retrieved
Time 0.733: Encode-Nominativ-Np Selected
Modifying CHUNK Goal271.
Switching to goal Goal270.
Sources of activation are: (Goal)
Computing a base level of 4.161 from 1
references from creation time 0.391
CHUNK Goal271 Activation 4.161 Latency
0.016
Time 0.783: Encode-Nominativ-Np Fired
Time 0.799: Goal271 Retrieved
Time 0.799: Start-Check-Plural-1 Selected
Modifying CHUNK Goal270.
Creating CHUNK goal275.
Switching to goal Goal275.
Sources of activation are: (Goal270)
Spreading activation 3.570 from source
Goal270 level 1.000 times IA 3.570
Computing a base level of 4.777 from 2
references from creation time 0.391
CHUNK Goal271 Activation 8.346 Latency
0.000
Time 0.849: Start-Check-Plural-1 Fired
Time 0.849: Goal271 Retrieved
Time 0.849: Search-Plural-Feature Selected
Modifying CHUNK Goal275.
Creating CHUNK goal276.
Switching to goal Goal276.
Sources of activation are: (Goal275)
Computing a base level of 9.407 from 1000
references from creation time -10.000
CHUNK Plural-Die-Lehrerinnen Activation
9.407 Latency 0.000
Time 0.899: Search-Plural-Feature Fired
Time 0.899: Plural-Die-Lehrerinnen Retrieved
Time 0.899: Search-Plural-Np Selected
Modifying CHUNK Goal276.
Sources of activation are: (Goal275 Plural)
Computing a base level of 5.083 from 3
references from creation time 0.391
CHUNK Goal271 Activation 5.083 Latency
0.006
Time 0.949: Search-Plural-Np Fired
Time 0.955: Goal271 Retrieved
Time 0.955: Encode-Plural-Np Selected
Modifying CHUNK Goal276.
Switching to goal Goal275.
Sources of activation are: (Goal270)
Computing a base level of 4.815 from 1
references from creation time 0.899
CHUNK Goal276 Activation 4.815 Latency
0.008
Time 1.005: Encode-Plural-Np Fired
Time 1.013: Goal276 Retrieved
Time 1.013: Stop-Check-Plural Selected
Modifying CHUNK Goal275.
Switching to goal Goal270.
Sources of activation are: (Goal)
125
Computing a base level of 4.464 from 1
references from creation time 0.849
CHUNK Goal275 Activation 4.464 Latency
0.012
Time 1.063: Stop-Check-Plural Fired
Time 1.075: Goal275 Retrieved
Time 1.075: Stop-Process-Np Selected
Modifying CHUNK Goal270.
Switching to goal Goal.
Sources of activation are: nil
Computing a base level of 4.508 from 2
references from creation time 0.341
CHUNK Goal270 Activation 4.508 Latency
0.011
Time 1.125: Stop-Process-Np Fired
Time 1.136: Goal270 Retrieved
Time 1.136: Search-Subject-Np Selected
Modifying CHUNK Goal.
Sources of activation are: nil
Computing a base level of 5.194 from 4
references from creation time 0.391
CHUNK Goal271 Activation 5.194 Latency
0.006
Time 1.186: Search-Subject-Np Fired
Time 1.192: Goal271 Retrieved
Time 1.192: Encode-Subject-Np Selected
Modifying CHUNK Goal271.
Modifying CHUNK Goal.
Time 1.242: Encode-Subject-Np Fired
Time 1.242: Check-Item Selected
Modifying CHUNK Goal.
Creating CHUNK goal277.
Switching to goal Goal277.
Time 1.292: Check-Item Fired
Time
1.292: Module :VISION running
command FIND-LOCATION
Time 1.292: Attend-Item Selected
Modifying CHUNK Goal277.
Sources of activation are: (Goal)
Spreading activation 2.958 from source
Goal level 1.000 times IA 2.958
Computing a base level of 5.191 from 1
references from creation time 1.292
CHUNK Goal277 Activation 8.149 Latency
0.000
Time 1.342: Attend-Item Fired
Time 1.342: Goal277 Retrieved
Time
1.342: Module :VISION running
command MOVE-ATTENTION
Time
1.427: Module :VISION running
command ENCODING-COMPLETE
Time 1.427: Retrieve-Item Selected
Modifying CHUNK Goal277.
Sources of activation are: (Goal)
Computing a base level of 9.381 from 1000
references from creation time -10.000
CHUNK Der Activation
9.381 Latency
0.000
Time 1.477: Retrieve-Item Fired
Time 1.477: Der Retrieved
Time 1.477: End-Subgoal Selected
Modifying CHUNK Goal277.
Switching to goal Goal.
Sources of activation are: nil
Computing a base level of 5.110 from 2
references from creation time 1.292
CHUNK Goal277 Activation 5.110 Latency
0.006
Time 1.527: End-Subgoal Fired
Time 1.533: Goal277 Retrieved
Time 1.533: Comprehend-Sentence-StartProcess-Np Selected
Modifying CHUNK Goal.
Creating CHUNK goal280.
Switching to goal Goal280.
Time 1.583: Comprehend-Sentence-StartProcess-Np Fired
Time 1.583: Start-Process-Np Selected
Modifying CHUNK Goal280.
Creating CHUNK goal281.
Switching to goal Goal281.
Sources of activation are: (Der Goal280)
Spreading activation 2.191 from source
Goal280 level 0.500 times IA 4.382
Computing a base level of 5.191 from 1
references from creation time 1.583
CHUNK Goal280 Activation 7.382 Latency
0.001
Time 1.633: Start-Process-Np Fired
Time 1.634: Goal280 Retrieved
Time 1.634: Start-Read-Np Selected
Modifying CHUNK Goal281.
Creating CHUNK goal282.
Switching to goal Goal282.
Time 1.684: Start-Read-Np Fired
Time
1.684: Module :VISION running
command FIND-LOCATION
Time 1.684: Attend-Item Selected
Modifying CHUNK Goal282.
Sources of activation are: (Goal281)
Spreading activation 3.714 from source
Goal281 level 1.000 times IA 3.714
Computing a base level of 5.191 from 1
references from creation time 1.684
CHUNK Goal282 Activation 8.905 Latency
0.000
Time 1.734: Attend-Item Fired
Time 1.734: Goal282 Retrieved
Time
1.734: Module :VISION running
command MOVE-ATTENTION
Time
1.819: Module :VISION running
command ENCODING-COMPLETE
Time 1.819: Retrieve-Item Selected
Modifying CHUNK Goal282.
Sources of activation are: (Goal281)
Computing a base level of 9.364 from 1000
references from creation time -10.000
CHUNK Schüler Activation 9.364 Latency
0.000
Time 1.869: Retrieve-Item Fired
Time 1.869: Schüler Retrieved
Time 1.869: End-Subgoal Selected
Modifying CHUNK Goal282.
Switching to goal Goal281.
126
Sources of activation are: (Der Goal280)
Computing a base level of 5.110 from 2
references from creation time 1.684
CHUNK Goal282 Activation 5.110 Latency
0.006
Time 1.919: End-Subgoal Fired
Time 1.925: Goal282 Retrieved
Time 1.925: Encode-N Selected
Modifying CHUNK Goal281.
Sources of activation are: (Der Goal280
Schüler)
Spreading activation 1.015 from source
Schüler level 0.333 times IA 3.045
Spreading activation 1.015 from source
Der level 0.333 times IA 3.045
Computing a base level of 9.359 from 1000
references from creation time -10.000
CHUNK Genitiv-Der-Schüler Activation
11.389 Latency 0.000
Time 1.975: Encode-N Fired
Time 1.975: Genitiv-Der-Schüler Retrieved
Time 1.975: Encode-Genitiv-Np Selected
Modifying CHUNK Goal281.
Switching to goal Goal280.
Sources of activation are: (Goal)
Computing a base level of 4.161 from 1
references from creation time 1.633
CHUNK Goal281 Activation 4.161 Latency
0.016
Time 2.025: Encode-Genitiv-Np Fired
Time 2.041: Goal281 Retrieved
Time 2.041: Start-Search-Modified-Np Selected
Modifying CHUNK Goal280.
Creating CHUNK goal285.
Switching to goal Goal285.
Time 2.091: Start-Search-Modified-Np Fired
Time 2.091: Search-Modified-Np Selected
Modifying CHUNK Goal285.
Sources of activation are: (Goal281 Goal280)
Computing a base level of 5.023 from 5
references from creation time 0.391
CHUNK Goal271 Activation 5.023 Latency
0.007
Time 2.141: Search-Modified-Np Fired
Time 2.148: Goal271 Retrieved
Time 2.148: Encode-Modified-Np Selected
Modifying CHUNK Goal285.
Sources of activation are: (Goal281 Goal280
Goal271)
Spreading activation 1.234 from source
Goal280 level 0.333 times IA 3.701
Spreading activation 1.465 from source
Goal281 level 0.333 times IA 4.394
Computing a base level of 4.672 from 2
references from creation time 1.633
CHUNK Goal281 Activation 7.370 Latency
0.001
Time 2.198: Encode-Modified-Np Fired
Time 2.199: Goal281 Retrieved
Time 2.199: End-Search-Modified-Np Selected
Modifying CHUNK Goal285.
Modifying CHUNK Goal281.
Switching to goal Goal280.
Sources of activation are: (Goal)
Computing a base level of 4.616 from 1
references from creation time 2.091
CHUNK Goal285 Activation 4.616 Latency
0.010
Time 2.249: End-Search-Modified-Np Fired
Time 2.259: Goal285 Retrieved
Time 2.259: Start-Check-Plural-2 Selected
Modifying CHUNK Goal280.
Creating CHUNK goal286.
Switching to goal Goal286.
Sources of activation are: (Goal280)
Spreading activation 3.701 from source
Goal280 level 1.000 times IA 3.701
Computing a base level of 4.988 from 3
references from creation time 1.633
CHUNK Goal281 Activation 8.689 Latency
0.000
Time 2.309: Start-Check-Plural-2 Fired
Time 2.309: Goal281 Retrieved
Time 2.309: Search-Plural-Feature Selected
Modifying CHUNK Goal286.
Creating CHUNK goal287.
Switching to goal Goal287.
Sources of activation are: (Goal286)
Computing a base level of 9.344 from 1000
references from creation time -10.000
CHUNK
Plural-Der-Schüler
Activation
9.344 Latency 0.000
Time 2.359: Search-Plural-Feature Fired
Time 2.359: Plural-Der-Schüler Retrieved
Time 2.359: Search-Plural-Np Selected
Modifying CHUNK Goal287.
Sources of activation are: (Goal286 Plural)
Computing a base level of 5.134 from 6
references from creation time 0.391
Computing a base level of 5.206 from 4
references from creation time 1.633
CHUNK Goal281 Activation 5.206 Latency
0.005
Time 2.409: Search-Plural-Np Fired
Time 2.414: Goal281 Retrieved
Time 2.414: Encode-Plural-Np Selected
Modifying CHUNK Goal287.
Switching to goal Goal286.
Sources of activation are: (Goal280)
Computing a base level of 4.820 from 1
references from creation time 2.359
CHUNK Goal287 Activation 4.820 Latency
0.008
Time 2.464: Encode-Plural-Np Fired
Time 2.472: Goal287 Retrieved
Time 2.472: Stop-Check-Plural Selected
Modifying CHUNK Goal286.
Switching to goal Goal280.
Sources of activation are: (Goal)
Computing a base level of 4.466 from 1
references from creation time 2.309
127
CHUNK Goal286 Activation 4.466 Latency
0.011
Time 2.522: Stop-Check-Plural Fired
Time 2.533: Goal286 Retrieved
Time 2.533: Stop-Process-Np Selected
Modifying CHUNK Goal280.
Merging chunk Goal280 into chunk Goal270
Switching to goal Goal.
Sources of activation are: nil
Computing a base level of 4.676 from 4
references from creation time 0.341
CHUNK Goal270 Activation 4.676 Latency
0.009
Time 2.583: Stop-Process-Np Fired
Time 2.592: Goal270 Retrieved
Time 2.592: Process-Modifier-Np Selected
Modifying CHUNK Goal.
Time 2.642: Process-Modifier-Np Fired
Time 2.642: Check-Item Selected
Modifying CHUNK Goal.
Creating CHUNK goal288.
Switching to goal Goal288.
Time 2.692: Check-Item Fired
Time
2.692: Module :VISION running
command FIND-LOCATION
Time 2.692: Attend-Item Selected
Modifying CHUNK Goal288.
Sources of activation are: (Goal)
Spreading activation 2.856 from source
Goal level 1.000 times IA 2.856
Computing a base level of 5.191 from 1
references from creation time 2.692
CHUNK Goal288 Activation 8.047 Latency
0.000
Time 2.742: Attend-Item Fired
Time 2.742: Goal288 Retrieved
Time
2.742: Module :VISION running
command MOVE-ATTENTION
Time
2.827: Module :VISION running
command ENCODING-COMPLETE
Time 2.827: Retrieve-Item Selected
Modifying CHUNK Goal288.
Sources of activation are: (Goal)
CHUNK failure Activation 3.820 Latency
0.022
Time 2.877: Retrieve-Item Fired
Time 2.899: Failure Retrieved
Time 2.899: Continue-Subgoal-No-Retrieval
Selected
Modifying CHUNK Goal288.
Time 2.949: Continue-Subgoal-No-Retrieval
Fired
Time
2.949: Module :VISION running
command FIND-LOCATION
Time 2.949: Attend-Item Selected
Modifying CHUNK Goal288.
Sources of activation are: (Goal)
Spreading activation 2.856 from source
Goal level 1.000 times IA 2.856
Computing a base level of 4.977 from 2
references from creation time 2.692
CHUNK Goal288 Activation 7.833 Latency
0.000
Time 2.999: Attend-Item Fired
Time 2.999: Goal288 Retrieved
Time
2.999: Module :VISION running
command MOVE-ATTENTION
Time
3.084: Module :VISION running
command ENCODING-COMPLETE
Time 3.084: Retrieve-Item Selected
Modifying CHUNK Goal288.
Sources of activation are: (Goal)
Computing a base level of 9.313 from 1000
references from creation time -10.000
CHUNK Verwundert Activation 9.313 Latency 0.000
Time 3.134: Retrieve-Item Fired
Time 3.134: Verwundert Retrieved
Time 3.134: End-Subgoal Selected
Modifying CHUNK Goal288.
Switching to goal Goal.
Sources of activation are: nil
Computing a base level of 5.146 from 3
references from creation time 2.692
CHUNK Goal288 Activation 5.146 Latency
0.006
Time 3.184: End-Subgoal Fired
Time 3.190: Goal288 Retrieved
Time 3.190: Comprehend-Sentence-StartRead-Vp Selected
Modifying CHUNK Goal.
Creating CHUNK goal293.
Switching to goal Goal293.
Time 3.240: Comprehend-Sentence-StartRead-Vp Fired
Time 3.240: Start-Read-Vp Selected
Modifying CHUNK Goal293.
Creating CHUNK goal294.
Switching to goal Goal294.
Time 3.290: Start-Read-Vp Fired
Time
3.290: Module :VISION running
command FIND-LOCATION
Time 3.290: No-More-Items Selected
Modifying CHUNK Goal294.
Switching to goal Goal293.
Sources of activation are: (Goal Verwundert)
Computing a base level of 5.191 from 1
references from creation time 3.290
CHUNK Goal294 Activation 5.191 Latency
0.006
Time 3.340: No-More-Items Fired
Time 3.346: Goal294 Retrieved
Time 3.346: Encode-No-More-Items Selected
Modifying CHUNK Goal293.
Switching to goal Goal.
Sources of activation are: nil
Computing a base level of 4.622 from 1
references from creation time 3.240
CHUNK Goal293 Activation 4.622 Latency
0.010
Time 3.396: Encode-No-More-Items Fired
Time 3.406: Goal293 Retrieved
128
Time 3.406: End-Comprehend Selected
Modifying CHUNK Goal293.
Modifying CHUNK Goal.
Sources of activation are: nil
Computing a base level of 4.925 from 6
references from creation time 0.391
CHUNK Goal271 Activation 4.925 Latency
0.007
Time 3.456: End-Comprehend Fired
Time 3.463: Goal271 Retrieved
Time 3.463: Answer-Plural Selected
Sources of activation are: nil
Computing a base level of 3.906 from 2
references from creation time 0.899
CHUNK Goal276 Activation 3.906 Latency
0.020
Time 3.513: Answer-Plural Fired
Time 3.533: Goal276 Retrieved
Time 3.533: Answer-Plural-2 Selected
Modifying CHUNK Goal.
sind
Time 3.583: Answer-Plural-2 Fired
Time
3.583: Module :MOTOR running
command PRESS-KEY
Time
3.833: Module :MOTOR running
command PREPARATION-COMPLETE
Time
3.883: Module :MOTOR running
command INITIATION-COMPLETE
Time
3.983: Device running command
OUTPUT-KEY
<< Window "Agreement Experiment" got key
#\p at time 3983 >>
Time
4.133: Module :MOTOR running
command FINISH-MOVEMENT
Time 4.133: Checking for silent events.
Time 4.133: * Nothing to run: No productions, no events.
protocole 5
condition PP (avec erreur d’accord), :act
t, :dmt t (récupération, création et modification
de chunks sont documentées), :gt t (changements du but actuel sont documentés)
Switching to goal Goal.
Time 0.000: Check-Item Selected
Modifying CHUNK Goal.
Creating CHUNK goal2788.
Switching to goal Goal2788.
Time 0.050: Check-Item Fired
Time
0.050: Module :VISION running
command FIND-LOCATION
Time 0.050: Attend-Item Selected
Modifying CHUNK Goal2788.
Sources of activation are: (Goal)
Spreading activation 3.526 from source
Goal level 1.000 times IA 3.526
Computing a base level of 5.191 from 1
references from creation time 0.050
Adding noise -0.059
CHUNK Goal2788 Activation 8.658 Latency
0.000
Time 0.100: Attend-Item Fired
Time 0.100: Goal2788 Retrieved
Time
0.100: Module :VISION running
command MOVE-ATTENTION
Time
0.185: Module :VISION running
command ENCODING-COMPLETE
Time 0.185: Retrieve-Item Selected
Modifying CHUNK Goal2788.
Sources of activation are: (Goal)
Computing a base level of 9.438 from 1000
references from creation time -10.000
Adding noise -0.001
CHUNK Die Activation
9.437 Latency
0.000
Time 0.235: Retrieve-Item Fired
Time 0.235: Die Retrieved
Time 0.235: End-Subgoal Selected
Modifying CHUNK Goal2788.
Switching to goal Goal.
Sources of activation are: nil
Computing a base level of 5.110 from 2
references from creation time 0.050
Adding noise -0.026
CHUNK Goal2788 Activation 5.084 Latency
0.006
Time 0.285: End-Subgoal Fired
Time 0.291: Goal2788 Retrieved
Time 0.291: Comprehend-Sentence-StartProcess-Np Selected
Modifying CHUNK Goal.
Creating CHUNK goal2790.
Switching to goal Goal2790.
Time 0.341: Comprehend-Sentence-StartProcess-Np Fired
Time 0.341: Start-Process-Np Selected
Modifying CHUNK Goal2790.
Creating CHUNK goal2791.
Switching to goal Goal2791.
Sources of activation are: (Die Goal2790)
Spreading activation 2.124 from source
Goal2790 level 0.500 times IA 4.248
Computing a base level of 5.191 from 1
references from creation time 0.341
Adding noise 0.003
CHUNK Goal2790 Activation 7.318 Latency
0.001
Time 0.391: Start-Process-Np Fired
Time 0.392: Goal2790 Retrieved
Time 0.392: Start-Read-Np Selected
Modifying CHUNK Goal2791.
Creating CHUNK goal2792.
Switching to goal Goal2792.
Time 0.442: Start-Read-Np Fired
Time
0.442: Module :VISION running
command FIND-LOCATION
Time 0.442: Attend-Item Selected
Modifying CHUNK Goal2792.
Sources of activation are: (Goal2791)
Spreading activation 3.584 from source
Goal2791 level 1.000 times IA 3.584
129
Computing a base level of 5.191 from 1
references from creation time 0.442
Adding noise -0.051
CHUNK Goal2792 Activation 8.723 Latency
0.000
Time 0.492: Attend-Item Fired
Time 0.492: Goal2792 Retrieved
Time
0.492: Module :VISION running
command MOVE-ATTENTION
Time
0.577: Module :VISION running
command ENCODING-COMPLETE
Time 0.577: Retrieve-Item Selected
Modifying CHUNK Goal2792.
Sources of activation are: (Goal2791)
Computing a base level of 9.419 from 1000
references from creation time -10.000
Adding noise -0.005
CHUNK Lehrerinnen Activation 9.414 Latency 0.000
Time 0.627: Retrieve-Item Fired
Time 0.627: Lehrerinnen Retrieved
Time 0.627: End-Subgoal Selected
Modifying CHUNK Goal2792.
Switching to goal Goal2791.
Sources of activation are: (Die Goal2790)
Computing a base level of 5.110 from 2
references from creation time 0.442
Adding noise -0.016
CHUNK Goal2792 Activation 5.094 Latency
0.006
Time 0.677: End-Subgoal Fired
Time 0.683: Goal2792 Retrieved
Time 0.683: Encode-N Selected
Modifying CHUNK Goal2791.
Sources of activation are: (Die Goal2790
Lehrerinnen)
Spreading activation 1.015 from source
Lehrerinnen level 0.333 times IA 3.045
Spreading activation 0.919 from source Die
level 0.333 times IA 2.757
Computing a base level of 9.414 from 1000
references from creation time -10.000
Adding noise 0.079
CHUNK Nominativ-Die-Lehrerinnen Activation 11.428 Latency 0.000
Time 0.733: Encode-N Fired
Time
0.733: Nominativ-Die-Lehrerinnen
Retrieved
Time 0.733: Encode-Nominativ-Np Selected
Modifying CHUNK Goal2791.
Switching to goal Goal2790.
Sources of activation are: (Goal)
Computing a base level of 4.161 from 1
references from creation time 0.391
Adding noise 0.048
CHUNK Goal2791 Activation 4.210 Latency
0.015
Time 0.783: Encode-Nominativ-Np Fired
Time 0.798: Goal2791 Retrieved
Time 0.798: Start-Check-Plural-1 Selected
Modifying CHUNK Goal2790.
Creating CHUNK goal2795.
Switching to goal Goal2795.
Sources of activation are: (Goal2790)
Spreading activation 3.570 from source
Goal2790 level 1.000 times IA 3.570
Computing a base level of 4.778 from 2
references from creation time 0.391
Adding noise 0.118
CHUNK Goal2791 Activation 8.466 Latency
0.000
Time 0.848: Start-Check-Plural-1 Fired
Time 0.848: Goal2791 Retrieved
Time 0.848: Search-Plural-Feature Selected
Modifying CHUNK Goal2795.
Creating CHUNK goal2796.
Switching to goal Goal2796.
Sources of activation are: (Goal2795)
Computing a base level of 9.407 from 1000
references from creation time -10.000
Adding noise -0.168
CHUNK Plural-Die-Lehrerinnen Activation
9.239 Latency 0.000
Time 0.898: Search-Plural-Feature Fired
Time 0.898: Plural-Die-Lehrerinnen Retrieved
Time 0.898: Search-Plural-Np Selected
Modifying CHUNK Goal2796.
Sources of activation are: (Goal2795 Plural)
Computing a base level of 5.084 from 3
references from creation time 0.391
Adding noise 0.008
CHUNK Goal2791 Activation 5.092 Latency
0.006
Time 0.948: Search-Plural-Np Fired
Time 0.954: Goal2791 Retrieved
Time 0.954: Encode-Plural-Np Selected
Modifying CHUNK Goal2796.
Switching to goal Goal2795.
Sources of activation are: (Goal2790)
Computing a base level of 4.815 from 1
references from creation time 0.898
Adding noise -0.244
CHUNK Goal2796 Activation 4.572 Latency
0.010
Time 1.004: Encode-Plural-Np Fired
Time 1.014: Goal2796 Retrieved
Time 1.014: Stop-Check-Plural Selected
Modifying CHUNK Goal2795.
Switching to goal Goal2790.
Sources of activation are: (Goal)
Computing a base level of 4.459 from 1
references from creation time 0.848
Adding noise 0.045
CHUNK Goal2795 Activation 4.504 Latency
0.011
Time 1.064: Stop-Check-Plural Fired
Time 1.075: Goal2795 Retrieved
Time 1.075: Stop-Process-Np Selected
Modifying CHUNK Goal2790.
Switching to goal Goal.
Sources of activation are: nil
Computing a base level of 4.508 from 2
references from creation time 0.341
130
Adding noise 0.015
CHUNK Goal2790 Activation 4.523 Latency
0.011
Time 1.125: Stop-Process-Np Fired
Time 1.136: Goal2790 Retrieved
Time 1.136: Search-Subject-Np Selected
Modifying CHUNK Goal.
Sources of activation are: nil
Computing a base level of 5.194 from 4
references from creation time 0.391
Adding noise 0.044
CHUNK Goal2791 Activation 5.238 Latency
0.005
Time 1.186: Search-Subject-Np Fired
Time 1.191: Goal2791 Retrieved
Time 1.191: Encode-Subject-Np Selected
Modifying CHUNK Goal2791.
Modifying CHUNK Goal.
Time 1.241: Encode-Subject-Np Fired
Time 1.241: Check-Item Selected
Modifying CHUNK Goal.
Creating CHUNK goal2797.
Switching to goal Goal2797.
Time 1.291: Check-Item Fired
Time
1.291: Module :VISION running
command FIND-LOCATION
Time 1.291: Attend-Item Selected
Modifying CHUNK Goal2797.
Sources of activation are: (Goal)
Spreading activation 2.958 from source
Goal level 1.000 times IA 2.958
Computing a base level of 5.191 from 1
references from creation time 1.291
Adding noise 0.122
CHUNK Goal2797 Activation 8.271 Latency
0.000
Time 1.341: Attend-Item Fired
Time 1.341: Goal2797 Retrieved
Time
1.341: Module :VISION running
command MOVE-ATTENTION
Time
1.426: Module :VISION running
command ENCODING-COMPLETE
Time 1.426: Retrieve-Item Selected
Modifying CHUNK Goal2797.
Sources of activation are: (Goal)
Computing a base level of 9.381 from 1000
references from creation time -10.000
Adding noise -0.061
CHUNK Der Activation
9.320 Latency
0.000
Time 1.476: Retrieve-Item Fired
Time 1.476: Der Retrieved
Time 1.476: End-Subgoal Selected
Modifying CHUNK Goal2797.
Switching to goal Goal.
Sources of activation are: nil
Computing a base level of 5.110 from 2
references from creation time 1.291
Adding noise 0.112
CHUNK Goal2797 Activation 5.222 Latency
0.005
Time 1.526: End-Subgoal Fired
Time 1.531: Goal2797 Retrieved
Time 1.531: Comprehend-Sentence-StartProcess-Np Selected
Modifying CHUNK Goal.
Creating CHUNK goal2800.
Switching to goal Goal2800.
Time 1.581: Comprehend-Sentence-StartProcess-Np Fired
Time 1.581: Start-Process-Np Selected
Modifying CHUNK Goal2800.
Creating CHUNK goal2801.
Switching to goal Goal2801.
Sources of activation are: (Der Goal2800)
Spreading activation 2.191 from source
Goal2800 level 0.500 times IA 4.382
Computing a base level of 5.191 from 1
references from creation time 1.581
Adding noise -0.132
CHUNK Goal2800 Activation 7.250 Latency
0.001
Time 1.631: Start-Process-Np Fired
Time 1.632: Goal2800 Retrieved
Time 1.632: Start-Read-Np Selected
Modifying CHUNK Goal2801.
Creating CHUNK goal2802.
Switching to goal Goal2802.
Time 1.682: Start-Read-Np Fired
Time
1.682: Module :VISION running
command FIND-LOCATION
Time 1.682: Attend-Item Selected
Modifying CHUNK Goal2802.
Sources of activation are: (Goal2801)
Spreading activation 3.714 from source
Goal2801 level 1.000 times IA 3.714
Computing a base level of 5.191 from 1
references from creation time 1.682
Adding noise 0.036
CHUNK Goal2802 Activation 8.941 Latency
0.000
Time 1.732: Attend-Item Fired
Time 1.732: Goal2802 Retrieved
Time
1.732: Module :VISION running
command MOVE-ATTENTION
Time
1.817: Module :VISION running
command ENCODING-COMPLETE
Time 1.817: Retrieve-Item Selected
Modifying CHUNK Goal2802.
Sources of activation are: (Goal2801)
Computing a base level of 9.364 from 1000
references from creation time -10.000
Adding noise 0.081
CHUNK Schüler Activation 9.445 Latency
0.000
Time 1.867: Retrieve-Item Fired
Time 1.867: Schüler Retrieved
Time 1.867: End-Subgoal Selected
Modifying CHUNK Goal2802.
Switching to goal Goal2801.
Sources of activation are: (Der Goal2800)
Computing a base level of 5.110 from 2
references from creation time 1.682
Adding noise -0.001
131
CHUNK Goal2802 Activation 5.109 Latency
0.006
Time 1.917: End-Subgoal Fired
Time 1.923: Goal2802 Retrieved
Time 1.923: Encode-N Selected
Modifying CHUNK Goal2801.
Sources of activation are: (Der Goal2800
Schüler)
Spreading activation 1.015 from source
Schüler level 0.333 times IA 3.045
Spreading activation 1.015 from source
Der level 0.333 times IA 3.045
Computing a base level of 9.360 from 1000
references from creation time -10.000
Adding noise -0.083
CHUNK Genitiv-Der-Schüler Activation
11.306 Latency 0.000
Time 1.973: Encode-N Fired
Time 1.973: Genitiv-Der-Schüler Retrieved
Time 1.973: Encode-Genitiv-Np Selected
Modifying CHUNK Goal2801.
Switching to goal Goal2800.
Sources of activation are: (Goal)
Computing a base level of 4.161 from 1
references from creation time 1.631
Adding noise -0.070
CHUNK Goal2801 Activation 4.092 Latency
0.017
Time 2.023: Encode-Genitiv-Np Fired
Time 2.040: Goal2801 Retrieved
Time 2.040: Start-Search-Modified-Np Selected
Modifying CHUNK Goal2800.
Creating CHUNK goal2805.
Switching to goal Goal2805.
Time 2.090: Start-Search-Modified-Np Fired
Time 2.090: Search-Modified-Np Selected
Modifying CHUNK Goal2805.
Sources of activation are: (Goal2801
Goal2800)
Computing a base level of 5.023 from 5
references from creation time 0.391
Adding noise 0.075
CHUNK Goal2791 Activation 5.098 Latency
0.006
Time 2.140: Search-Modified-Np Fired
Time 2.146: Goal2791 Retrieved
Time 2.146: Encode-Modified-Np Selected
Modifying CHUNK Goal2805.
Sources of activation are: (Goal2801
Goal2800 Goal2791)
Spreading activation 1.234 from source
Goal2800 level 0.333 times IA 3.701
Spreading activation 1.465 from source
Goal2801 level 0.333 times IA 4.394
Computing a base level of 4.672 from 2
references from creation time 1.631
Adding noise 0.001
CHUNK Goal2801 Activation 7.371 Latency
0.001
Time 2.196: Encode-Modified-Np Fired
Time 2.197: Goal2801 Retrieved
Time 2.197: End-Search-Modified-Np Selected
Modifying CHUNK Goal2805.
Modifying CHUNK Goal2801.
Switching to goal Goal2800.
Sources of activation are: (Goal)
Computing a base level of 4.619 from 1
references from creation time 2.090
Adding noise 0.138
CHUNK Goal2805 Activation 4.757 Latency
0.009
Time 2.247: End-Search-Modified-Np Fired
Time 2.256: Goal2805 Retrieved
Time 2.256: Start-Check-Plural-2 Selected
Modifying CHUNK Goal2800.
Creating CHUNK goal2806.
Switching to goal Goal2806.
Sources of activation are: (Goal2800)
Spreading activation 3.701 from source
Goal2800 level 1.000 times IA 3.701
Computing a base level of 4.988 from 3
references from creation time 1.631
Adding noise -0.105
CHUNK Goal2801 Activation 8.585 Latency
0.000
Time 2.306: Start-Check-Plural-2 Fired
Time 2.306: Goal2801 Retrieved
Time 2.306: Search-Plural-Feature Selected
Modifying CHUNK Goal2806.
Creating CHUNK goal2807.
Switching to goal Goal2807.
Sources of activation are: (Goal2806)
Computing a base level of 9.344 from 1000
references from creation time -10.000
Adding noise 0.060
CHUNK
Plural-Der-Schüler
Activation
9.404 Latency 0.000
Time 2.356: Search-Plural-Feature Fired
Time 2.356: Plural-Der-Schüler Retrieved
Time 2.356: Search-Plural-Np Selected
Modifying CHUNK Goal2807.
Sources of activation are: (Goal2806 Plural)
Computing a base level of 5.135 from 6
references from creation time 0.391
Adding noise 0.035
Computing a base level of 5.207 from 4
references from creation time 1.631
Adding noise 0.117
CHUNK Goal2801 Activation 5.324 Latency
0.005
Time 2.406: Search-Plural-Np Fired
Time 2.411: Goal2801 Retrieved
Time 2.411: Encode-Plural-Np Selected
Modifying CHUNK Goal2807.
Switching to goal Goal2806.
Sources of activation are: (Goal2800)
Computing a base level of 4.820 from 1
references from creation time 2.356
Adding noise -0.014
CHUNK Goal2807 Activation 4.806 Latency
0.008
Time 2.461: Encode-Plural-Np Fired
132
Time 2.469: Goal2807 Retrieved
Time 2.469: Stop-Check-Plural Selected
Modifying CHUNK Goal2806.
Switching to goal Goal2800.
Sources of activation are: (Goal)
Computing a base level of 4.466 from 1
references from creation time 2.306
Adding noise 0.026
CHUNK Goal2806 Activation 4.492 Latency
0.011
Time 2.519: Stop-Check-Plural Fired
Time 2.530: Goal2806 Retrieved
Time 2.530: Stop-Process-Np Selected
Modifying CHUNK Goal2800.
Merging chunk Goal2800 into chunk
Goal2790
Switching to goal Goal.
Sources of activation are: nil
Computing a base level of 4.676 from 4
references from creation time 0.341
Adding noise -0.024
CHUNK Goal2790 Activation 4.652 Latency
0.010
Time 2.580: Stop-Process-Np Fired
Time 2.590: Goal2790 Retrieved
Time 2.590: Process-Modifier-Np Selected
Modifying CHUNK Goal.
Time 2.640: Process-Modifier-Np Fired
Time 2.640: Check-Item Selected
Modifying CHUNK Goal.
Creating CHUNK goal2808.
Switching to goal Goal2808.
Time 2.690: Check-Item Fired
Time
2.690: Module :VISION running
command FIND-LOCATION
Time 2.690: Attend-Item Selected
Modifying CHUNK Goal2808.
Sources of activation are: (Goal)
Spreading activation 2.856 from source
Goal level 1.000 times IA 2.856
Computing a base level of 5.191 from 1
references from creation time 2.690
Adding noise -0.023
CHUNK Goal2808 Activation 8.025 Latency
0.000
Time 2.740: Attend-Item Fired
Time 2.740: Goal2808 Retrieved
Time
2.740: Module :VISION running
command MOVE-ATTENTION
Time
2.825: Module :VISION running
command ENCODING-COMPLETE
Time 2.825: Retrieve-Item Selected
Modifying CHUNK Goal2808.
Sources of activation are: (Goal)
CHUNK failure Activation 3.820 Latency
0.022
Time 2.875: Retrieve-Item Fired
Time 2.897: Failure Retrieved
Time 2.897: Continue-Subgoal-No-Retrieval
Selected
Modifying CHUNK Goal2808.
Time 2.947: Continue-Subgoal-No-Retrieval
Fired
Time
2.947: Module :VISION running
command FIND-LOCATION
Time 2.947: Attend-Item Selected
Modifying CHUNK Goal2808.
Sources of activation are: (Goal)
Spreading activation 2.856 from source
Goal level 1.000 times IA 2.856
Computing a base level of 4.977 from 2
references from creation time 2.690
Adding noise 0.057
CHUNK Goal2808 Activation 7.890 Latency
0.000
Time 2.997: Attend-Item Fired
Time 2.997: Goal2808 Retrieved
Time
2.997: Module :VISION running
command MOVE-ATTENTION
Time
3.082: Module :VISION running
command ENCODING-COMPLETE
Time 3.082: Retrieve-Item Selected
Modifying CHUNK Goal2808.
Sources of activation are: (Goal)
Computing a base level of 9.313 from 1000
references from creation time -10.000
Adding noise -0.005
CHUNK Verwundert Activation 9.308 Latency 0.000
Time 3.132: Retrieve-Item Fired
Time 3.132: Verwundert Retrieved
Time 3.132: End-Subgoal Selected
Modifying CHUNK Goal2808.
Switching to goal Goal.
Sources of activation are: nil
Computing a base level of 5.146 from 3
references from creation time 2.690
Adding noise -0.017
CHUNK Goal2808 Activation 5.130 Latency
0.006
Time 3.182: End-Subgoal Fired
Time 3.188: Goal2808 Retrieved
Time 3.188: Comprehend-Sentence-StartRead-Vp Selected
Modifying CHUNK Goal.
Creating CHUNK goal2813.
Switching to goal Goal2813.
Time 3.238: Comprehend-Sentence-StartRead-Vp Fired
Time 3.238: Start-Read-Vp Selected
Modifying CHUNK Goal2813.
Creating CHUNK goal2814.
Switching to goal Goal2814.
Time 3.288: Start-Read-Vp Fired
Time
3.288: Module :VISION running
command FIND-LOCATION
Time 3.288: No-More-Items Selected
Modifying CHUNK Goal2814.
Switching to goal Goal2813.
Sources of activation are: (Goal Verwundert)
Computing a base level of 5.191 from 1
references from creation time 3.288
Adding noise 0.039
133
CHUNK Goal2814 Activation 5.230 Latency
0.005
Time 3.338: No-More-Items Fired
Time 3.343: Goal2814 Retrieved
Time 3.343: Encode-No-More-Items Selected
Modifying CHUNK Goal2813.
Switching to goal Goal.
Sources of activation are: nil
Computing a base level of 4.625 from 1
references from creation time 3.238
Adding noise -0.034
CHUNK Goal2813 Activation 4.591 Latency
0.010
Time 3.393: Encode-No-More-Items Fired
Time 3.403: Goal2813 Retrieved
Time 3.403: End-Comprehend Selected
Modifying CHUNK Goal2813.
Modifying CHUNK Goal.
Sources of activation are: nil
Computing a base level of 4.925 from 6
references from creation time 0.391
Adding noise -0.064
CHUNK Goal2791 Activation 4.861 Latency
0.008
Time 3.453: End-Comprehend Fired
Time 3.461: Goal2791 Retrieved
Time 3.461: Answer-Plural Selected
Sources of activation are: nil
Computing a base level of 3.906 from 2
references from creation time 0.898
Adding noise -0.160
CHUNK failure Activation 3.820 Latency
0.022
Time 3.511: Answer-Plural Fired
Time 3.533: Failure Retrieved
Time 3.533: Answer-Singular-2 Selected
Modifying CHUNK Goal.
ist
Time 3.583: Answer-Singular-2 Fired
Time
3.583: Module :MOTOR running
command PRESS-KEY
Time
3.733: Module :MOTOR running
command PREPARATION-COMPLETE
Time
3.783: Module :MOTOR running
command INITIATION-COMPLETE
Time
3.793: Device running command
OUTPUT-KEY
<< Window "Agreement Experiment" got key
#\s at time 3793 >>
Time
3.883: Module :MOTOR running
command FINISH-MOVEMENT
Time 3.883: Checking for silent events.
Time 3.883: * Nothing to run: No productions, no events.
protocole 6
Condition SP (avec erreur d’accord), :act
t, :dmt t (récupération, création et modifi-
cation de chunks sont documentées), :gt t
(changements du but actuel sont documentés)
Switching to goal Goal.
Time 0.000: Check-Item Selected
Modifying CHUNK Goal.
Creating CHUNK goal7618.
Switching to goal Goal7618.
Time 0.050: Check-Item Fired
Time
0.050: Module :VISION running
command FIND-LOCATION
Time 0.050: Attend-Item Selected
Modifying CHUNK Goal7618.
Sources of activation are: (Goal)
Spreading activation 3.526 from source
Goal level 1.000 times IA 3.526
Computing a base level of 5.191 from 1
references from creation time 0.050
Adding noise -0.088
CHUNK Goal7618 Activation 8.629 Latency
0.000
Time 0.100: Attend-Item Fired
Time 0.100: Goal7618 Retrieved
Time
0.100: Module :VISION running
command MOVE-ATTENTION
Time
0.185: Module :VISION running
command ENCODING-COMPLETE
Time 0.185: Retrieve-Item Selected
Modifying CHUNK Goal7618.
Sources of activation are: (Goal)
Computing a base level of 9.438 from 1000
references from creation time -10.000
Adding noise 0.055
CHUNK Die Activation
9.493 Latency
0.000
Time 0.235: Retrieve-Item Fired
Time 0.235: Die Retrieved
Time 0.235: End-Subgoal Selected
Modifying CHUNK Goal7618.
Switching to goal Goal.
Sources of activation are: nil
Computing a base level of 5.110 from 2
references from creation time 0.050
Adding noise -0.136
CHUNK Goal7618 Activation 4.975 Latency
0.007
Time 0.285: End-Subgoal Fired
Time 0.292: Goal7618 Retrieved
Time 0.292: Comprehend-Sentence-StartProcess-Np Selected
Modifying CHUNK Goal.
Creating CHUNK goal7620.
Switching to goal Goal7620.
Time 0.342: Comprehend-Sentence-StartProcess-Np Fired
Time 0.342: Start-Process-Np Selected
Modifying CHUNK Goal7620.
Creating CHUNK goal7621.
Switching to goal Goal7621.
Sources of activation are: (Die Goal7620)
Spreading activation 2.124 from source
Goal7620 level 0.500 times IA 4.248
134
Computing a base level of 5.191 from 1
references from creation time 0.342
Adding noise 0.047
CHUNK Goal7620 Activation 7.362 Latency
0.001
Time 0.392: Start-Process-Np Fired
Time 0.393: Goal7620 Retrieved
Time 0.393: Start-Read-Np Selected
Modifying CHUNK Goal7621.
Creating CHUNK goal7622.
Switching to goal Goal7622.
Time 0.443: Start-Read-Np Fired
Time
0.443: Module :VISION running
command FIND-LOCATION
Time 0.443: Attend-Item Selected
Modifying CHUNK Goal7622.
Sources of activation are: (Goal7621)
Spreading activation 3.584 from source
Goal7621 level 1.000 times IA 3.584
Computing a base level of 5.191 from 1
references from creation time 0.443
Adding noise 0.007
CHUNK Goal7622 Activation 8.781 Latency
0.000
Time 0.493: Attend-Item Fired
Time 0.493: Goal7622 Retrieved
Time
0.493: Module :VISION running
command MOVE-ATTENTION
Time
0.578: Module :VISION running
command ENCODING-COMPLETE
Time 0.578: Retrieve-Item Selected
Modifying CHUNK Goal7622.
Sources of activation are: (Goal7621)
Computing a base level of 9.419 from 1000
references from creation time -10.000
Adding noise -0.025
CHUNK Lehrerin Activation 9.394 Latency
0.000
Time 0.628: Retrieve-Item Fired
Time 0.628: Lehrerin Retrieved
Time 0.628: End-Subgoal Selected
Modifying CHUNK Goal7622.
Switching to goal Goal7621.
Sources of activation are: (Die Goal7620)
Computing a base level of 5.110 from 2
references from creation time 0.443
Adding noise 0.029
CHUNK Goal7622 Activation 5.139 Latency
0.006
Time 0.678: End-Subgoal Fired
Time 0.684: Goal7622 Retrieved
Time 0.684: Encode-N Selected
Modifying CHUNK Goal7621.
Sources of activation are: (Die Goal7620
Lehrerin)
Spreading activation 1.150 from source
Lehrerin level 0.333 times IA 3.450
Spreading activation 0.919 from source Die
level 0.333 times IA 2.757
Computing a base level of 9.414 from 1000
references from creation time -10.000
Adding noise 0.010
CHUNK Nominativ-Die-Lehrerin Activation
11.493 Latency 0.000
Time 0.734: Encode-N Fired
Time 0.734: Nominativ-Die-Lehrerin Retrieved
Time 0.734: Encode-Nominativ-Np Selected
Modifying CHUNK Goal7621.
Switching to goal Goal7620.
Sources of activation are: (Goal)
Computing a base level of 4.161 from 1
references from creation time 0.392
Adding noise -0.003
CHUNK Goal7621 Activation 4.158 Latency
0.016
Time 0.784: Encode-Nominativ-Np Fired
Time 0.800: Goal7621 Retrieved
Time 0.800: Start-Check-Plural-1 Selected
Modifying CHUNK Goal7620.
Creating CHUNK goal7625.
Switching to goal Goal7625.
Sources of activation are: (Goal7620)
Spreading activation 3.570 from source
Goal7620 level 1.000 times IA 3.570
Computing a base level of 4.777 from 2
references from creation time 0.392
Adding noise -0.057
CHUNK Goal7621 Activation 8.289 Latency
0.000
Time 0.850: Start-Check-Plural-1 Fired
Time 0.850: Goal7621 Retrieved
Time 0.850: Search-Plural-Feature Selected
Modifying CHUNK Goal7625.
Creating CHUNK goal7626.
Switching to goal Goal7626.
Sources of activation are: (Goal7625)
CHUNK failure Activation 3.820 Latency
0.022
Time 0.900: Search-Plural-Feature Fired
Time 0.922: Failure Retrieved
Time 0.922: No-Plural Selected
Modifying CHUNK Goal7626.
Switching to goal Goal7625.
Sources of activation are: (Goal7620)
Computing a base level of 5.009 from 1
references from creation time 0.900
Adding noise 0.057
CHUNK Goal7626 Activation 5.066 Latency
0.006
Time 0.972: No-Plural Fired
Time 0.978: Goal7626 Retrieved
Time 0.978: Stop-Check-Plural Selected
Modifying CHUNK Goal7625.
Switching to goal Goal7620.
Sources of activation are: (Goal)
Computing a base level of 4.556 from 1
references from creation time 0.850
Adding noise -0.022
CHUNK Goal7625 Activation 4.534 Latency
0.011
Time 1.028: Stop-Check-Plural Fired
Time 1.039: Goal7625 Retrieved
Time 1.039: Stop-Process-Np Selected
135
Modifying CHUNK Goal7620.
Switching to goal Goal.
Sources of activation are: nil
Computing a base level of 4.532 from 2
references from creation time 0.342
Adding noise 0.040
CHUNK Goal7620 Activation 4.572 Latency
0.010
Time 1.089: Stop-Process-Np Fired
Time 1.099: Goal7620 Retrieved
Time 1.099: Search-Subject-Np Selected
Modifying CHUNK Goal.
Sources of activation are: nil
Computing a base level of 4.931 from 3
references from creation time 0.392
Adding noise 0.110
CHUNK Goal7621 Activation 5.041 Latency
0.006
Time 1.149: Search-Subject-Np Fired
Time 1.155: Goal7621 Retrieved
Time 1.155: Encode-Subject-Np Selected
Modifying CHUNK Goal7621.
Modifying CHUNK Goal.
Time 1.205: Encode-Subject-Np Fired
Time 1.205: Check-Item Selected
Modifying CHUNK Goal.
Creating CHUNK goal7627.
Switching to goal Goal7627.
Time 1.255: Check-Item Fired
Time
1.255: Module :VISION running
command FIND-LOCATION
Time 1.255: Attend-Item Selected
Modifying CHUNK Goal7627.
Sources of activation are: (Goal)
Spreading activation 2.958 from source
Goal level 1.000 times IA 2.958
Computing a base level of 5.191 from 1
references from creation time 1.255
Adding noise -0.038
CHUNK Goal7627 Activation 8.110 Latency
0.000
Time 1.305: Attend-Item Fired
Time 1.305: Goal7627 Retrieved
Time
1.305: Module :VISION running
command MOVE-ATTENTION
Time
1.390: Module :VISION running
command ENCODING-COMPLETE
Time 1.390: Retrieve-Item Selected
Modifying CHUNK Goal7627.
Sources of activation are: (Goal)
Computing a base level of 9.382 from 1000
references from creation time -10.000
Adding noise 0.012
CHUNK Der Activation
9.395 Latency
0.000
Time 1.440: Retrieve-Item Fired
Time 1.440: Der Retrieved
Time 1.440: End-Subgoal Selected
Modifying CHUNK Goal7627.
Switching to goal Goal.
Sources of activation are: nil
Computing a base level of 5.110 from 2
references from creation time 1.255
Adding noise -0.065
CHUNK Goal7627 Activation 5.045 Latency
0.006
Time 1.490: End-Subgoal Fired
Time 1.496: Goal7627 Retrieved
Time 1.496: Comprehend-Sentence-StartProcess-Np Selected
Modifying CHUNK Goal.
Creating CHUNK goal7630.
Switching to goal Goal7630.
Time 1.546: Comprehend-Sentence-StartProcess-Np Fired
Time 1.546: Start-Process-Np Selected
Modifying CHUNK Goal7630.
Creating CHUNK goal7631.
Switching to goal Goal7631.
Sources of activation are: (Der Goal7630)
Spreading activation 2.191 from source
Goal7630 level 0.500 times IA 4.382
Computing a base level of 5.191 from 1
references from creation time 1.546
Adding noise 0.088
CHUNK Goal7630 Activation 7.470 Latency
0.001
Time 1.596: Start-Process-Np Fired
Time 1.597: Goal7630 Retrieved
Time 1.597: Start-Read-Np Selected
Modifying CHUNK Goal7631.
Creating CHUNK goal7632.
Switching to goal Goal7632.
Time 1.647: Start-Read-Np Fired
Time
1.647: Module :VISION running
command FIND-LOCATION
Time 1.647: Attend-Item Selected
Modifying CHUNK Goal7632.
Sources of activation are: (Goal7631)
Spreading activation 3.714 from source
Goal7631 level 1.000 times IA 3.714
Computing a base level of 5.191 from 1
references from creation time 1.647
Adding noise -0.121
CHUNK Goal7632 Activation 8.784 Latency
0.000
Time 1.697: Attend-Item Fired
Time 1.697: Goal7632 Retrieved
Time
1.697: Module :VISION running
command MOVE-ATTENTION
Time
1.782: Module :VISION running
command ENCODING-COMPLETE
Time 1.782: Retrieve-Item Selected
Modifying CHUNK Goal7632.
Sources of activation are: (Goal7631)
Computing a base level of 9.365 from 1000
references from creation time -10.000
Adding noise -0.149
CHUNK Schüler Activation 9.217 Latency
0.000
Time 1.832: Retrieve-Item Fired
Time 1.832: Schüler Retrieved
Time 1.832: End-Subgoal Selected
136
Modifying CHUNK Goal7632.
Switching to goal Goal7631.
Sources of activation are: (Der Goal7630)
Computing a base level of 5.110 from 2
references from creation time 1.647
Adding noise 0.313
CHUNK Goal7632 Activation 5.423 Latency
0.004
Time 1.882: End-Subgoal Fired
Time 1.886: Goal7632 Retrieved
Time 1.886: Encode-N Selected
Modifying CHUNK Goal7631.
Sources of activation are: (Der Goal7630
Schüler)
Spreading activation 1.015 from source
Schüler level 0.333 times IA 3.045
Spreading activation 1.015 from source
Der level 0.333 times IA 3.045
Computing a base level of 9.361 from 1000
references from creation time -10.000
Adding noise -0.020
CHUNK Genitiv-Der-Schüler Activation
11.371 Latency 0.000
Time 1.936: Encode-N Fired
Time 1.936: Genitiv-Der-Schüler Retrieved
Time 1.936: Encode-Genitiv-Np Selected
Modifying CHUNK Goal7631.
Switching to goal Goal7630.
Sources of activation are: (Goal)
Computing a base level of 4.164 from 1
references from creation time 1.596
Adding noise 0.008
CHUNK Goal7631 Activation 4.172 Latency
0.015
Time 1.986: Encode-Genitiv-Np Fired
Time 2.001: Goal7631 Retrieved
Time 2.001: Start-Search-Modified-Np Selected
Modifying CHUNK Goal7630.
Creating CHUNK goal7635.
Switching to goal Goal7635.
Time 2.051: Start-Search-Modified-Np Fired
Time 2.051: Search-Modified-Np Selected
Modifying CHUNK Goal7635.
Sources of activation are: (Goal7631
Goal7630)
Computing a base level of 4.811 from 4
references from creation time 0.392
Adding noise -0.067
CHUNK Goal7621 Activation 4.745 Latency
0.009
Time 2.101: Search-Modified-Np Fired
Time 2.110: Goal7621 Retrieved
Time 2.110: Encode-Modified-Np Selected
Modifying CHUNK Goal7635.
Sources of activation are: (Goal7631
Goal7630 Goal7621)
Spreading activation 1.234 from source
Goal7630 level 0.333 times IA 3.701
Spreading activation 1.465 from source
Goal7631 level 0.333 times IA 4.394
Computing a base level of 4.673 from 2
references from creation time 1.596
Adding noise 0.028
CHUNK Goal7631 Activation 7.399 Latency
0.001
Time 2.160: Encode-Modified-Np Fired
Time 2.161: Goal7631 Retrieved
Time 2.161: End-Search-Modified-Np Selected
Modifying CHUNK Goal7635.
Modifying CHUNK Goal7631.
Switching to goal Goal7630.
Sources of activation are: (Goal)
Computing a base level of 4.609 from 1
references from creation time 2.051
Adding noise 0.001
CHUNK Goal7635 Activation 4.611 Latency
0.010
Time 2.211: End-Search-Modified-Np Fired
Time 2.221: Goal7635 Retrieved
Time 2.221: Start-Check-Plural-2 Selected
Modifying CHUNK Goal7630.
Creating CHUNK goal7636.
Switching to goal Goal7636.
Sources of activation are: (Goal7630)
Spreading activation 3.701 from source
Goal7630 level 1.000 times IA 3.701
Computing a base level of 4.988 from 3
references from creation time 1.596
Adding noise 0.049
CHUNK Goal7631 Activation 8.738 Latency
0.000
Time 2.271: Start-Check-Plural-2 Fired
Time 2.271: Goal7631 Retrieved
Time 2.271: Search-Plural-Feature Selected
Modifying CHUNK Goal7636.
Creating CHUNK goal7637.
Switching to goal Goal7637.
Sources of activation are: (Goal7636)
Computing a base level of 9.345 from 1000
references from creation time -10.000
Adding noise -0.122
CHUNK
Plural-Der-Schüler
Activation
9.223 Latency 0.000
Time 2.321: Search-Plural-Feature Fired
Time 2.321: Plural-Der-Schüler Retrieved
Time 2.321: Search-Plural-Np Selected
Modifying CHUNK Goal7637.
Sources of activation are: (Goal7636 Plural)
Computing a base level of 4.961 from 5
references from creation time 0.392
Adding noise 0.137
Computing a base level of 5.207 from 4
references from creation time 1.596
Adding noise -0.112
CHUNK Goal7621 Activation 5.098 Latency
0.006
Time 2.371: Search-Plural-Np Fired
Time 2.377: Goal7621 Retrieved
Time 2.377: Encode-Plural-Np Selected
Modifying CHUNK Goal7637.
Switching to goal Goal7636.
137
Sources of activation are: (Goal7630)
Computing a base level of 4.815 from 1
references from creation time 2.321
Adding noise -0.115
CHUNK Goal7637 Activation 4.700 Latency
0.009
Time 2.427: Encode-Plural-Np Fired
Time 2.436: Goal7637 Retrieved
Time 2.436: Stop-Check-Plural Selected
Modifying CHUNK Goal7636.
Switching to goal Goal7630.
Sources of activation are: (Goal)
Computing a base level of 4.462 from 1
references from creation time 2.271
Adding noise -0.010
CHUNK Goal7636 Activation 4.452 Latency
0.012
Time 2.486: Stop-Check-Plural Fired
Time 2.498: Goal7636 Retrieved
Time 2.498: Stop-Process-Np Selected
Modifying CHUNK Goal7630.
Merging chunk Goal7630 into chunk
Goal7620
Switching to goal Goal.
Sources of activation are: nil
Computing a base level of 4.684 from 4
references from creation time 0.342
Adding noise 0.074
CHUNK Goal7620 Activation 4.758 Latency
0.009
Time 2.548: Stop-Process-Np Fired
Time 2.557: Goal7620 Retrieved
Time 2.557: Process-Modifier-Np Selected
Modifying CHUNK Goal.
Time 2.607: Process-Modifier-Np Fired
Time 2.607: Check-Item Selected
Modifying CHUNK Goal.
Creating CHUNK goal7638.
Switching to goal Goal7638.
Time 2.657: Check-Item Fired
Time
2.657: Module :VISION running
command FIND-LOCATION
Time 2.657: Attend-Item Selected
Modifying CHUNK Goal7638.
Sources of activation are: (Goal)
Spreading activation 2.856 from source
Goal level 1.000 times IA 2.856
Computing a base level of 5.191 from 1
references from creation time 2.657
Adding noise -0.040
CHUNK Goal7638 Activation 8.008 Latency
0.000
Time 2.707: Attend-Item Fired
Time 2.707: Goal7638 Retrieved
Time
2.707: Module :VISION running
command MOVE-ATTENTION
Time
2.792: Module :VISION running
command ENCODING-COMPLETE
Time 2.792: Retrieve-Item Selected
Modifying CHUNK Goal7638.
Sources of activation are: (Goal)
CHUNK failure Activation 3.820 Latency
0.022
Time 2.842: Retrieve-Item Fired
Time 2.864: Failure Retrieved
Time 2.864: Continue-Subgoal-No-Retrieval
Selected
Modifying CHUNK Goal7638.
Time 2.914: Continue-Subgoal-No-Retrieval
Fired
Time
2.914: Module :VISION running
command FIND-LOCATION
Time 2.914: Attend-Item Selected
Modifying CHUNK Goal7638.
Sources of activation are: (Goal)
Spreading activation 2.856 from source
Goal level 1.000 times IA 2.856
Computing a base level of 4.977 from 2
references from creation time 2.657
Adding noise 0.036
CHUNK Goal7638 Activation 7.870 Latency
0.000
Time 2.964: Attend-Item Fired
Time 2.964: Goal7638 Retrieved
Time
2.964: Module :VISION running
command MOVE-ATTENTION
Time
3.049: Module :VISION running
command ENCODING-COMPLETE
Time 3.049: Retrieve-Item Selected
Modifying CHUNK Goal7638.
Sources of activation are: (Goal)
Computing a base level of 9.315 from 1000
references from creation time -10.000
Adding noise 0.059
CHUNK Verwundert Activation 9.374 Latency 0.000
Time 3.099: Retrieve-Item Fired
Time 3.099: Verwundert Retrieved
Time 3.099: End-Subgoal Selected
Modifying CHUNK Goal7638.
Switching to goal Goal.
Sources of activation are: nil
Computing a base level of 5.146 from 3
references from creation time 2.657
Adding noise 0.064
CHUNK Goal7638 Activation 5.210 Latency
0.005
Time 3.149: End-Subgoal Fired
Time 3.154: Goal7638 Retrieved
Time 3.154: Comprehend-Sentence-StartRead-Vp Selected
Modifying CHUNK Goal.
Creating CHUNK goal7643.
Switching to goal Goal7643.
Time 3.204: Comprehend-Sentence-StartRead-Vp Fired
Time 3.204: Start-Read-Vp Selected
Modifying CHUNK Goal7643.
Creating CHUNK goal7644.
Switching to goal Goal7644.
Time 3.254: Start-Read-Vp Fired
Time
3.254: Module :VISION running
command FIND-LOCATION
138
Time 3.254: No-More-Items Selected
Modifying CHUNK Goal7644.
Switching to goal Goal7643.
Sources of activation are: (Goal Verwundert)
Computing a base level of 5.191 from 1
references from creation time 3.254
Adding noise 0.220
CHUNK Goal7644 Activation 5.411 Latency
0.004
Time 3.304: No-More-Items Fired
Time 3.308: Goal7644 Retrieved
Time 3.308: Encode-No-More-Items Selected
Modifying CHUNK Goal7643.
Switching to goal Goal.
Sources of activation are: nil
Computing a base level of 4.629 from 1
references from creation time 3.204
Adding noise -0.021
CHUNK Goal7643 Activation 4.608 Latency
0.010
Time 3.358: Encode-No-More-Items Fired
Time 3.368: Goal7643 Retrieved
Time 3.368: End-Comprehend Selected
Modifying CHUNK Goal7643.
Modifying CHUNK Goal.
Sources of activation are: nil
Computing a base level of 4.931 from 6
references from creation time 0.392
Adding noise -0.036
CHUNK Goal7621 Activation 4.896 Latency
0.007
Time 3.418: End-Comprehend Fired
Time 3.425: Goal7621 Retrieved
Time 3.425: Answer-Plural Selected
Sources of activation are: nil
Computing a base level of 4.315 from 2
references from creation time 2.321
Adding noise 0.158
CHUNK Goal7637 Activation 4.472 Latency
0.011
Time 3.475: Answer-Plural Fired
Time 3.486: Goal7637 Retrieved
Time 3.486: Answer-Plural-2 Selected
Modifying CHUNK Goal.
sind
Time 3.536: Answer-Plural-2 Fired
Time
3.536: Module :MOTOR running
command PRESS-KEY
Time
3.786: Module :MOTOR running
command PREPARATION-COMPLETE
Time
3.836: Module :MOTOR running
command INITIATION-COMPLETE
Time
3.936: Device running command
OUTPUT-KEY
<< Window "Agreement Experiment" got key
#\p at time 3936 >>
Time
4.086: Module :MOTOR running
command FINISH-MOVEMENT
Time 4.086: Checking for silent events.
Time 4.086: * Nothing to run: No productions, no events.
protocole 7
100 passages de test, :v nil (pas de protocole
sauf pour les résultats)
> (go2 100)
((4 PP 3.973 T) (3 PS 3.76 NIL) (2 SP 3.767
T) (1 SS 3.736 T))
((4 PP 3.987 T) (3 PS 3.755 NIL) (2 SP 3.764
T) (1 SS 3.727 T))
((4 PP 3.976 T) (3 PS 3.942 T) (2 SP 3.769 T)
(1 SS 3.724 T))
((4 PP 3.978 T) (3 PS 3.952 T) (2 SP 3.761 T)
(1 SS 3.727 T))
((4 PP 3.982 T) (3 PS 3.942 T) (2 SP 3.765 T)
(1 SS 3.733 T))
((4 PP 3.975 T) (3 PS 3.946 T) (2 SP 3.757 T)
(1 SS 3.727 T))
((4 PP 3.986 T) (3 PS 3.759 NIL) (2 SP 3.762
T) (1 SS 3.738 T))
((4 PP 3.976 T) (3 PS 3.947 T) (2 SP 3.765 T)
(1 SS 3.727 T))
((4 PP 3.986 T) (3 PS 3.95 T) (2 SP 3.767 T)
(1 SS 3.728 T))
((4 PP 3.793 NIL) (3 PS 3.944 T) (2 SP 3.758
T) (1 SS 3.727 T))
((4 PP 3.979 T) (3 PS 3.948 T) (2 SP 3.759 T)
(1 SS 3.726 T))
((4 PP 3.976 T) (3 PS 3.945 T) (2 SP 3.943
NIL) (1 SS 3.728 T))
((4 PP 3.983 T) (3 PS 3.762 NIL) (2 SP 3.767
T) (1 SS 3.727 T))
((4 PP 3.984 T) (3 PS 3.938 T) (2 SP 3.764 T)
(1 SS 3.726 T))
((4 PP 3.975 T) (3 PS 3.949 T) (2 SP 3.761 T)
(1 SS 3.727 T))
((4 PP 3.976 T) (3 PS 3.954 T) (2 SP 3.764 T)
(1 SS 3.729 T))
((4 PP 3.979 T) (3 PS 3.94 T) (2 SP 3.764 T)
(1 SS 3.733 T))
((4 PP 3.981 T) (3 PS 3.943 T) (2 SP 3.759 T)
(1 SS 3.727 T))
((4 PP 3.982 T) (3 PS 3.949 T) (2 SP 3.76 T)
(1 SS 3.729 T))
((4 PP 3.982 T) (3 PS 3.947 T) (2 SP 3.766 T)
(1 SS 3.724 T))
((4 PP 3.982 T) (3 PS 3.955 T) (2 SP 3.765 T)
(1 SS 3.724 T))
((4 PP 3.972 T) (3 PS 3.945 T) (2 SP 3.759 T)
(1 SS 3.729 T))
((4 PP 3.969 T) (3 PS 3.956 T) (2 SP 3.76 T)
(1 SS 3.725 T))
((4 PP 3.989 T) (3 PS 3.762 NIL) (2 SP 3.757
T) (1 SS 3.728 T))
((4 PP 3.976 T) (3 PS 3.946 T) (2 SP 3.766 T)
(1 SS 3.729 T))
((4 PP 3.979 T) (3 PS 3.946 T) (2 SP 3.768 T)
(1 SS 3.725 T))
139
((4 PP 3.98 T) (3 PS 3.946 T) (2 SP 3.765 T)
(1 SS 3.724 T))
((4 PP 3.983 T) (3 PS 3.947 T) (2 SP 3.764 T)
(1 SS 3.723 T))
((4 PP 3.79 NIL) (3 PS 3.933 T) (2 SP 3.759
T) (1 SS 3.728 T))
((4 PP 3.979 T) (3 PS 3.95 T) (2 SP 3.764 T)
(1 SS 3.729 T))
((4 PP 3.985 T) (3 PS 3.949 T) (2 SP 3.761 T)
(1 SS 3.724 T))
((4 PP 3.976 T) (3 PS 3.945 T) (2 SP 3.94
NIL) (1 SS 3.728 T))
((4 PP 3.985 T) (3 PS 3.754 NIL) (2 SP 3.765
T) (1 SS 3.729 T))
((4 PP 3.987 T) (3 PS 3.95 T) (2 SP 3.758 T)
(1 SS 3.729 T))
((4 PP 3.982 T) (3 PS 3.943 T) (2 SP 3.759 T)
(1 SS 3.722 T))
((4 PP 3.98 T) (3 PS 3.948 T) (2 SP 3.761 T)
(1 SS 3.727 T))
((4 PP 3.986 T) (3 PS 3.76 NIL) (2 SP 3.764
T) (1 SS 3.726 T))
((4 PP 3.986 T) (3 PS 3.946 T) (2 SP 3.762 T)
(1 SS 3.725 T))
((4 PP 3.983 T) (3 PS 3.954 T) (2 SP 3.769 T)
(1 SS 3.733 T))
((4 PP 3.983 T) (3 PS 3.948 T) (2 SP 3.763 T)
(1 SS 3.726 T))
((4 PP 3.976 T) (3 PS 3.753 NIL) (2 SP 3.755
T) (1 SS 3.726 T))
((4 PP 3.982 T) (3 PS 3.763 NIL) (2 SP 3.761
T) (1 SS 3.729 T))
((4 PP 3.976 T) (3 PS 3.938 T) (2 SP 3.761 T)
(1 SS 3.727 T))
((4 PP 3.989 T) (3 PS 3.949 T) (2 SP 3.766 T)
(1 SS 3.73 T))
((4 PP 3.975 T) (3 PS 3.947 T) (2 SP 3.76 T)
(1 SS 3.73 T))
((4 PP 3.975 T) (3 PS 3.944 T) (2 SP 3.771 T)
(1 SS 3.722 T))
((4 PP 3.973 T) (3 PS 3.951 T) (2 SP 3.765 T)
(1 SS 3.726 T))
((4 PP 3.973 T) (3 PS 3.947 T) (2 SP 3.765 T)
(1 SS 3.732 T))
((4 PP 3.977 T) (3 PS 3.942 T) (2 SP 3.764 T)
(1 SS 3.732 T))
((4 PP 3.791 NIL) (3 PS 3.946 T) (2 SP 3.754
T) (1 SS 3.726 T))
((4 PP 3.979 T) (3 PS 3.947 T) (2 SP 3.756 T)
(1 SS 3.723 T))
((4 PP 3.797 NIL) (3 PS 3.951 T) (2 SP 3.761
T) (1 SS 3.729 T))
((4 PP 3.978 T) (3 PS 3.767 NIL) (2 SP 3.767
T) (1 SS 3.726 T))
((4 PP 3.983 T) (3 PS 3.946 T) (2 SP 3.757 T)
(1 SS 3.728 T))
((4 PP 3.987 T) (3 PS 3.94 T) (2 SP 3.76 T) (1
SS 3.727 T))
((4 PP 3.976 T) (3 PS 3.948 T) (2 SP 3.76 T)
(1 SS 3.72 T))
((4 PP 3.979 T) (3 PS 3.949 T) (2 SP 3.767 T)
(1 SS 3.726 T))
((4 PP 3.972 T) (3 PS 3.946 T) (2 SP 3.764 T)
(1 SS 3.724 T))
((4 PP 3.977 T) (3 PS 3.949 T) (2 SP 3.763 T)
(1 SS 3.733 T))
((4 PP 3.972 T) (3 PS 3.945 T) (2 SP 3.765 T)
(1 SS 3.727 T))
((4 PP 3.982 T) (3 PS 3.941 T) (2 SP 3.767 T)
(1 SS 3.725 T))
((4 PP 3.979 T) (3 PS 3.942 T) (2 SP 3.768 T)
(1 SS 3.738 T))
((4 PP 3.983 T) (3 PS 3.945 T) (2 SP 3.757 T)
(1 SS 3.73 T))
((4 PP 3.797 NIL) (3 PS 3.943 T) (2 SP 3.768
T) (1 SS 3.726 T))
((4 PP 3.796 NIL) (3 PS 3.948 T) (2 SP 3.762
T) (1 SS 3.726 T))
((4 PP 3.986 T) (3 PS 3.75 NIL) (2 SP 3.769
T) (1 SS 3.728 T))
((4 PP 3.983 T) (3 PS 3.762 NIL) (2 SP 3.766
T) (1 SS 3.724 T))
((4 PP 3.979 T) (3 PS 3.951 T) (2 SP 3.764 T)
(1 SS 3.721 T))
((4 PP 3.796 NIL) (3 PS 3.946 T) (2 SP 3.763
T) (1 SS 3.726 T))
((4 PP 3.975 T) (3 PS 3.944 T) (2 SP 3.768 T)
(1 SS 3.722 T))
((4 PP 3.971 T) (3 PS 3.946 T) (2 SP 3.758 T)
(1 SS 3.727 T))
((4 PP 3.984 T) (3 PS 3.946 T) (2 SP 3.765 T)
(1 SS 3.732 T))
((4 PP 3.982 T) (3 PS 3.946 T) (2 SP 3.764 T)
(1 SS 3.729 T))
((4 PP 3.979 T) (3 PS 3.944 T) (2 SP 3.765 T)
(1 SS 3.729 T))
((4 PP 3.978 T) (3 PS 3.954 T) (2 SP 3.76 T)
(1 SS 3.725 T))
((4 PP 3.98 T) (3 PS 3.943 T) (2 SP 3.753 T)
(1 SS 3.728 T))
((4 PP 3.97 T) (3 PS 3.946 T) (2 SP 3.764 T)
(1 SS 3.726 T))
((4 PP 3.988 T) (3 PS 3.94 T) (2 SP 3.762 T)
(1 SS 3.725 T))
((4 PP 3.974 T) (3 PS 3.94 T) (2 SP 3.758 T)
(1 SS 3.727 T))
((4 PP 3.974 T) (3 PS 3.949 T) (2 SP 3.77 T)
(1 SS 3.725 T))
((4 PP 3.97 T) (3 PS 3.949 T) (2 SP 3.758 T)
(1 SS 3.725 T))
((4 PP 3.984 T) (3 PS 3.95 T) (2 SP 3.763 T)
(1 SS 3.724 T))
((4 PP 3.99 T) (3 PS 3.95 T) (2 SP 3.759 T) (1
SS 3.721 T))
((4 PP 3.981 T) (3 PS 3.947 T) (2 SP 3.765 T)
(1 SS 3.727 T))
((4 PP 3.977 T) (3 PS 3.95 T) (2 SP 3.763 T)
(1 SS 3.728 T))
((4 PP 3.973 T) (3 PS 3.946 T) (2 SP 3.76 T)
(1 SS 3.727 T))
((4 PP 3.798 NIL) (3 PS 3.945 T) (2 SP 3.947
NIL) (1 SS 3.724 T))
((4 PP 3.98 T) (3 PS 3.939 T) (2 SP 3.76 T) (1
SS 3.723 T))
140
((4 PP 3.801 NIL) (3 PS 3.955 T) (2 SP 3.765
T) (1 SS 3.728 T))
((4 PP 3.975 T) (3 PS 3.955 T) (2 SP 3.773 T)
(1 SS 3.724 T))
((4 PP 3.977 T) (3 PS 3.942 T) (2 SP 3.775 T)
(1 SS 3.725 T))
((4 PP 3.981 T) (3 PS 3.945 T) (2 SP 3.767 T)
(1 SS 3.73 T))
((4 PP 3.992 T) (3 PS 3.937 T) (2 SP 3.767 T)
(1 SS 3.731 T))
((4 PP 3.79 NIL) (3 PS 3.95 T) (2 SP 3.76 T)
(1 SS 3.724 T))
((4 PP 3.796 NIL) (3 PS 3.945 T) (2 SP 3.761
T) (1 SS 3.723 T))
((4 PP 3.984 T) (3 PS 3.953 T) (2 SP 3.765 T)
(1 SS 3.717 T))
((4 PP 3.978 T) (3 PS 3.95 T) (2 SP 3.764 T)
(1 SS 3.726 T))
((4 PP 3.971 T) (3 PS 3.943 T) (2 SP 3.764 T)
(1 SS 3.728 T))
((4 PP 3.966 T) (3 PS 3.758 NIL) (2 SP 3.764
T) (1 SS 3.724 T))
((4 PP 3.987 T) (3 PS 3.947 T) (2 SP 3.768 T)
(1 SS 3.727 T))
SS:
SP:
PS:
PP:
Mean RT Percent errors
3.727
0.0
3.769
3.0
3.922 13.0
3.959 11.0
DONE
III. Matériel de l’expérience
Débuts de phrases utilisées dans l’expérience, condition SS
Phrases traduites de Hemforth et Konieczny (2003) :
1. L'image sur l'affiche ...................................... .
2. L'inscription sur la bouteille ...................................... .
3. L'histoire de la sorcière ...................................... .
4. Le fiacre devant la porte ...................................... .
5. La rencontre dans la cabane ...................................... .
6. La couleur sur la toile ......................................... .
7. La solution au problème...................................... .
8. Le sapin à côté du chêne ...................................... .
9. La portée du missile......................................... .
10. La lampe au-dessus de la table ...................................... .
11. La fourchette avec l'ornement .........................................
12. Le résultat de l'expérience ......................................... .
13. L'opération du rein ......................................... .
Phrases ajoutées :
14. La richesse de la famille ......................................... .
15. Le câble de l'ordinateur ......................................... .
16. Le fauteuil à côté de l'étagère ......................................... .
17. L'objectif du projet ......................................... .
18. Le chant de l'oiseau ......................................... .
19. Le nuage derrière la montagne ......................................... .
20. Le dessin sur la robe ......................................... .
141
IV Zusammenfassung in deutscher Sprache
Das Ziel dieser psycholinguistisch orientierten Arbeit war es, einen Beitrag zur Untersuchung von Fehlern in der Numeruskongruenz zwischen Subjekt und Verb im
Deutschen und im Französischen zu leisten.
Nach der Einleitung wurden dabei in einem zweiten Teil zunächst die wichtigsten
empirischen Ergebnisse zu dieser Fragestellung dargestellt. Da die Mechanismen der
Kongruenzetablierung in verschiedenen europäischen Sprachen vergleichbar sind,
wurde dabei auch auf Ergebnisse aus dem Englischen, Niederländischen, Italienischem und Spanischen eingegangen. Anschließend wurden verschiedene Erklärungsmodelle vorgestellt und hinsichtlich ihrer Abdeckung der Daten miteinander
verglichen. Dabei konnte gezeigt werden, dass unter den vorhandenen Erklärungsmodellen das aktivierungsbasierte Modell von Hemforth und Konieczny (2003) am
geeignetsten ist, um die vorhandenen Daten abzudecken, da es sowohl syntaktische
als auch nicht-syntaktische Einflüsse erklären kann.
Anschließend wurde im dritten und zentralen Teil ein im Rahmen der kognitiven
Architektur ACT-R (Anderson und Lebiere, 1998) realisiertes Computermodell vorgestellt, das wesentliche Annahmen des aktivierungsbasierten Modells umsetzt. Das
Modell bildet dabei ein tatsächlich durchgeführtes Experiment ab, das das Verstehen
und Ergänzen von Satzanfängen im Deutschen umfasst. Durch diese kognitive Modellierung konnte einerseits gezeigt werden, dass sich das Aktivierungsmodell in ein
allgemeines Verstehensmodell integrieren lässt, das zudem mit dem in ACT-R vorgegebenen allgemeinen Prinzipien menschlicher Kognition im Einklang steht. Andererseits konnte das Aktivierungsmodell in vielen Punkten präzisiert werden. Es konnte zudem gezeigt werden, dass eine Erweiterung des Modells zu einer Abdeckung der
bisher bekannten Daten möglich erscheint.
Schließlich wurde im vierten Teil der Arbeit eine Fragebogenstudie vorgestellt,
durch die wichtige Vorhersagen des Modells für die französische Sprache bestätigt
werden konnten.
Schließlich wurde im letzten Teil der Arbeit zusammengefasst, inwiefern die Modellierung und ihre empirische Überprüfung den im zweiten Teil zusammengefassten
Forschungsstand erweitern konnten. Dabei wurde gezeigt, dass durch die Modellierung eine wesentlich präzisere Beschreibung der Vorgänge bei der Etablierung der
Numeruskongruenz erreicht werden konnte, ohne dass die breite Abdeckung der Daten durch das Aktivierungsmodell dadurch gemindert wurde.
142
Die Arbeit schließt mit einer Diskussion empirischer Fragen, die offen gelassen oder
neu aufgeworfen wurden, sowie mit Möglichkeiten zu ihrer empirischen Überprüfung.
143
Téléchargement