Telechargé par guillaume.andeol

habilitatio à diriger des recherches de Frédéric Dehais

publicité
See discussions, stats, and author profiles for this publication at: https://www.researchgate.net/publication/269895411
Conflit et persistance dans l'erreur : une approche pluridisciplinaire (HDR)
Book · June 2012
CITATIONS
READS
4
1,130
1 author:
Frédéric Dehais
Institut Supérieur de l'Aéronautique et de l'Espace (ISAE)
160 PUBLICATIONS 2,085 CITATIONS
SEE PROFILE
Some of the authors of this publication are also working on these related projects:
MAIA - Modélisation de l'Attention pour une Interaction Adaptative View project
Human-Robotic Performance View project
All content following this page was uploaded by Frédéric Dehais on 23 December 2014.
The user has requested enhancement of the downloaded file.
HABILITATION A DIRIGER LES RECHERCHES
Université Paul Sabatier
présentée par
Frédéric DEHAIS
Enseignant-chercheur à l’ISAE - Formation Supaéro
Conflits et persistance dans l’erreur :
une approche pluridisciplinaire.
Table des matières
Introduction
3
1
5
5
5
6
6
2
3
Conflits
1.1 Préambule : de la nécessité du conflit . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.1 Les limites du concept d’erreur humaine . . . . . . . . . . . . . . . . . . . .
1.1.2 Le conflit : une approche complémentaire à l’étude de l’erreur humaine . . .
1.2 Vers une définition du conflit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.1 Conflit en psychologie sociale, intelligence artificielle distribuée (IAD), en neurosciences et ergonomie . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.2 Notion d’incohérence et d’engagement dans un but . . . . . . . . . . . . . .
1.3 Modélisation des conflits : le cas des conflits entre l’opérateur et les systèmes automatiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3.1 Le cas du pilote automatique d’avion de transport . . . . . . . . . . . . . .
1.3.2 La détection du conflit . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3.3 Mise en oeuvre dans le simulateur de l’Isae . . . . . . . . . . . . . . . . . .
1.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
8
9
10
14
Vers une résolution du conflit
2.1 Préambule : le conflit, un précurseur de la dégradation de la performance . . .
2.2 Approche expérimentale du conflit . . . . . . . . . . . . . . . . . . . . . . . .
2.2.1 Expérimentation 1 : conflit dans les interactions opérateur - robot . . .
2.2.2 Définition de contre-mesures cognitives . . . . . . . . . . . . . . . . .
2.2.3 Expérimentation 2 : évaluation des effets des contre-mesures cognitives
2.3 Adapter l’interaction pour résoudre le conflit . . . . . . . . . . . . . . . . . . .
2.3.1 Principes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.2 Inférence de la “tunnélisation attentionnelle” . . . . . . . . . . . . . . .
2.3.3 Modéliser la dynamique de l’autorité opérateur-automate . . . . . . . .
2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
15
15
16
16
20
20
23
24
25
28
32
Aspects neuroergonomiques du conflit
et de la persistance dans l’erreur
3.1 Préambule : le continuum cognitif . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Fonctions exécutives et persistance dans la décision d’atterrir en aviation légère
3.2.1 Apport de la neuropsychologie : les batteries de test . . . . . . . . . .
3.2.2 Expérimentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3 Etude neuroéconomique du conflit lors de la prise de décision à l’atterrissage .
3.3.1 Le conflit entre sécurité et désir d’atterrir . . . . . . . . . . . . . . . .
3.3.2 Apport des neurosciences : . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
35
35
36
37
37
39
39
40
1
6
7
3.4
3.5
4
3.3.3 Expérimentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Le conflit visuo-auditif ou l’insensibilité des pilotes aux alarmes auditives : . . . . . .
3.4.1 L’apport des neurosciences pour la compréhension des conflits de bas niveau
3.4.2 Expérimentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Conclusion et perspectives
4.1 Perspective 1 : Neuroergonomie . . . . . . . . . . . . . . . . . . . . . .
4.2 Perspective 2 : Experimenter de nouvelles contre-mesures cognitives . . .
4.3 Perspective 3 : Modélisation de l’attention . . . . . . . . . . . . . . . . .
4.3.1 Détection en temps réel de la “tunnélisation de l’attention” . . . .
4.3.2 Vers un modèle neuropsychologiquement plausible de l’attention
auditive . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4 Perspective 4 : Initiative mixte . . . . . . . . . . . . . . . . . . . . . . .
4.4.1 Application à la planification mixte de trajectoire . . . . . . . . .
4.4.2 Application à la planification de mission . . . . . . . . . . . . . .
4.4.3 Vers une interface à initiative mixte . . . . . . . . . . . . . . . .
4.5 Synthèse des perspectives . . . . . . . . . . . . . . . . . . . . . . . . . .
Bibliographie
. . . .
. . . .
. . . .
. . . .
visuelle
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. .
. .
. .
. .
et
. .
. .
. .
. .
. .
. .
40
44
44
45
49
51
52
53
54
54
55
57
57
59
61
61
63
2
Introduction
Quelles sont les causes des accidents dans les grands systèmes industriels à risques ? Bénéficiant
des progrès techniques, d’un savoir-faire et d’une réglementation très exigeante pour la certification,
ces systèmes critiques tels que le nucléaire ou l’aéronautique sont dits "ultra-sûrs" (Amalberti, 1998)
et ne connaissent que très rarement des défaillances qui remettent en cause la sécurité. C’est le facteur
humain qui est le plus souvent tenu comme le principal responsable de ces accidents : en aéronautique
par exemple, des études (Boley, 1986; Veillette, 2001), tendent à montrer que l’opérateur humain est
à l’origine de 70% à 80 % des cas d’accidents dans l’aviation civile ou militaire (O’Hare et al., 1994;
Wiegmann et Shappell, 2003). Toutefois, ces statistiques, bien que discutées (Woods et al., 1994),
ont motivé un nombre important d’études en facteurs humains depuis les années quatre-vingt qui ont
permis d’améliorer la sécurité en général (Baker et al., 2008).
L’objet de ce travail de recherche est d’apporter une contribution théorique et pratique à la problématique de l’erreur humaine. Cette contribution s’inscrit dans les thèmes précis de la prédiction
de la dégradation de la performance des opérateurs humains et de la définition de moyens d’assistance. Modéliser in situ l’erreur humaine et estimer ses conséquences sur l’activité des opérateurs
est une tâche pour le moins complexe et hasardeuse. Une posture raisonnable consiste à identifier
des situations ou scénarios qui font émerger des comportements stéréotypés à l’origine d’accidents.
Ainsi l’Inrets (Institut national de recherche sur les transports et leur sécurité) partant du constat de
l’existence d’invariants dans les accidents (Van Eslande et al., 1997; Van Eslande, 2001), postule que
le comportement des automobilistes est essentiellement conditionné par les infrastructures routières
(longueur de la ligne droite, implantation du carrefour, emplacement de la signalisation, courbure de la
route, visibilité...) Par ailleurs, Wanner et Wanner (1999), en faisant rejouer en simulateur des scénarios connus d’accidents aériens à des équipages de compagnie, montrent que leur comportement est
convergent, ce qui les amène quasi mécaniquement à commettre les mêmes erreurs qui les conduisent
au même type d’accident.
La revue d’accidents tant militaires que civils indique également que l’apparition de situations
psychologiques particulières comme les conflits est un précurseur remarquable d’erreurs humaines
(Pritchett et Hansman, 1997; Song et Kuchar, 2001) : ceux-ci peuvent se produire par exemple entre
l’équipage et le contrôle aérien (Air Philippines, avril 99), entre l’homme et les systèmes embarqués
(collision aérienne entre un Tupolev 154 et un boeing 757, juillet 2002), ou encore dans la compréhension des procédures de vol (Crossair, janvier 2000). Dans cette logique, la question à laquelle nous
nous efforçons de répondre est de déterminer si le conflit est un concept pertinent pour la sécurité
des systèmes à risques. Or, l’étude approfondie du conflit, pourtant délaissée à tort par de nombreux
auteurs (Le Marc, 1999), se révèle riche et trouve ici des applications dans deux domaines principaux :
les interactions pilote-avion et les interactions opérateur-robot. Ces problématiques sont au cœur de
l’activité de recherche en facteurs humains que nous avons créée à l’Isae, consolidée par les embauches
3
récentes d’un chercheur et d’un ingénieur de laboratoire.
L’approche suivie pour étudier ce concept est celle de la transdisciplinarité et de la pluridisciplinarité. Transdisciplinarité tout d’abord, car le conflit est un concept transversal qui a des fondements
formels, neurobiologiques, psychologiques et sociologiques. Pluridisciplinarité ensuite, car pour l’identifier et le résoudre nous utilisons des méthodes et des outils formels mais aussi des théories de la
psychologie cognitive. Ainsi ce manuscrit est organisé en trois chapitres qui proposent d’observer et
d’étudier ce concept de conflit à travers un prisme pluridisciplinaire.
Dans le premier chapitre, nous intéressons aux aspects structurels du conflit, en mettant en œuvre
des moyens formels pour le détecter. Dans le deuxième chapitre nous nous attachons à étudier les
effets du conflit sur la performance humaine et à définir des moyens adaptés et automatisés pour le
résoudre. Enfin dans un dernier chapitre, nous introduisons l’approche originale de la neuroergonomie
pour comprendre certains mécanismes neurocognitifs sous-jacents au conflit.
4
Chapitre 1
Conflits
Guide de lecture. Dans ce chapitre, nous montrons par une approche théorique et conceptuelle l’intérêt d’étudier le conflit en ergonomie. En particulier, son apparition est synonyme
de dégradation de la performance des opérateurs humains. Après une revue de ce concept à
travers diverses disciplines, nous proposons une définition générique du conflit pour les facteurs
humains. Nous mettons en œuvre notre approche du conflit dans le cadre d’une application
aéronautique pour détecter son apparition dans les interactions équipage - pilote automatique.
1.1
1.1.1
PRÉAMBULE : DE LA NÉCESSITÉ DU CONFLIT
Les limites du concept d’erreur humaine
Classiquement, la mesure et la prédiction de la performance des interactions opérateurs - systèmes
repose sur la détection d’écarts entre l’activité réelle des opérateurs et la tâche attendue (Leplat,
1985). Ainsi de nombreuses approches formelles sont proposées (Lesire et Tessier, 2005; Callantine,
2002; Steinfeld et al., 2006) où l’activité réelle, reconstituée dynamiquement à partir des données
comportementales des opérateurs (i.e. actions sur les interfaces de pilotage), est comparée à une
base de données qui représente les procédures de référence. Or ces méthodes comportent des limites.
Cela tient principalement à deux problèmes épistémologiques auxquels se heurte l’étude de l’erreur
(Dehais, 2004) : celui de son existence, et celui de son statut. En effet, la formalisation de l’erreur est
hasardeuse puisque la notion de norme à laquelle elle se rattache n’est pas universelle. En ergonomie,
il est reconnu que les opérateurs redéfinissent les normes pour trouver de nouvelles procédures, plus
efficaces et plus sûres (Dekker, 2003). La survenue d’une erreur ne conduit pas nécessairement à la
dégradation des interactions homme-système. Par exemple, les opérateurs (ex : pilote, conducteur de
trains) commettent immanquablement des erreurs mais en récupèrent la plupart (Rizzo et al., 1987).
Cette production-détection-récupération de l’erreur constitue un véritable trait d’expertise (Allwood,
1984). Il est également largement reconnu que l’apprivoisement de l’erreur est un processus intrinsèque
dans l’apprentissage de connaissances (Giroud-Fliegner, 2001). Enfin, l’erreur est un moyen important
dans l’auto-évaluation de sa performance : c’est au regard de ses erreurs que l’on peut estimer si une
connaissance est apprise, comprise. Dans le domaine de la conduite (conduite automobile, pilotage
d’avion...), le nombre d’erreurs commises joue un rôle de feedback et permet d’estimer sa performance
(ex : fatigue) (Wioland, 1997). Il est à noter toutefois que l’usage de techniques d’apprentissage
5
formelles semblent prometteuses pour tenir compte de ces caractéristiques particulières de l’erreur
humaine (Vanderhaegen et al., 2011; Vanderhaegen, 2010).
1.1.2
Le conflit : une approche complémentaire à l’étude de l’erreur humaine
Nous cherchons à définir une méthode et des outils pour identifier des précurseurs de la dégradation de l’activité de pilotage et à mettre en oeuvre des moyens pour empêcher la déterioration des
interactions pilote-système. Mais au regard de ce que nous avons rapporté jusqu’ici, nous sommes en
mesure de nous demander si la modélisation de l’erreur constitue une approche suffisante pour rendre
compte de l’état de dysfonctionnement d’un système hommes-machines. Au contraire, le concept de
conflit particulièrement étudié en psychologie sociale (Le Marc, 1999; Simmel, 2003) montre que sa
présence est révélatrice d’une dynamique de tension et d’opposition au sein d’un groupe d’individus
en interaction. En intelligence artificielle distribuée (IAD), son apparition permet de diagnostiquer
un état de dysfonctionnement dans les interactions entre les agents artificiels (Dehais et Pasquier,
2000). Une objection pourrait être de considérer le point de vue de Simmel (2003) sur le rôle positif
et finalement cristallisateur de ces conflits. Sans le nier, il faut pourtant considérer que ce mécanisme
positif est un processus à long terme, qui se réalise une fois les tensions apaisées, une fois les crimes
pardonnés, une fois la paix faite avec l’ennemi, comme le suggèrent les travaux de Sherif et Sherif
(1953). En revanche à court terme, le conflit engendre des comportements tels que l’inhibition (Lewin et al., 1939), l’agressivité (Sherif et Sherif, 1953), l’exclusion, l’incompréhension (Simmel, 2003).
Ensuite, d’un point de vue formel, ce concept est plus intéressant que l’erreur : il ne se rapporte pas
systématiquement à un référentiel. Le conflit peut effectivement être relatif à une norme et en ce
sens on se retrouve confronté aux mêmes problèmes rencontrés avec l’étude de l’erreur. Mais il peut
exister dans l’absolu en dehors de toute morale, ou de toute vérité : son essence est la contradiction
(Castelfranchi, 2000), la différence entre deux points de vue (Chaudron et al., 2000). Ainsi, il apparaît
possible de le détecter en se concentrant sur l’analyse de phénomènes d’opposition, d’interférence ou
d’incohérences comportementales entre plusieurs agents.
1.2
VERS UNE DÉFINITION DU CONFLIT
La notion de conflit jouit d’un intérêt considérable dans de nombreuses disciplines puisqu’on le
retrouve en psychologie, en psychanalyse (conflit oedipien), en sociologie et en sciences politiques
(conflits sociaux), en géostratégie (conflit ethnique), en intelligence artificielle (conflit de ressource),
en neurosciences... Cependant, lorsqu’on s’intéresse à la littérature sur ce concept transversal, on
constate qu’il n’a pas de véritable identité formelle et que la confusion est souvent présente. Par
exemple, au sens commun, le conflit est défini par la “Rencontre d’éléments, de sentiments contraires
ou qui s’opposent” (Petit Robert) ; le “Choc de gens qui en viennent aux mains” (Littré) ; les “Actions,
idées, intérêts ou personnes opposés ou en compétition” (Encyclopédie Britannica). La dérive sur
l’utilisation de ce concept est la conséquence première de l’ambiguïté entre le conflit per se et sa
résolution : la guerre n’est pas le conflit, mais une technique de résolution du conflit au même titre
que la négociation, le compromis... Ensuite les enjeux particuliers de chaque discipline font que chacun
apporte sa vision du conflit en fonction de ses objectifs, comme en intelligence artificielle où le conflit
est la plupart du temps assimilé au dysfonctionnement. Synonyme d’échec, on s’intéresse plus à le
résoudre ou à l’éviter qu’à le comprendre ou en tirer profit.
1.2.1
Conflit en psychologie sociale, intelligence artificielle distribuée (IAD),
en neurosciences et ergonomie
En psychologie sociale, une définition communément admise propose qu’il y ait “conflit lorsqu’une
décision ne peut être prise par les procédures habituelles” (March et Simon, 1958). Pour Thomas
6
(1976), le conflit se produit lorsqu’un groupe d’agents se sent en état de frustration vis-à-vis d’un
autre groupe. Coombs et Avrunin (1988) insistent sur le fait qu’un conflit se caractérise par une
opposition entre deux réponses comportementales.
En neurosciences cognitives, l’étude du conflit fait également l’objet de nombreux travaux (Botvinick et al., 2001; Allport, 1987) notamment à travers l’utilisation de matériaux expérimentaux tels
que la tâche de Flanker (Eriksen et Eriksen, 1974) ou le test de Stroop (Stroop, 1935). Une bonne
illustration de cette problématique est proposée par Mozer et Sitton (1998, p. 342) : “On peut concevoir le traitement de l’information ... comme se produisant le long d’une certaine voie neuronale. Si
les voies de traitement pour deux stimuli ne se recouvrent pas, alors le traitement peut avoir lieu en
parallèle. Mais si les voies partagent des ressources communes ou “hardware” les stimuli vont interagir
en interférant l’un avec l’autre (p. 342)”.
En IAD, le conflit est la plupart du temps assimilé à la notion d’incohérence logique (Müller
et Dieng, 2000; Castelfranchi, 2000). Il est presque toujours considéré comme une entrave sur le
chemin de la solution émergente. C’est une des conséquences de l’orientation applicative (tournée
vers l’efficacité) d’une majorité de projets du domaine. Par exemple, dans les systèmes coopératifs,
le conflit est vu comme une des situations non-coopératives (Camps, 1998). Cette définition par
ombrage se retrouve dans nombre des approches du conflit.
Enfin, dans le domaine des interactions hommes-systèmes, le concept de conflit est considéré sans
être vraiment défini ou alors, comme en IAD, de manière ad hoc. L’ergonomie, et surtout l’ergonomie
de conception, cherche avant tout à optimiser les interactions entre les opérateurs et leurs interfaces.
Par conséquent, les travaux s’orientent essentiellement sur la définition de systèmes coopératifs (Hoc,
2001; Pavard et Dugdale, 2000; Amalberti et Deblon, 1992) en mettant en oeuvre des moyens et
des outils de dialogue et d’assistance pour éviter l’apparition de conflits (Leroux, 1997). On distingue
toutefois les conflits entre systèmes d’alerte (Song et Kuchar, 2001), les conflits dans l’exécution
de la tâche de l’opérateur, le conflit entre opérateur et systèmes automatisés appelés “surprise de
l’automatisation” (“automation surprise” en anglais) (Sarter et al., 1997), ou encore le conflit entre
avions dans le contrôle aérien. Ce type de conflit est sans doute le plus étudié si l’on considère
l’imposante documentation scientifique dans le cadre du contrôle aérien (Kuchar et Yang, 2000). Il
est aussi celui qui est le mieux formalisé, du fait que ce type de conflit met en jeu des grandeurs
objectives que sont les distances entre aéronefs.
1.2.2
Notion d’incohérence et d’engagement dans un but
Une approche pour unifier l’ensemble des assertions précédentes est de considérer que le conflit est
un état d’incohérence qui relève soit d’une contradiction au sein des connaissances portées par le ou
les agents, soit d’une insuffisance de ressource. Toutefois cette vision issue de l’IAD est réductrice :
il est reconnu que l’apparition d’incohérences ne devient conflictuelle que si elle remet en cause la
réalisation d’une tâche (Song et Kuchar, 2001; Castelfranchi, 2000; Putnam et Poole, 1987) 1 . En
ce sens, Easterbrook (1991) insiste sur la notion du degré d’importance d’une incohérence et de ses
conséquences sur la réalisation d’un but. Ce point de vue a souvent été repris dans le domaine des
facteurs humains où l’impossibilité d’atteindre un but (ex : décoller, atterrir, éviter une collision ...)
est une hypothèse implicite du conflit.
Néanmoins, cette acception du conflit qui relie cause (i.e. incohérence) et conséquence (i.e. but
non atteignable) induit des problèmes de modélisation. Cela présuppose de connaitre les buts des
agents et de mesurer les effets de l’apparition d’incohérences sur la réalisation de ces buts, ce qui ne
peut être souvent réalisé qu’a posteriori comme pour l’erreur humaine. Dans le cadre des facteurs
humains, on peut néanmoins poser l’hypothèse qu’un opérateur est nécessairement engagé dans une
1. Par exemple, l’apparition du stimulus “VERT ” peut produire un effet de conflit lorsqu’il est explicitement
demandé d’énoncer la couleur de l’encre. En l’absence de tâche ou de consigne, la lecture de ce mot ne présente
aucune difficulté particulière.
7
tâche et qu’il se trouve en conflit dès qu’il fait face à des incohérences dans son interaction avec son
interface ou d’autres opérateurs. Dans ce domaine, on peut relever deux familles d’incohérences qui
peuvent conduire au conflit :
– les paramètres ou les informations sont contradictoires : l’interface utilisateur affiche des données
incompatibles (Orasanu et Martin, 1998; Song et Kuchar, 2001), les procédures ne sont pas
conciliables (Woods et al., 1994), les objectifs sécuritaires et de performance (respecter les
horaires, économie de carburant...) sont en opposition (Loukopoulos et al., 2001; Degani et
Wiener, 1997; Orasanu et Martin, 1998),
– les ressources sont limitées : les actions d’un autre agent interfèrent (Castelfranchi, 2000) (ex :
le pilote automatique refuse ou modifie les valeurs que l’équipage a entrées via son interface,
la piste est utilisée par un autre avion) , les ressources physiques (ex : carburant, calculateur)
et cognitives sont saturées (Mozer et Sitton, 1998; Keyser, 1996; Loukopoulos et al., 2001),
l’opérateur humain dispose de modèles mentaux incomplets (Woods et Sarter, 2000; Besnard
et al., 2004).
Par exemple, dans l’accident d’Uberlingen, l’équipage a reçu des ordres incohérents entre monter et
descendre provenant respectivement de son système d’anticollision et du contrôleur aérien (Nunes et
Laursen, 2004) 2 . Il n’est pas nécessaire de connaître le ou les buts des pilotes pour estimer que les
conséquences de cette contradiction étaient critiques et ont pu empécher de réaliser la manoeuvre
d’évitement. L’ensemble de ces réflexions nous amène à poser la définition suivante :
DEFINITION Conflit Un conflit est un état incohérent où pendant un intervalle de
temps :
– au moins une ressource limitée ou non partageable est l’objet d’une compétition ou ;
– au moins deux informations sont contradictoires.
1.3
MODÉLISATION DES CONFLITS : LE CAS DES CONFLITS ENTRE
L’OPÉRATEUR ET LES SYSTÈMES AUTOMATIQUES
Nous proposons ici une formalisation des conflits opérateurs-systèmes automatiques. Une telle
formalisation est envisageable car il est possible de réaliser des mesures de l’état de ces systèmes et
des actions des opérateurs sur les interfaces de ces systèmes. L’analyse d’événements aériens montre
que de nombreux accidents aériens récents ont eu pour origine un conflit entre l’équipage et les
systèmes automatiques capables d’effectuer “en série ou en parallèle de l’opérateur des opérations
de tri, de décision, de diagnostic, de conduite et d’action habituellement dévolues à cet opérateur”
(Amalberti, 2002). Dans ces situations qualifiées de “surprise de l’automatisation” (Sarter et Woods,
1995; Sarter et al., 1997; Woods et Sarter, 2000), il apparaît que le pilote automatique ne se comporte
pas de la manière dont l’équipage se la figure. Ces travaux, réalisés en partenariat avec l’Onera dans
le cadre du projet Airbus - Ghost, ont donné lieu à deux brevets (Dehais et al., 2010b; Dehais, 2009)
qui sont présentés dans les paragraphes suivants.
1.3.1
Le cas du pilote automatique d’avion de transport
La plupart des aéronefs, notamment les avions de transport civil, sont équipés d’un pilote automatique qui permet de contrôler la trajectoire et la vitesse suivant des consignes établies par l’équipage.
2. Au sens strict de March et Simon (1958), il n’y a pas de conflit homme-machine dans cet événement
aérien puisqu’il existe une procédure qui stipulait que l’équipage doit toujours suivre les ordres du système
d’anticollision et ce quelles que soient les consignes du contrôleur aérien. Pourtant, le stress et le manque
d’entraînement à ce type de situations incohérentes ont probablement conduit l’équipage à négliger cette
norme et à se sentir dans un véritable état de conflit.
8
Dans leur principe, ces pilotes automatiques modernes sont des automates à états finis ; états qui
correspondent à autant de modes de pilotage dans le contrôle du plan vertical (exemple mode ALTITUDE de tenue d’altitude) ou du plan horizontal (exemple mode HEADING de tenue de cap) et de
la tenue de vitesse (exemple : mode SPEED de tenue de vitesse). Le passage d’un mode de pilotage
à un autre est réalisé, de manière générale, par une action directe de l’équipage sur les interfaces
du pilote automatique pour provoquer l’apparition du mode souhaité (exemple : sélection du mode
HEADING - d’asservissement en cap - en tirant sur le rotateur idoine). Toutefois l’existence de fortes
interactions entre les différents modes de pilotage peut faire :
– qu’une simple action sur les interfaces du pilote automatique provoque une cascade de transitions
d’états du pilote automatique en ayant des conséquences sur le contrôle vertical, horizontal et
la tenue de la vitesse de l’aéronef ;
– que des actions des pilotes sur des commandes de pilotage autres que celles du pilote automatique (ex : levier des aérofreins) peuvent également déclencher des transitions de modes de
pilotage ;
– que des transitions de modes peuvent être déclenchées automatiquement, en dehors de toute
action de l’équipage, pour protéger l’avion contre les sorties de domaine de vol (ex : survitesse
ou sous-vitesse).
La compréhension et l’utilisation d’un pilote automatique nécessitent que les pilotes maîtrisent parfaitement toutes les conditions de déclenchement des transitions des modes de pilotage (il existe par
exemple 268 transitions de modes sur le pilote automatique de l’airbus A340 200/300). Or, des travaux
de recherche (Crow et al., 2000; Javaux et Olivier, 2000) révèlent que les équipages méconnaissent
l’étendue de ces transitions d’états et peinent à anticiper le déclenchement de certaines transitions
notamment dans les trois cas précités. En particulier, ces recherches montrent deux familles types de
conflits entre les équipages et le pilote automatique :
– soit les équipages se rendent compte que l’automatisme effectue des actions non demandées
mais ne comprennent pas le comportement du pilote automatique et ne connaissent pas la
procédure à appliquer pour retourner dans l’état souhaité ;
– soit le pilote automatique n’effectue pas une action à laquelle l’équipage s’attend.
Ces situations peuvent être considérées comme conflictuelles puisques les pilotes perçoivent et doivent
traiter un état d’incohérence entre leurs actions sur les interfaces du pilote automatique et le comportement réel de l’avion. De plus, l’équipage et les automatismes se partagent une ressource commune :
les organes de conduite du vol. Dès lors, un enjeu consiste à mettre en œuvre des outils de détection
et de résolution des conflits par une démarche de formalisation.
1.3.2
La détection du conflit
Les méthodes formelles ont pour objet d’étude la modélisation, l’analyse et la vérification de la
cohérence du comportement des systèmes. Les automates à états finis sont très souvent utilisés
et se trouvent particulièrement adaptés à la modélisation du fonctionnement du pilote automatique
puisque son comportement est connu et déterministe (Crow et al., 2000). Ainsi, des auteurs (Leveson
et Palmer, 1997; Butler et al., 1998) ont utilisé une telle approche pour examiner la conception d’un
pilote automatique et sa tolérance aux erreurs humaines. Rushby (2002) applique les automates à
états finis pour représenter d’une part le fonctionnement du pilote automatique et d’autre part les
modèles mentaux que l’opérateur se construit sur la logique du pilote automatique, en vue de détecter
des conflits potentiels. Rushby et al. (1999) ont montré que ce formalisme permettait de décrire et
prédire des conflits avec le pilote automatique d’un MD80. Notre approche se distingue des travaux
précédents dans le sens où la modélisation est générique et ne vise pas à représenter les conflits au cas
par cas. Par ailleurs, nous ne formulons pas d’hypothèses de modèles mentaux pour représenter les
connaissances imparfaites de l’équipage sur la logique du pilote automatique (Crow et al., 2000). Cette
position éliminativiste repose sur le fait que la variabilité inter individuelle de ces modèles mentaux est
9
un frein à la formalisation. Au contraire, nous proposons de modéliser le fonctionnement du “système
avion” composé de l’équipage et des automatismes de pilotage sur des faits objectifs et observables.
Détection formelle du conflit
Notre approche se veut générique pour éviter une modélisation ad hoc de chaque situation conflictuelle. Or, l’analyse des 2 familles de conflits évoquées précemment (c.f. section 1.3.1) montre que
celles-ci présentent un dénominateur commun : des changements de modes sont induits par un événement du système sans qu’ils soient directement commandés par l’équipage qui ne les perçoit ou
ne les comprend pas. En effet, si l’on considère le fonctionnement du pilote automatique (c.f. figure
1.3.1), tout changement de mode est soit provoqué par un événement - ou action - du pilote soit
par un événement du système pour réguler le comportement du pilote automatique. Ces derniers
événements ont pour objet d’éviter une sortie de domaine de vol (i.e. éviter la survitesse ou la sous
vitesse), de prendre la main pendant certaines phases de vol ou de rendre au contraire la main pour
que le pilote gère une situation à laquelle le pilote automatique ne peut faire face. Ainsi ces prises
ou ces restitutions d’autorité du système sur l’équipage constituent bien des situations conflictuelles :
elles interfèrent avec le but initialement souhaité par l’équipage.
Figure 1.3.1 Une analyse fine du fonctionnement du pilote automatique montre qu’il existe plusieurs chemins ou transitions possibles pour passer d’un mode à un autre. Ces transitions peuvent être tirées soient
par un événement pilote (ex : action sur l’interface) - notée TP ilote - soient par un événement système - notée
TP A . Dans la figure de gauche, l’état du pilote automatique (noté "PA") et celui du pilote sont identiques : les
deux agents ne sont pas en conflit. Dans la figure de droite, une survitesse déclenche un événement système
qui déconnecte le pilote automatique pour rendre la main au pilote. La représentation simplifiée, à l’aide des
réseaux de Petri, montre que l’état du pilote automatique (PA OFF - pilote automatique déconnecté, place
marquée en bas à gauche) diffère de l’état du pilote (PA ON - pilote automatique connecté, place marquée
en haut à droite) et provoque un conflit entre ces deux agents : le réseau de Petri est bloqué car la transition
TP ilote ne peut plus être tirée. Ce type de situation est à l’origine d’incidents graves où les équipages n’ont
pas perçu une telle déconnexion : plus personne ne pilote l’avion (Mumaw et al., 2001).
1.3.3
Mise en oeuvre dans le simulateur de l’Isae
La détection de conflits présuppose de disposer de moyens de suivi de situation pour surveiller
conjointement les actions de l’opérateur (ex : reconnaissance d’actions et de procédures) et l’état du
système (ex : alertes). Une extension du formalisme des réseaux de Petri (Lesire et Tessier, 2005)
a été proposée dans le cadre de la thèse de Charles Lesire (2006) par l’utilisation de réseaux de
Petri hybrides. L’intérêt majeur de ces travaux consiste d’une part à intégrer dans la modélisation
des données discrètes (ex : action du pilote sur l’interface) mais aussi des données numériques pour
10
représenter les paramètres continus (ex : vitesse, altitude...) D’autre part, ces réseaux présentent
des propriétés de prédiction qui sont utilisées pour anticiper l’apparition d’un conflit et en prédire les
conséquences sur la sécurité du vol. Ainsi, lorsqu’un conflit est prédit, les réseaux hybrides de suivi
de situation visent à estimer les futurs états du système “autopilote-pilote” et en particulier si ceux-ci
évoluent vers un des cinq événements graves :
– sortie de domaine de vol de l’avion ;
– changement de niveau de vol ;
– risque d’abordage ou de collision avec le sol ;
– configuration (train, volets) incohérente avec la phase de vol ;
– état de carburant incompatible avec le plan de vol.
Une mise en oeuvre du principe de détection de conflits a été réalisée à l’aide des logiciels Exhost
PIPE (Bonnet-Torrès et al., 2006) qui dialogue d’un point de vue informatique avec le simulateur de
vol de l’Isae (c.f. figure 1.3.2).
Figure 1.3.2 Le système de détection de conflits et d’assistance à l’équipage : le simulateur est connecté, par
le biais d’une interface en C++, à Exhost PIPE, un logiciel de réseaux de Petri hybrides développé par C.
Lesire durant sa thèse (Bonnet-Torrès et al., 2006). Exhost Pipe reçoit en entrée des paramètres discrets (ex :
actions pilote) et continus (ex : vitesse verticale de l’avion) du simulateur à partir desquels il peut prédire
l’apparition de conflit dans les interactions pilote-pilote automatique (Lesire, 2006; Dehais et al., 2005a).
Une expérimentation a été réalisée dans le simulateur de l’Isae pour tester la capacité de nos outils
à détecter mais surtout à anticiper l’apparition et les conséquences de conflits sur la conduite du vol
(Dehais et al., 2005a; Lesire, 2006). Plusieurs scénarios ont été proposés tels le cas de “réversion de
mode” où le pilote automatique prend l’initiative de faire monter l’avion en cas de survitesse alors que
le pilote a programmé une mise en palier (c.f. figure 1.3.3)
11
Figure 1.3.3 Scénario de "réversion de mode" : (1) l’avion est en montée en plein puissance (mode Climb) ; (2)
suite à un ordre du contrôleur aérien, le pilote effectue une mise en palier (mode Level Off - Vertical Speed
nulle). (3) Si l’avion se retrouve dans des conditions aérologiques défavorables (ex : forte rafale de vent), sa
vitesse se rapproche des limites autorisées. Dans ce dernier cas (4), le pilote automatique prend l’initiative de
faire monter l’avion pour éviter une survitesse et fait basculer à nouveau l’avion en mode Climb. Un conflit
se produit et peut conduire à une collision avec un avion évoluant au-dessus (Lesire, 2006; Dehais et al.,
2005a).
Des équations différentielles issues de la mécanique du vol ont été utilisées pour estimer l’évolution
future de variables telles que la vitesse, l’altitude ou encore la vitesse verticale de l’avion (c.f. figures
1.3.4 et 1.3.5). Les estimations sur ces variables pertinentes permettent de prédire les états futurs
du pilote automatique et d’anticiper en particulier si une survitesse va modifier l’état du pilote automatique. L’intérêt de cette approche est pouvoir prédire mais également identifier les événements à
l’origine du conflit en analysant l’historique des transitions d’état qui ont conduit à la situation. Il est
ainsi possible de générer automatiquement une explication du conflit dans les interfaces de pilotage
pour aider l’équipage à comprendre la situation et le comportement possible du pilote automatique.
Enfin, ces travaux permettent de montrer que la détection de conflits ne nécessite pas de connaître
l’ensemble des normes ou des procédures comme c’est le cas pour la détection d’erreur humaine.
12
Figure 1.3.4 Conflit pilote-pilote automatique dans le scénario de "réversion de mode" : la courbe bleue
montre les prédictions réalisées par Exhost PIPE sur l’altitude (z) de l’avion. Les deux courbes vertes représentent l’état du réseau de Petri sous-jacent. La courbe verte supérieure figure les actions du pilote sur le
pilote automatique (PA) : à l’instant 40, le pilote interrompt la montée (Pilote : Montée) en ordonnant une
mise en palier (Pilote : Palier). La courbe verte inférieure montre l’état du PA (palier ou montée) et l’énergie
de l’avion (accélération, décélération). Une première incohérence (en rouge) est prédite au temps 40 au moment où le pilote programme la mise en palier. Cette incohérence est due à un léger retard entre la consigne
du pilote et la réponse de l’avion. En revanche, l’incohérence qui est prédite à l’instant 53 représente un réel
conflit dans l’activité de pilotage détecté : l’avion n’arrive pas à décélerer ce qui conduit le PA à déclencher
une montée au temps 62 (courbe verte du bas - PA : Montée) alors que le pilote croit être toujours en palier
(courbe verte du haut - Pilote : Palier). La courbe bleue montre bien que l’altitude augmente au lieu de rester
stable. (Lesire, 2006; Dehais et al., 2005a).
Figure 1.3.5 Absence de conflit pilote-pilote automatique dans le scénario de "réversion de mode" : comme
pour le cas précédent , une première incohérence sans conséquence est prédite au temps 22. Une nouvelle
incohérence potentiellement dangereuse est détectée à l’instant 36, mais cesse à l’instant 39, dès que le comportement de l’avion est redevenu cohérent : dans ce cas, la survitesse a été évitée de peu et le PA reste
finalement dans l’état palier (courbe verte du bas - PA : Palier), comme cela avait été ordonné par le pilote
(courbe verte du haut - Pilote : Palier). La courbe bleue montre bien que l’altitude est maintenue. (Lesire,
2006; Dehais et al., 2005a).
13
1.4
CONCLUSION
L’apparition de conflits, en particulier lorsqu’ils se produisent dans des activités à risque, représente
un réel facteur de remise en cause de la sécurité. L’analyse du conflit est un moyen complémentaire
à l’étude de l’erreur humaine pour prédire la dégradation des interactions homme-machine. Dans ce
chapitre nous nous sommes efforcés d’en proposer une définition. Le point de vue défendu est que
le conflit se produit lorsqu’un agent ou un groupe d’agents est engagé dans un état d’incohérence.
Nous avons proposé une méthode générique de détection de conflits appliquée à l’aéronautique. Cette
méthode évite les écueils d’une modélisation ad hoc et tend à confirmer le bien-fondé de s’intéresser
au concept de conflit : sa formalisation est relativement simple, dans la mesure où il est possible
d’observer que le pilote automatique interfère avec les commandes de haut niveau de l’opérateur.
Ensuite, des équations différentielles sont utilisées pour essayer d’anticiper l’apparition de ces conflits
et d’en prédire les conséquences sur la conduite du vol et sa sécurité.
D’une manière générale, l’approche formelle présente un intérêt indéniable pour la psychologie
cognitive et l’ergonomie. Elle impose un effort de modélisation qui aide à structurer les concepts
manipulés. Cette approche ne constitue cependant qu’une première étape dans notre étude du conflit.
En effet, un enjeu important est de pouvoir mettre en œuvre des moyens pour adapter l’interaction en
temps réel pour assister les opérateurs en situation de conflit. L’objet du chapitre suivant est justement
de réaliser des expérimentations dans une situation écologique (pilotage d’un robot) pour mesurer
l’impact du conflit sur les processus attentionnels afin d’envisager des contre-mesures adaptées. Des
méthodes formelles sont également proposées pour représenter l’état cognitif de l’opérateur humain
et pour adapter dynamiquement l’interaction au sein du système.
14
Chapitre 2
Vers une résolution du conflit
Guide de lecture. Dans ce chapitre, nous cherchons à montrer par une approche théorique et
expérimentale que le conflit est un précurseur remarquable de la dégradation de la performance
humaine. Son apparition conduit les opérateurs à persister dans des décisions erronées et
diminue leur capacité attentionnelle. Des contre-mesures cognitives, reposant sur le principe du
retrait d’information, semblent être efficaces pour contrer les effets du conflit. Des techniques
d’inférence sont ensuite utilisées pour estimer a posteriori le degré de focalisation attentionnelle
d’un opérateur humain. Enfin, nous posons les bases formelles d’un contrôleur de la dynamique
de l’autorité dont le rôle est d’adapter l’interaction à partir de l’état des ressources globales
du système homme-machine.
2.1
PRÉAMBULE : LE CONFLIT, UN PRÉCURSEUR DE LA DÉGRADATION DE LA PERFORMANCE
Le chapitre précédent a montré que les propriétés structurelles du conflit peuvent conduire logiquement au blocage des interactions homme-machine. Mais le concept de conflit ne se réduit pas
seulement à ses aspects formels, il possède également des attributs psychologiques et affectifs. En
ergonomie cognitive, l’analyse de rapports d’accidents aériens (Dehais et al., 2003, 2010c) et des
expérimentations réalisées en simulateur de vol montrent que l’apparition d’un conflit dans la gestion
du vol est un précurseur remarquable de la dégradation de la performance des opérateurs humains.
En particulier, ces travaux indiquent une tendance des pilotes à s’attacher à la résolution du problème
initial, au détriment de la surveillance des paramètres vitaux de l’appareil, et ce en dépit des alarmes
auditives et visuelles présentes dans le cockpit. Cette rupture de coopération entre l’opérateur et
ses interfaces peut conduire à des accidents alors que l’aéronef est en parfait état de vol mais que
l’équipage persiste à résoudre un conflit mineur (Billings, 1996) “au lieu d’envisager d’autres moyens
plus directs pour accomplir leur but de navigation” (Woods et Sarter, 2000, p. 347) et ce malgré
des alarmes sonores pressantes (Beringer et Harris, 1999). De telles situations critiques ne relèvent
pas uniquement de l’aéronautique mais se retrouvent dans le domaine de la supervision d’engins autonomes (ex : drone) où une mauvaise conception du partage d’autorité (Inagaki, 2003) peut créer
des conflits avec l’opérateur humain et dégrader sa performance (Parasuraman et Wickens, 2008;
Van Ginkel et al., 2006). Ainsi, certains auteurs (Rice, 2009; Meyer, 2001) ont étudié les notions
de confiance et de fiabilité des systèmes d’assistance à l’opérateur. Il ressort qu’une fiabilité impar15
faite et une mauvaise confiance dans ces systèmes est à même de provoquer des conflits qui ont des
conséquences négatives sur les ressources attentionnelles de l’opérateur (Wickens et al., 2005) ainsi
que sur sa performance globale (Dixon et al., 2007; Wickens et Dixon, 2007).
Il est alors intéressant de constater que dans l’ensemble des situations décrites, le conflit n’est
pas la cause directe d’accidents mais c’est bien son apparition qui va perturber l’opérateur humain en
catalysant une gestion erronée de la situation. L’étude approfondie de ce concept par une approche
expérimentale se révèle nécessaire pour mesurer les effets du conflits et définir des solutions pour aider
les opérateurs à y faire face. Ainsi dans ce chapitre nous réalisons une première expérimentation pour
tenter de montrer que le conflit induit des comportements de persistance dans l’erreur et dégrade
les capacités attentionnelles des opérateurs. Dès lors un enjeu est de définir et de tester, dans une
seconde expérimentation, des contre-mesures cognitives pour aider l’opérateur à faire face aux effets
délétères du conflit sur sa performance. Néanmoins la mise en œuvre d’une telle solution dans un
contexte opérationnel présuppose de se doter de moyens de diagnostic automatisé pour détecter la
dégradation de la performance de l’opérateur. Ces travaux formels, réalisés en collaboration avec
l’Onera-DCSD, consistent à multiplier les mesures sur le système homme-machine et à les agréger
pour décider d’adapter et de redistribuer le rôle et l’autorité des agents humains et artificiels
2.2
2.2.1
APPROCHE EXPÉRIMENTALE DU CONFLIT
Expérimentation 1 : conflit dans les interactions opérateur - robot
Afin d’évaluer précisément l’impact du conflit sur le comportement cognitif d’un opérateur humain,
une expérimentation a été réalisée dans un environnement robotique 1 constitué d’un robot terrestre
autonome, d’une station sol de pilotage et de supervision ainsi que d’une interface de magicien d’Oz
pour déclencher des aléas (c.f. figure 2.2.1).
Figure 2.2.1 L’image de gauche montre le robot développé par l’ISAE. L’image de droite représente l’interface de supervision et de pilotage du robot. Les parties critiques de l’interface sont numérotées : (1) écran de
la vidéo panoramique, (2) synoptique, (3) carte Google tactique, (4) panneau de dialogue, (5) états du GPS,
des ultrasons et de la batterie, (6) mode de pilotage du robot (Dehais et al., In press : 2011).)
1. Les études présentées dans cette section ont été financées par la MRIS (Mission pour la Recherche et
l’Innovation Scientifique - DGA)
16
Le scénario opérationnel consiste en une mission d’identification d’une cible (Dehais et al., In
press : 2011). Dans cette mission (c.f. figure 2.2.2), le robot rejoint en mode supervisé une zone de
recherche, dans laquelle il effectue un balayage. Lorsque le robot a détecté la présence de la cible,
il rend la main à l’opérateur humain pour que celui-ci l’identifie. Afin de provoquer un conflit, une
chute de tension de la batterie du robot se produit (aléa déclenché par le magicien d’Oz) au moment
où l’opérateur prend en main le robot pour identifier la cible. Cet aléa conduit le robot a une prise
d’autorité qui interrompt la mission pour retourner à la base en mode supervisé. Cet événement est
perceptible pour l’opérateur sur son interface à l’aide de plusieurs alertes visuelles. Or, comme cet
aléa se produit à un moment où l’opérateur est particulièrement focalisé sur sa tâche d’identification,
il est attendu qu’il ne perçoive pas ces changements d’état et que chaque agent - opérateur et robot
- s’entête à poursuivre son but (retrouver la cible vs. retour base). Ainsi, la mission se déroule en
4 segments : S1 “aller sur zone” en mode autonome, S2 “rechercher cible” en mode autonome, S3
“identifier cible” en mode manuel et S4 “conflit”.
Figure 2.2.2 La mission opérationnelle : les opérateurs sont placés dans une salle fermée sans contact visuel
avec le robot qui évolue sur le terrain. Lorsque le robot détecte une cible, l’opérateur prend le contrôle pour
l’identifier mais à ce moment là le magicien d’Oz déclenche une panne de batterie. Un conflit se produit alors
entre l’opérateur (rester "sur zone" pour continuer l’identification) et le robot (rentrer le plus rapidement à
la base) (Dehais et al., In press : 2011).
Treize volontaires ont participé à l’expérimentation : l’analyse des effets du conflit porte sur la
prise de décision des participants au moment de la panne ainsi que sur l’analyse de leur comportement
oculaire et cardiaque.
17
Résultat 1 : Conflit et comportement de persistance dans l’erreur
Les résultats comportementaux ont montré que le conflit a conduit 9 participants sur 13 à persévérer à tort dans la tâche d’identification de la cible en dépit des alertes visuelles affichées sur l’interface
utilisateur. Le comportement particulier du robot, qui se dirigeait vers la base, a provoqué des situations typiques de “surprise d’automatisation” (Sarter et Woods, 1995; Sarter et al., 1997; Woods et
Sarter, 2000) qui ont conduit les sujets à se “battre” avec le joystick pour rapprocher le robot de la
cible. Seulement 4 participants ont perçu et compris l’origine du conflit en décidant rapidement de
laisser revenir le robot vers sa base. Ce type de comportement où les opérateurs s’enferrent dans des
décisions erronées a été particulièrement décrit en aéronautique (Rhoda et Pawlak, 1999) à travers
les concepts de “Sunk Cost Effect” (O’Hare et Smitheram, 1995) ou de “plan continuation error” PCE (Burian et al., 2000). Selon ces concepts, le pilote effectue une série d’actions et conserve la
décision d’atterrir même s’il doit pour cela violer un certain nombre de règles de sécurité, simplement
parce qu’il possède un plan de vol qu’il veut mener à son terme, ce qui biaise les prises de décision en
faveur de la finalisation de l’action initialement programmée. Des auteurs avancent avec le concept
d” ’erreurs de fixation” (Keyser et Woods, 1990) que cette rigidité mentale peut être le résultat d’une
incapacité décisionnelle où l’opérateur n’a plus la possibilité d’agir et d’interrompre son but (erreur de
type 1), d’une stéréotypie motrice (erreur de type 2) ou d’une obnubilation générale où l’opérateur
n’est plus capable d’analyser les changements de l’environnement (erreur de type 3). Dès lors, un
point important est de comprendre pourquoi un tel mécanisme de persistance dans l’erreur peut être
induit par une situation conflictuelle. Un point de vue est de considérer que le conflit relève d’une
impossibilité pour un agent d’atteindre un but important (voir section 2.3). Dès lors, la résolution du
conflit impose soit que l’agent révise son but courant (appelée technique de compromis) soit qu’il
abandonne définitivement son but (Castelfranchi, 2000). Or, les théories classiques en psychologie
sociale (Beauvois et al., 1995; Festinger, 1957; Milgram, 1974) décrivent expérimentalement l’escalade d’engagement, phénomène qui traduit la tendance que manifestent les individus à s’accrocher
à leur première décision, même lorsqu’elle celle-ci est clairement remise en cause par les faits. Les
auteurs postulent notamment que plus le coût (durée, argent, effort physique ou psychologique) de
l’engagement est fort, plus il est difficile de renoncer à un objectif que l’on s’est fixé. Ainsi, dans notre
expérimentation, le but d’identification de la cible était particulièrement crucial pour la mission et a
probablement incité fortement les participants à s’engager à réussir ce but quel qu’ait été l’état du
robot. En aéronautique il est montré que ce type de “fascination pour l’objectif” est responsable de
40% des victimes en aviation légère, alors que la plupart du temps l’aéronef était en parfait état de
vol (Bureau Enquête Analyse, 2000).
Résultat 2 : Conflit et trouble attentionnel
Nous avons examiné trois métriques oculaires durant chaque segment de la mission : le pourcentage
de temps passé sur l’écran de la caméra panoramique (c.f. figure 2.2.1), le nombre d’aires d’intérêt
(AOI) sur lesquelles se sont opérées des fixations et le taux de transitions oculaires (nombre de
saccades entre AOI par minute). Une analyse statistique portée sur les 9 sujets qui ont persévéré, a
révélé un effet délétère significatif du conflit sur ces métriques oculaires. En effet, lors de la survenue du
conflit, ces 9 participants s’étaient exclusivement concentrés sur la vidéo panoramique (c.f. graphe de
gauche - 2.2.3), ils ont scanné moins d’AOI et ont presenté une activité saccadique réduite. De plus, ils
n’ont porté aucune fixation sur les alertes qui les informaient du comportement du robot. De même
l’analyse des données physiologiques a montré que le rythme cardiaque de ces 9 participants était
significativement plus élevé lors de la gestion du conflit en comparaison avec les phases précédentes
(c.f. graphe de droite - figure 2.2.3).
Cette incapacité à détecter les changements imprévus dans l’environnement, enjeu crucial pour
la sécurité, a été décrite dans de nombreux domaines tels que l’automobile (Crundall et al., 1999)
et l’aéronautique (Thomas et Wickens, 2004). Différents modèles ont été avancés pour décrire ce
18
Figure 2.2.3 Figure de gauche : Evolution du pourcentage du temps passé sur la vidéo panoramique au cours
des quatre segments de la mission : le conflit (S4) a significativement généré le plus important pourcentage
de temps de fixation sur la video de toute la mission pour les 9 sujets qui ont persévéré. On remarque que
les 4 participants ("non perseverative") qui ont perçu la panne ont passé généralement moins de temps sur
cette AOI lors de l’ensemble de la mission (sauf segment S2 - rechercher cible). Figure de droite : Evolution
du rythme cardiaque au cours des quatre segments de la mission : le conflit a significativement généré le
rythme cardiaque le plus élevé de toute la mission pour les 9 sujets qui ont persévéré. On remarque que
les 4 participants qui ont perçu la panne ont eu une activité cardiaque en moyenne plus réduite lors de
l’ensemble de la mission que les 9 sujets qui ont persévéré (sauf segment S1 - aller sur zone) (Dehais et al., In
press : 2011). Les barres d’erreur représentent l’erreur type (Dehais et al., In press : 2011).
phénomène, en mettant en avant soit une dilution du champ visuel utile - théorie de l’interférence
générale (Crundall et al., 1999) - soit un rétrécissement du champ visuel utile induit par l’augmentation
de la charge fovéale - théorie de la “tunnélisation de la vision” (Williams, 1982, 1985, 1995). Cette
dernière terminologie, très perceptive, est souvent critiquée (Thomas et Wickens, 2004; Dirkin et
Hancock, 1984) et remplacée par le concept adjacent de “tunnélisation de l’attention” en stipulant
que ce mécanisme relève d’une attention sélective. Ce concept de “tunnélisation de l’attention” est
défini comme “l’allocation de l’attention vers une information particulière, l’enfermement dans une
hypothèse ou la réalisation d’un but pour une durée trop longue au vu du coût de négliger d’autres
informations, d’autres hypothèses ou de ne pas réaliser d’autres tâches” (Wickens, 2005).
De manière à comprendre l’origine de cette dégradation dans notre expérimentation, une hypothèse est de considérer, comme l’ont montré nos résultats physiologiques (c.f. figure 2.2.3), que le
conflit perturbe le bon déroulement de la mission en induisant, à un moment critique, du stress et un
accroissement de la charge de travail. Or de nombreux auteurs démontrent que le stress est un facteur particulièrement fort qui induit la “tunnélisation” (Easterbrook, 1959; Weltman et Egstrom, 1966;
Bahrick et al., 1952). Plus récemment, des études portant sur l’interaction entre émotion et cognition
ont montré que le stress et les émotions peuvent conduire, dans certains cas, à une diminution des
ressources attentionnelles (Ellis et Moore, 1999).
Il est également intéressant de noter, dans notre expérimentation, que les 4 participants qui n’ont
pas persévéré ont eu un rythme cardiaque moins élevé en se montrant moins sensibles au stress
avant et pendant la gestion du conflit. De même, ils ont manifesté une activité attentionnelle plus
importante en scannant plus de zones et plus régulièrement durant toute la mission. Ces résultats
qualitatifs semblent avancer, comme le proposent Thomas et Wickens (2004), que les différences
19
individuelles pourraient permettre de prédire la résistance à la “tunnélisation” et de mieux gérer les
conflits cognitifs.
2.2.2
Définition de contre-mesures cognitives
Les troubles attentionnels que nous avons identifiés présentent un paradoxe aux concepteurs d’interfaces : comment peut-on espérer sortir les opérateurs de leur “tunnélisation attentionnelle” si les
alarmes / systèmes conçus pour les prévenir sont négligés ? Une solution consiste à considérer les modèles attentionnels développés en neuropsychologie. Ainsi Posner et Dehaene (1994) postulent que les
processus attentionnels sélectifs sont réalisés par des réseaux attentionnels dits d’alerte, d’orientation,
et de contrôle exécutif. Des recherches menées sur des patients traumatisés crâniens suppose que la
déficience du réseau d’orientation peut provoquer des négligences visuelles (Posner et al., 1984). De
plus, Pecher et al. (2010) ont montré que l’émotion affecterait sélectivement la fonction d’orientation chez des sujets sains. En particulier, ce réseau d’orientation repose sur un mécanisme procédant
en trois temps et qui consiste à désengager, déplacer, et réengager l’attention (Posner et Dehaene,
1994). L’expérimentation menée dans un simulateur de vol (Dehais et al., 2003) a suggéré que l’absence de réaction à des alarmes sonores ou visuelles peut être expliquée par une incapacité à dégager
l’attention, une hypothèse cohérente avec les travaux de certains auteurs (Philippot et Brutoux, 2008;
Donaldson et al., 2007; Hills, 1980). Or l’approche classique consiste à ajouter des systèmes d’alerte
ou à augmenter la saillance des alarmes (Beringer et Harris, 1999). Bien que cette dernière approche
soit efficace pour mobiliser et attirer l’attention (Bustamante, 2008), elle peut être contre-productive
(Meredith et Edworthy, 1995) en ne facilitant pas le désengagement attentionnel. Au contraire, le
principe des contre-mesures cognitives que nous proposons repose sur une suppression temporaire des
informations sur lesquelles se concentre l’opérateur humain et leur substitution par un stimulus visuel
explicite destiné à changer le focus attentionnel. Dans cette optique, l’interface utilisateur viendrait
agir comme une prothèse cognitive qui effectue le désengagement attentionnel.
2.2.3
Expérimentation 2 : évaluation des effets des contre-mesures cognitives
Une deuxième expérimentation a été réalisée avec 23 participants dans l’environnement robotique
(cf section 2.2.1) pour tester le principe des contre-mesures (Dehais et al., 2011a). Deux groupes
étaient constitués : le groupe contrôle sans contre-mesure (N = 12) et le groupe avec contre-mesure
(N=11). Le scénario était identique à l’expérimentation précédente à la différence que le magicien d’Oz
envoyait une contre-mesure cognitive au moment de la panne de batterie pour aider les participants
avec contre-mesure à gérer la situation conflictuelle. Le principe de la contre-mesure (cf figure 2.2.4)
consistait à enlever momentanément l’affichage de la vidéo panoramique puis à la remplacer par
l’explication du comportement du robot.
20
Figure 2.2.4 Ces quatre images représentent respectivement les quatre étapes chronologiques de la contremesure cognitive. Image supérieure gauche - étape 1 : la vidéo panoramique est supprimée pendant 1 seconde. Image supérieure droite - étape 2 : les informations pertinentes pour comprendre le comportement
du robot sont placées dans le champ visuel pendant 3 secondes. Image inférieure droite - étape 3 : la vidéo
panoramique réapparaît avec les informations pertinentes en surimpression pendant 3 secondes de plus.
Image inférieure droite - étape 4 : fin de la contre-mesure cognitive. Les barres d’erreur représentent l’erreur
type (Dehais et al., 2011a).
Comme pour l’expérience précédente, les résultats comportementaux du groupe contrôle (sans
contre-mesure) ont montré que la majorité des participants (8 sur 12) ont persisté dans la tâche
de détection de la cible. En revanche, l’ensemble des participants du groupe avec contre-mesure ont
déclaré avoir perçu la décharge de la batterie et un seul participant a décidé de continuer à identifier
la cible consciemment. Au cours de la séance de débriefing, ce participant a déclaré qu’il pensait que
la batterie avait une marge de sécurité suffisante qui lui permettrait de poursuivre l’identification de la
cible, ce qui n’était évidemment pas le cas. Le comportement de ce participant montre les limites de
l’approche des contre-mesures cognitives pour sortir les opérateurs de leur obnubilation : ce principe
permet de pallier des déficits attentionnels et de donner une meilleure conscience de la situation,
toutefois il ne peut garantir que l’opérateur renonce au but dans lequel il s’est trop engagé (Dehais
et al., 2003).
Les participants du groupe avec contre-mesure ont présenté pendant la gestion du conflit un rythme
cardiaque significativement plus faible en comparaison avec les participants du groupe contrôle qui
n’avaient pas eu de contre-mesures. Ce résultat semble suggérer une baisse de l’activité catabolique
(Causse et al., 2010) pendant la gestion du conflit et indiquer que la contre-mesure a un effet positif
sur le niveau de stress des participants. De plus les participants du groupe avec contre-mesure ont
passé statistiquement moins de temps sur la vidéo panoramique au profit d’une prise en considération
plus soutenue en direction des autres AOI de l’interface (c.f. figure 2.2.5).
21
Figure 2.2.5 Effets bénéfiques de la contre-mesure cognitive. Figure de gauche : les participants qui ont eu
des contre-mesures cognitives ont passé moins de temps sur la vidéo panoramique que les volontaires du
Groupe contrôle lors du conflit (S4). Figure de droite : de la même manière, le rythme cardiaque des sujets
du groupe avec contre-mesure est beaucoup plus faible que les participants du groupe sans contrôle (Dehais
et al., 2011a).
La conception de la contre-mesure cognitive, qui relève des théories des neurosciences cognitives
de l’attention (Posner et Dehaene, 1994), vise à faciliter le décrochage attentionnel. En ce sens, les
résultats oculométriques suggèrent que le principe de suppression des informations a été suffisamment
efficace pour provoquer une saccade de la vidéo panoramique à une autre aire d’intérêt pertinente chez
9 participants sur 11 (cf figure 2.2.6). Comme les saccades oculaires sont le reflet de processus attentionnels (McCarley et Kramer, 2006), il peut être soutenu que ce changement rapide de focalisation a
provoqué un désengagement attentionnel. Engager et maintenir l’attention sur des informations particulières telles que la vidéo panoramique repose sur un processus d’inhibition tonique (mis en œuvre
dans le pulvinar, noyau du thalamus) pour filtrer les éléments visuels distracteurs (LaBerge et al.,
1992), en particulier en situation de stress psychologique (Tracy et al., 2000). En supprimant la vidéo
panoramique sur laquelle l’attention était excessivement focalisée, une hypothèse est de considérer
que les contre-mesures cognitives libérent le processus d’inhibition et permettent le déclenchement
d’une saccade vers une autre AOI.
22
Figure 2.2.6 Image de gauche : la croix rouge de l’oculomètre montre que le participant est focalisé sur la
vidéo panoramique pour identifier la cible. Image du milieu : lors de la première seconde du déclenchement
de la contre-mesure, la vidéo panoramique est supprimée de l’interface homme machine. Ce bref retrait d’information a déclenché, en moins d’une seconde, une saccade vers le message de panne situé sous la batterie.
Quatre autres participants se sont comportés de manière similaire et quatre autres ont eu une saccade vers
des aires d’intérêt pertinentes comme le synoptique, l’affichage du mode de pilotage ou la carte tactique.
Image de droite : le participant a son regard dirigé vers le message explicatif (Dehais et al., 2011a).
2.3
ADAPTER L’INTERACTION POUR RÉSOUDRE LE CONFLIT
L’état de l’art présenté en préambule de ce chapitre ainsi que nos expérimentations tendent à
révéler que l’apparition d’un conflit est un précurseur de la dégradation de la coopération hommemachine. Une solution consiste à adapter automatiquement le rôle et l’autorité des agents pour faire
face à la situation conflictuelle. Ces changements peuvent consister à déléguer un certain nombres
de tâches aux automatismes de manière à soulager l’opérateur si celui-ci fait face à un engagement
excessif et coûteux dans un but. Inversement, l’exécution de tâches dévolues aux automatismes peut
être confiée à l’opérateur humain si ces automates sont défaillants. Dans tous les cas, l’usage de
contre-mesures cognitive est envisagée pour informer l’opérateur de l’évolution de son rôle et de celui
des automates mais aussi pour éviter des mécanismes de persistance dans l’erreur. Par conséquent,
de telles modifications automatiques de l’interaction doivent relever d’une estimation objective de
l’état de l’engin (avion, robot...), des actions de l’opérateur (ex : temps de réaction aux alertes), de
l’apparition de conflits et de l’état cognitif de l’opérateur (c.f. figure 2.3.1). Nous présentons dans
cette section des outils et des techniques formelles pour estimer a posteriori l’état attentionnel de
l’opérateur ainsi qu’un contrôleur de la dynamique de l’autorité dont le rôle est d’adapter l’interaction
à partir de l’état des ressources globales du système homme-machine (c.f. figure 2.3.1).
23
Figure 2.3.1 Vers un résolution automatisée du conflit : le diagnostic de la performance l’ensemble homme machine repose sur la prise en compte du vecteur d’état du véhicule (ex : panne, alertes....) , du vecteur d’état
des interactions homme-véhicule (ex : conflits) et du vecteur d’état de l’opérateur (ex : état attentionnel).
L’agrégation et l’analyse de ces 3 vecteurs peuvent conduire à des adaptations en modifiant l’interface (ex :
contre-mesures) et le rôle des automatismes (ex : changement de mode du pilote automatique).
2.3.1
Principes
Une approche proposée pour améliorer le fonctionnement d’un système hommme-machine est
d’optimiser le partage d’autorité et des tâches entre les agents humains et artificiels. L’état de l’art
est aujourd’hui surtout fondé sur des « niveaux d’autorité, qui sont descriptifs et ne présentent pas
de caractère opérationnel objectif (Mercier et al., 2010). Sheridan et Verplank (1978) proposent dès
1978 une classification de l’autonomie opérationnelle sur dix niveaux. Ce modèle est abstrait et ne
tient pas compte de la complexité de l’environnement ni du contexte de mission dans lequel évolue
l’automate. Il existe beaucoup d’autres classifications de ce type (Bradshaw et al., 2003). Le point
commun de ces approches est que les capacités des machines et des humains sont complémentaires
(Kortenkamp et al., 1997). Un agent artificiel est ainsi capable de fonctionner à différents niveaux
d’autonomie préétablis et de basculer de l’un à l’autre si besoin, un niveau étant caractérisé par la
complexité des commandes traitées par cet automate (Dorais et al., 1999; Goodrich et al., 2001). La
principale limite de ces approches réside dans le caractère figé du rôle des agents et des interactions
entre l’automate et l’opérateur pour chaque niveau. Afin d’introduire plus de flexibilité, Goodrich et
Schultz (2007) distinguent autonomie ajustable, où l’opérateur choisit les modes de fonctionnement
de l’agent artificiel, et autonomie adaptative, où c’est l’automate lui-même qui détermine le mode
qu’il va utiliser. Scerri et al. (2003) dotent ainsi les agents artificiels de capacités d’apprentissage,
afin de mieux gérer les demandes d’intervention humaine. Cependant, cette méthode ne semble pas
directement applicable à des systèmes critiques. Enfin Sellner et al. (2006) proposent un mode de
partage d’autorité fondé sur des statistiques reflétant qui de l’agent artificiel ou de l’opérateur réussit
le mieux une tâche donnée. L’usage de statistiques ne garantit cependant pas le succès car agrégeant
des situations très variées. En revanche, le principe de l’affectation considérée au niveau de chaque
tâche est intéressant car présentant une granularité plus fine que les niveaux d’autonomie classiques.
Il est à noter que toutes ces approches considèrent l’humain comme un recours infaillible, ignorant ses
défaillances potentielles ainsi que les incompréhensions possibles entre l’humain et les automatismes
(Dehais et al., 2005b).
Le point de vue que nous adoptons est de systématiser notre démarche où le conflit est percu
comme le signal conduisant l’agent artificiel à réagir et à adapter son autonomie relativement à l’opé24
rateur. Néanmoins, toute modification de l’autorité (ex : réalisation d’une manoeuvre automatique
d’évitement) ne peut être considérée sans tenir compte de l’état cognitif de l’opérateur et de sa
capacité à percevoir et comprendre ces changements. Dès lors, un premier enjeu est d’estimer l’état
cognitif de l’opérateur humain et en particulier ses capacités attentionnelles comme un pré-requis
pour décider de la manière d’adapter l’interaction au sein du système.
2.3.2
Inférence de la “tunnélisation attentionnelle”
Une approche intéressante pour estimer l’état cognitif des opérateurs est de considérer l’utilisation
des techniques d’inférence (Parasuraman et al., 1999). Des travaux ont montré le bien-fondé de
ces approches pour déterminer l’état des opérateurs en intégrant différentes techniques de mesures
psychophysiologiques et comportementales (John et al., 2004). Ainsi, une étude dans le domaine
de l’aéronautique a montré qu’il était possible de déterminer le niveau de charge de travail via des
mesures cardiaques et de la résistance électrodermale (Haarmann et al., 2009) et des expérimentations
conduites sur un véhicule de l’armée américaine ont permis de dériver la charge cognitive en temps réel
à travers l’analyse de données encéphalographiques (Dixon et al., 2009). Par ailleurs Marshall (2007) a
déterminé un nombre de métriques oculaires pour identifier le niveau d’engagement attentionnel dans
de nombreuses tâches telles que la conduite automobile. Différents formalismes sont proposés pour
diagnostiquer l’état des opérateurs tels que les machines à vecteurs de support (Kapoor et Picard,
2005), la logique floue (Mandryk et Atkins, 2007), les stateflows (Liu et al., 2008) ou les approches
stochastiques (Kulic et Croft, 2007). Ainsi l’efficacité de ces systèmes inférentiels dépend tant du
choix des capteurs physiologiques pour mesurer des état cognitifs ou émotionnels (Causse et al.,
2007; Dehais et al., 2011b) que de l’utilisation d’un formalisme adapté pour rendre compte de leur
évolution en temps réel.
Mise en oeuvre : modélisation floue de la “tunnélisation attentionnelle”
Les travaux expérimentaux que nous avons réalisés sur la plate-forme robotique de l’Isae ont montré que la survenue du conflit peut être associée à des comportements de “tunnélisation attentionnelle”.
Dans une démarche formelle proche de celle de Mandryk et Atkins (2007), nous proposons l’utilisation
de la logique floue pour agréger des mesures comportementales et psycho-physiologiques en vue d’estimer le degré d’engagement attentionnel d’un opérateur humain. L’usage de cette logique se justifie
dans la mesure où il n’existe pas de modèle mathématique pour décrire ce phénomène attentionnel,
où les variables d’entrée sont en partie continues (ex : rythme cardiaque) et où il est possible d’établir
une relation intuitive, en langage naturel, entre les variables d’entrée et de sortie Cox (1992).
Une première formalisation de la “tunnélisation attentionnelle” (Pizziol et al., 2011) est réalisée à
partir des données oculométriques et cardiaques enregistrées lors de nos expérimentations (c.f. section
2.2.3). L’identification de la “tunnélisation attentionnelle” est établie à partir des indicateurs résumés
dans le tableau 2.1.
25
Indicateur de la
tunnélisation
attentionnelle
Allocation des
ressources
attentionnelles sur
un cadran
particulier
Activité saccadique
réduite
Réduction du
nombre d’AOI
considérées
Stress psychophysiologique
Référence
Métrique choisie
(Wickens, 2005)
% maximum de temps passé sur une AOI
(Cowen et al., 2002)
(Tsai et al., 2007)
Taux de transitions oculaires entre AOI
(Thomas et Wickens,
2004)
Nombre d’AOI
(Easterbrook, 1959)
(Weltman et Egstrom,
1966)
(Bahrick et al., 1952)
(Tracy et al., 2000)
Rythme cardiaque et sa variabilité
Table 2.1 Le tableau résume les quatre indicateurs connus de la tunnélisation attentionnelle dans la littérature (première et deuxième colonnes). La troisième colonne exprime leur “traduction” sous la forme de
métriques utilisables dans le cadre de nos expérimentations robotiques.
Ainsi, dans le cadre de notre application, nous avons défini trois métriques oculaires pour caractériser le degré de focalisation (pourcentage de temps maximum passé sur une AOI, taux de transitions
oculaires entre AOI, et nombre d’AOI) et deux métriques cardiaques pour identifier un stress psychologique (rythme cardiaque et sa variabilité). La détection de la “tunnélisation attentionnelle” est le
résultat d’une analyse de trois systèmes flous (c.f. figure 2.3.2). Le premier système flou (“focalisation”) agrège les trois variables oculométriques pour établir un degré de “focalisation attentionnelle”.
Le deuxième système flou (“stress”) intègre les variables liées au rythme cardiaque et à sa variabilité
pour estimer le “stress psycho-physiologique”. Enfin, le dernier système flou (“tunnélisation”) analyse
la sortie des deux systèmes précédents de règles expertes de type SI/ALORS pour déterminer le degré
de tunnélisation (ex : SI le degré de “focalisation” est élevé et que le degré “stress” est élevé ALORS
le degré de” tunnélisation” est élevé). La sortie finale de l’ensemble de ce système flou produit une
évaluation de la “tunnélisation attentionnelle” en trois niveaux faible, moyen ou fort.
26
Figure 2.3.2 Agrégation des différentes données pour détecter la tunnélisation attentionnelle. Un premier
système flou "focalisation" intègre les données de l’eye tracker : pourcentage maximum de temps passé sur
une AOI (% Max AOI), taux de transition entre AOI (Transition) et nombre d’AOI (AOI). Un deuxième
système flou estime le degré de stress psycho-physiologique en combinant les données cardiaques (HR,
rythme cardiaque et HRV, variabilité cardiaque). Les sorties de ces deux systèmes sont fusionnées pour
donner une sortie en trois niveaux de la tunnélisation attentionnelle : faible (vert), moyen (jaune) ou fort
(rouge). (Pizziol et al., 2011).)
Les résultats ont permis de montrer la capacité de notre modèle formel à estimer la “tunnélisation
attentionnelle” (c.f. figure 2.3.4) sur l’ensemble des sujets, à discriminer les sujets qui ont perçu la
panne d’eux-mêmes mais aussi à vérifier l’efficacité des contre-mesures à réduire la “tunnélisation
attentionnelle”.
27
Figure 2.3.3 Effet du conflit sur la tunnélisation attentionnelle : l’axe des abscisses figure par un code couleur
le degré d’engagement attentionnel de normal (en vert) à tunnélisation (en rouge) (Pizziol et al., 2011).
Figure 2.3.4 Effet de la contre-mesure sur la tunnélisation attentionnelle : alors que le sujet est en situation
de "tunnélisation attentionnelle", l’envoi d’une contre-mesure a été effet bénéfique pour le sortir totalement
de sa focalisation excessive. (Pizziol et al., 2011).
2.3.3
Modéliser la dynamique de l’autorité opérateur-automate
Mise en oeuvre d’un contrôleur dynamique de l’autorité
Les outils de suivi et de détection de conflits que nous avons présentés au chapitre précédent
ainsi que les techniques pour estimer la “tunnélisation attentionnelle” constituent des moyens pour
diagnostiquer l’état du système homme-machine. Cependant, des décisions doivent être prises pour
adapter les interactions opérateur-automate et éviter leur dégradation en attribuant l’autorité à l’agent
le plus capable. Dans le cadre de la thèse de Mercier (2010) un contrôleur de la dynamique de
l’autorité a été mis en œuvre et a pour enjeu d’adapter les interactions entre les différents agents
28
humains et artificiels. L’approche consiste à modéliser sous la forme de ressources l’ensemble des
éléments (connaissances, buts, opérateur humain, agents artificiels ...) nécessaires à la réalisation de
la mission. Par exemple, pour atteindre un point de passage (waypoint), un agent robotique utilise
une ressource de navigation qui nécessite de mettre en oeuvre d’autres ressources telles que le GPS,
la batterie, la conduite. Ces ressources sont instanciées dans un graphe de dépendance (c.f. figure
2.3.5).
Figure 2.3.5 Le graphe de dépendance figure l’ensemble de ressources nécessaires pour réaliser le but "atteindre un waypoint". Les arcs orientés spécifient les relations de dépendance entre ces ressources. Dans
cet exemple, la ressource "navigation" dépend de quatre ressources "position", "energy", "steering wheel" et
"safety distance". Des conflits sur l’utilisation de ces différentes ressources sont susceptibles de se produire
entre le robot et l’humain. Il faut pouvoir les détecter et les résoudre en adaptant dynamiquement l’autorité
de chaque agent sur les ressources (Mercier et al., 2010).
Une relation d’autorité graduelle est établie sur chacune de ces ressources pour chaque couple
d’agents humain et artificiel : ainsi l’opérateur humain peut disposer d’une autorité totale sur la
ressource de pilotage d’un drone en condition nominale et la perdre totalement au détriment du drone
qu’il contrôle lorsque les communications sont perdues. L’autorité d’un agent sur une ressource par
rapport à un autre agent est caractérisée par les trois propriétés suivantes : le droit d’accès, le droit
de préemption et la garantie totale. Cela à pour conséquences que l’autorité est graduelle : le contrôle
d’un agent sur la ressource R est de plus en plus fort au fur et à mesure qu’il possède, dans cet ordre,
les droits : accès, préemption, garantie de contrôle.
29
Figure 2.3.6 La relation d’autorité de l’agent X (Ag X) et de l’agent Y (Ag Y) sur une ressource donnée est
formalisée sous la forme d’un réseau de Petri. A tout moment il est possible de déterminer l’autorité relative
d’un agent par rapport à un autre sur une ressource. (Mercier et al., 2010).
Le contrôleur de la dynamique de l’autorité est mis en oeuvre par l’outil MNMS (Multiple (Petri)
Nets Management System), développé dans la thèse de Mercier (2010). Il permet la manipulation
des ressources génériques, dépendances entre ressources et relations d’autorité, ainsi que l’intégration
au sein d’une architecture robotique. L’état des ressources et l’apparition d’un conflit sur l’utilisation
des ressources est établie à l’aide des algorithmes de suivi de situation, de détection de conflits et
d’identification de la “tunnélisation attentionnelle”. Ainsi le contrôleur de la dynamique de l’autorité
permet de visualiser les conséquences d’un conflit sur la réalisation des buts de la mission (c.f. figure
2.3.7). Ce principe a été appliqué conceptuellement à la modélisation de la mission robotique que
nous avons présentée dans la section 2.2.
30
Figure 2.3.7 Logiciel MNMS (Multiple (Petri) Nets Management System) développé dans le cadre de la thèse
de S. Mercier. Ce logiciel a été utilisé pour modéliser la dynamique du partage d’autorité dans l’expérimentation robotique. Les boites représentent les différentes ressources utilisées par le robot et l’opérateur pour
mener à bien la mission. Cette figure illustre le conflit où l’opérateur réalise manuellement la tâche d’identification de la cible qui nécessite des ressources telles que le GPS, la conduite du robot (steering wheel)... Le
suivi de situation a détecté la panne de batterie et la ressource sufficient energy apparaît en rouge. Le système d’inférence flou a également détecté que l’opérateur humain fait face à une tunnélisation attentionnelle
et la ressource "operator alarms awareness" apparaît en rouge. Les conséquences de ces défaillances se propagent dans le graphe et l’ensemble des ressources deviennent indisponibles (i.e. rouges) et vont conduire
au conflit entre le but de l’opérateur (rester sur zone) et le but du robot (rentrer à la base) (Mercier et al.,
2010).
La résolution du conflit pour le contrôleur dynamique de l’autorité consiste à redistribuer l’autorité
vers l’agent humain ou artificiel le plus capable en fonction de leur état respectif. Ce changement
d’autorité peut être établi par des systèmes de règles définis lors de la conception du système ou à
l’aide d’un algorithme de planification qui va chercher à optimiser la mission. De fait le changement
d’autorité peut consister en un changement de mode de l’agent artificiel ou à l’envoi de messages ou
de contre-mesures cognitives à l’opérateur humain pour l’inciter à prendre ou à rendre l’autorité sur
une ressource (c.f. figure 2.3.8).
31
Figure 2.3.8 Le contrôleur de la dynamique de l’autorité du robot modifie l’interaction en envoyant une
contre-mesure à l’opérateur pour l’inciter à reprendre l’autorité de supervision. Le robot est, lui, chargé de
reconduire le véhicule à la base de manière automatique, sous la forme d’une tâche spécique (ressource
Return To Base Robot ) (Mercier et al., 2010).
2.4
CONCLUSION
Une première expérimentation a consisté à placer des participants dans une situation de conflit
avec un agent robotique où le but de l’un (identifier une cible pour réussir) était en contradiction avec
le but de l’autre (rentrer à la base pour éviter la perte du robot). L’analyse des résultats a montré
que la majorité des participants ont persévéré dans la réalisation de leur tâche d’identification sans
comprendre le comportement du robot ni percevoir les alertes sur l’interface.
Dès lors, nous avons défini des contre-mesures cognitives pour contrer les mécanismes de “tunnélisation de l’attention” induits par le conflit et lutter contre l’insensibilité des opérateurs aux alarmes.
Le principe de ces contre-mesures repose sur le fait que l’attention relève de mécanismes antagonistes
d’accrochage et de décrochage. En tenant compte de l’identification de ces mécanismes, il est possible de postuler que les opérateurs qui persévèrent sont incapables de décrocher volontairement leur
attention de la tâche qui les accapare pour accrocher de nouveaux stimuli pertinents (ex : alarmes).
Les contre-mesures cognitives consistent à retirer momentanément l’information sur laquelle l’opérateur est excessivement focalisé puis à la remplacer par l’information pertinente. Ainsi, c’est l’interface
qui assure le « désengagement » (retrait ciblé d’informations) et le ré-accrochage attentionnel (envoi
d’informations dans le champ visuel). Une deuxième expérimentation, utilisant le même scénario de
conflit, a permis de démontrer l’efficacité de ces contre-mesures pour sortir les participants de leur
obnubilation.
L’apparition d’un conflit conduit à adapter l’interaction homme-machine en tenant compte de
l’état cognitif de l’opérateur humain et de la capacité des automates à exécuter des tâches. Ainsi
l’utilisation de techniques d’inférence permet d’estimer le degré de focalisation d’un opérateur humain
en agrégeant des données comportementales oculométriques et cardiaques. Ces analyses sont pour
32
l’instant réalisées “hors-ligne” mais tout laisse à penser que leur robustesse permettra dans de prochaines expérimentations d’estimer l’état attentionnel des opérateurs humains en temps réel. Nous
avons également présenté le principe d’un contrôleur de la dynamique de l’autorité, fondé sur un
graphe de dépendance entre ressources contrôlables par les agents. Cet outil a pour enjeu de diagnostiquer l’état du système global et d’adapter l’interaction homme-machine. Ce travail a été réalisé
dans le cadre de la thèse de S. Mercier et est en continuité avec les travaux dans le domaine formel
réalisés conjointement avec l’Onera DCSD.
Enfin, les problématiques qui relèvent du conflit, telle la tendance à persévérer, sont extrêmement
complexes et décrites en termes comportementaux. Même si des progrès notables ont pu être faits
en ergonomie sur la compréhension des facteurs influençant le processus de prise de décision, d’autres
disciplines, telles la neuropsychologie et la neuroéconomie, se sont intéressées aux perturbations de la
prise de décision sous l’effet du stress, de l’émotion ou de la manipulation de la récompense, et ont
montré l’existence de mécanismes fondamentaux (i.e. des primitives) à la base de ces perturbations.
Nous pensons que l’utilisation des résultats théoriques et pratiques de ces disciplines peut apporter
de nouveaux éclairages pour comprendre les mécanismes sous-jacents aux erreurs décisionnelles rencontrées dans le domaine des interactions homme-machine. Ce point de vue ainsi que des travaux
expérimentaux liant ergonomie et neurosciences cognitives sont présentés dans le chapitre 3.
33
34
Chapitre 3
Aspects neuroergonomiques du conflit
et de la persistance dans l’erreur
Guide de lecture. Dans ce chapitre, nous empruntons les outils des neurosciences cognitives
et de la neuropsychologie pour étudier le conflit et la persistance dans l’erreur. Cette démarche
de neuroergonomie est appliquée au contexte du pilotage. Trois expérimentations sont proposées et visent respectivement à évaluer les habiletés exécutives mises en œuvre pendant la
phase d’atterrissage, à identifier les effets de l’émotion et de la récompense sur la prise de
décision, et enfin à investiguer l’insensibilité des pilotes aux alarmes auditives.
3.1
PRÉAMBULE : LE CONTINUUM COGNITIF
La neuroergonomie est l’étude du “cerveau au travail” (Parasuraman et Rizzo, 2007). Ses outils
sont généralement issus des neurosciences : neuroimagerie, batteries d’évaluation neuropsychologique,
neuropharmacologie etc. Un des enjeux est de permettre d’aller au-delà des approches basées seulement sur le comportement visible ou sur le ressenti subjectif des opérateurs, parfois très difficiles à
obtenir (Parasuraman et al., 1996). Notre intérêt pour la neuroergonomie a pour origine la compréhension des mécanismes sous-jacents au conflit et à la persistance dans l’erreur. De plus des réflexions
menées avec Josette Pastor, chercheur de l’Unité mixte 825 Inserm/UPS, ont conduit à constater que
de tels comportements, où les opérateurs s’enferrent dans la résolution d’un conflit, sous l’effet par
exemple d’un stresseur ou de la fatigue, s’apparentent singulièrement à des troubles neuropsychologiques habituellement rencontrés chez des patients atteints d’un syndrome dysexécutif (Dehais et al.,
2010c). L’observation en ergonomie de comportements qui s’apparentent au syndrome dysexécutif,
ainsi que les études en laboratoire montrant l’altération temporaire de certaines fonctions cognitives de
haut niveau gérées notamment par le cortex préfrontal (CPF), sous l’effet de la fatigue, de stresseurs
(Waldstein et Katzel, 2005) ou de l’anxiété (Egloff et Hock, 2001), permettent d’avancer l’hypothèse
d’un continuum cognitif (Pastor, 1999), entre le sujet sain aux performances optimales et le patient
(c.f. figure 3.1.1). L’opérateur stressé ou fatigué est situé entre les deux extrêmes.
35
Figure 3.1.1 Illustration du continuum cognitif du sujet sain doté de performances optimales au sujet stressé
ayant des performances fortement dégradées. Le sujet âgé considéré ici ne présente aucune pathologie, son
positionnement sur le continuum est bien entendu très variable (Causse, 2010).
L’ensemble de ces arguments montrent que les neurosciences cognitives et la neuropsychologie
representent un terrain fertile pour l’étude de nos problématiques de recherche en ergonomie. Ces
considérations ont amené l’Isae à établir une collaboration avec l’U825 de l’Inserm à travers le coencadrement de deux thèses où nous nous sommes tout particulièrement intéressés aux facteurs qui
pouvaient être à l’origine de prise de décisions erronées lors de la phase d’atterrissage. En effet, ce
segment de vol est particulièrement critique et implique des séquences d’actions formalisées (sortir
le train, sortir les volets etc.), le passage par des points géographiques bien précis (ex : balises) et
des processus de prise de décision basés sur des éléments rationnels (ex : prise en compte du vent
traversier maximum accepté par l’appareil). Or, l’analyse d’événements aériens révèle que 51% des
accidents se produisent lors de l’arrivée alors que cette phase ne représente que 4% de la durée
d’un vol moyen courrier (Boeing, 2005). Ainsi nous avons réalisé une première étude pour rechercher
des facteurs cognitifs de haut niveau influant la prise de décision d’atterrir. Dans une deuxième
étude, nous avons modulé ces facteurs de haut niveau par la récompense ou l’émotion. Enfin dans
une troisième étude, nous avons fait interagir ces facteurs de haut niveau avec des facteurs de bas
niveau (automatismes cognitifs). Les trois expérimentations réalisées dans le cadre de ces études
sont présentées successivement dans ce chapitre en expliquant particulièrement l’apport potentiel des
neurosciences pour améliorer la compréhension de notre problématique générale.
3.2
FONCTIONS EXÉCUTIVES ET PERSISTANCE DANS LA DÉCISION
D’ATTERRIR EN AVIATION LÉGÈRE
L’activité de pilotage prend place au sein d’un environnement changeant et dynamique où de
nombreuses informations doivent être intégrées et mises à jour en continu. Piloter un appareil léger,
dénué de tout système d’assistance (pilote automatique...), implique la surveillance des paramètres
moteur, la gestion des communications avec la tour, la planification de la navigation, une bonne
conscience de la situation, l’adaptation aux changements environnementaux et la prise de décisions
pertinentes en inhibant les réponses désormais non valides. Toutes ces activités inhérentes au pilotage
36
impliquent nécessairement une forte sollicitation des fonctions exécutives (FE), capacités intellectuelles de haut niveau qui sous-tendent les comportements orientés vers un but et l’adaptation aux
situations nouvelles et complexes (Elliott, 2003). Ces FE permettent l’inhibition de réponses automatiques en faveur d’un comportement contrôlé, lorsque les buts ou les contraintes environnementales
ont changé et quand les réponses automatiques ne permettent plus d’avoir un comportement adéquat
(Elliott, 2003; Royall et al., 2002). Les FE interagissent avec les processus attentionnels (Barkley,
1997; Posner et Rothbart, 2007). Cela est probablement lié au fait que le CPF joue un rôle dans une
très grand nombre de compétences intellectuelles telles que le raisonnement (Decker et al., 2007), le
contrôle exécutif (Posner et al., 2006), la flexibilité mentale (Spreen et al., 1995), la prise de décision
(Sanfey et al., 2003), la planification (Koechlin et al., 2000), la structuration temporelle des actions
(Fuster, 2000) ou encore la régulation émotionnelle (Gyurak et al., 2009). L’étude fine de ces FE
constitue une approche intéressante pour comprendre et prédire la capacité des opérateurs humains
à s’adapter ou au contraire à s’enferrer dans des décisions erronées.
3.2.1
Apport de la neuropsychologie : les batteries de test
Bien que ne se focalisant pas spécifiquement sur les FE, l’étude des fonctions cognitives et leur
mise en lien avec la performance de pilotage intéresse depuis de nombreuses années les chercheurs du
domaine aéronautique. Différentes fonctions cognitives identifiées comme étant cruciales au pilotage
ont été proposées. On peut citer par exemple les capacités d’allocation et de partage des ressources
(Tsang, 1998), l’attention (Knapp et Johnson, 1996), la résolution de problème (O’Hare et al., 1994)
ou encore le raisonnement déductif (Wiggins et O’Hare, 1995). Les différentes études réalisées ont
abouti à la définition de batteries de tests évaluant un très grand panel d’habiletés cognitives, telles
que Cogscreen-AE (Horst et Kay, 1991) ou Wombat. La batterie Cogscreen-AE figure parmi les plus
utilisées et comporte des tests neuropsychologiques semblables à ceux employés en pratique clinique.
Ainsi Yakimovich et al. (1994) ont corrélé les déviations à la trajectoire optimale (obtenues grâce aux
boites noires) de pilotes de ligne russes avec certains indices mesurés par la batterie Cogscreen-AE ;
(Taylor et al., 2000) ont pu prédire 45% de la variance de la performance de pilotage en simulateur
avec 4 prédicteurs mesurés par cette batterie de tests. La plupart des études utilisant ce type de
batterie portent plutôt sur des aspects de la sécurité tels que les communications (Morrow et al.,
2003a,b), mais très peu s’intéressent au raisonnement ou à la prise de décision comme l’expérience
de Wiggins et O’Hare (1995) réalisée sur une situation de pilotage très simplifiée. Au contraire, dans
notre étude, nous souhaitons nous intéresser particulièrement au processus sous-jacent à la prise de
décision lors de l’atterrissage et évaluer les liens entre la qualité de cette prise de décision et les
habiletés exécutives.
3.2.2
Expérimentation
L’expérimentation 1 que nous proposons (Causse et al., 2010, in press : 2011), réalisée dans le
cadre de la thèse de Mickaël Causse, s’inspire des méthodes employées par Taylor et al. (2000)
qui tentent d’établir un lien direct entre état cognitif et performance de pilotage sur avion léger.
Cependant, contrairement à Taylor et al. (2000) qui emploient Cogscreen-AE, une batterie de tests
généralistes en terme de fonctions cognitives explorées, nous avons utilisé la batterie EARTH de
l’Inserm U825 pour nous concentrer sur les composantes exécutives du système cognitif. Dans la
multitude de capacités liées aux FE, trois d’entre elles, dites de bas niveau (en comparaison à des
fonctions telles que le raisonnement) sont considérées comme distinctes et modérément corrélées par
1. Cette recherche Inserm UMR 825 - Onera DCSD - ISAE a été financée par le GIS Longévité dans le
cadre du projet "Intelligence Artificielle et évaluation des fonctions exécutives dans le vieillissement normal et
pathologique : des pilotes d’avion aux patients Alzheimer" et par la Région Midi-Pyrénées : contrats DAERRecherche 03012000 et DAER-Recherche 05006110.
37
Miyake et al. (2000) et ont fait l’objet d’une évaluation dans notre expérimentation : le set-shifting
évalué par le Wisconsin Card Sorting Test (Eling et al., 2008) ; la mise à jour et le contrôle du
contenu de la mémoire de travail évalués avec le test de N-Back (Chen et al., 2008) ; et l’inhibition
de réponses dominantes - mesurés par le Stroop spatial (Desoto et al., 2001). Cette expérimentation
a été réalisée avec 32 pilotes qui devaient également effectuer, en plus des tests, un scénario de vol
réaliste (c.f. figure 3.2.1). Ce dernier a consisté en une tâche de navigation et a été enrichi d’un certain
nombre de tâches secondaires (détection de panne, calcul de vitesse etc.), cela afin de se rapprocher
autant que possible de la demande mentale générée par un vol réel. En particulier, nous avons tenté
d’établir un lien entre le fonctionnement exécutif et la qualité d’une prise de décision liée aux conditions
météorologiques : les pilotes devaient intégrer les évolutions des conditions météorologiques durant
le parcours et établir que les conditions de vent traversier n’étaient pas propices à un atterrissage.
Figure 3.2.1 32 pilotes ont participé à une expérimentation où il leur était demandé de passer des tests
évaluant les habiletés exécutives tels que le WCTS (c.f. image de gauche) et de réaliser une tâche de navigation en simulateur (c.f. image de droite). La difficulté du scénario de vol résidait dans la prise de décision
à l’atterrissage : les pilotes devaient remettre le gaz en raison de l’évolution défavorable des conditions météorologiques (Causse, 2010).
Résultats
Une analyse discriminante a révélé que l’affaiblissement des capacités de mémoire de travail étaient
prédictive de la décision erronée de poursuivre l’atterrissage en dépit des mauvaises conditions météorologiques. En particulier cette analyse a montré que les pilotes ayant pris la bonne décision de
remettre les gaz présentaient un pourcentage de bonnes réponses au 2-back, un test qui met particulièrement en jeu les capacités de mise à jour en mémoire de travail. Müller et Dieng (2000) ont
évoqué la grande difficulté rencontrée par certains pilotes à intégrer des modifications contextuelles
critiques telles que la dégradation des conditions météorologiques. Le fait que la performance de la
mémoire de travail soit significativement liée à la prise de décision erronée de poursuivre l’atterrissage
va, selon nous, tout à fait dans le sens des propos de ces auteurs. En effet, les capacités de mise à jour
en mémoire de travail peuvent conditionner la capacité à intégrer l’évolution de la météorologie, cette
dernière se dégradant progressivement durant notre expérience. Par ailleurs, la spécification technique
précisant la tolérance maximale de l’appareil n’a probablement pas été récupérée en mémoire de travail, et n’a donc pas été portée à la pleine conscience des pilotes ayant poursuivi l’atterrissage. Lors
de l’atterrissage, les pilotes devaient, en plus de la tenue des paramètres de vol, prendre en compte les
informations du bulletin météorologique de l’aérodrome, puis les mettre en regard des spécifications
techniques de l’appareil. Cela consistait à réaliser un calcul mental pour déterminer la composante
de vent traversier, retenir le résultat, et le comparer avec la vitesse de vent traversier maximale de
l’appareil, comme spécifié dans le document technique fourni. C’est l’incapacité à récupérer des informations cruciales puis à mettre à jour le contexte météorologique qui semble avoir conduit les pilotes
38
à s’en tenir à la poursuite de l’atterrissage. Ce résultat offre un éclairage nouveau sur la fascination par
l’objectif, particulièrement dangereuse en aviation commerciale Rhoda et Pawlak (1999) et en aviation
générale, considérée pour cette dernière, comme responsable de plus de 41.5% des pertes humaines
(Bureau Enquête Analyse, 2000). La mesure de l’intégrité de la mémoire de travail des pilotes semble
être un enjeu majeur pour la sécurité aérienne puisque de nombreux travaux ont également démontré
sa capacité à prédire la performance de pilotage (ex : (Orsini et al., 1986; Taylor et al., 2007, 2000;
Yesavage et al., 1994; Verhaeghen et al., 1993; Grégoire et Van der Linden, 1997)) ou à effectuer
des radiocommunications (Morrow et al., 2001, 2003b; Taylor et al., 2005). Enfin, le nombre total
d’heures de vol était également prédictif de la qualité de la prise de décision. En effet, ce sont les
pilotes les plus expérimentés qui ont posé un diagnostic juste en prenant en compte l’évolution des
conditions météorologiques. Ces résultats sont tout à fait compatibles avec ceux de Wiegman (2002)
qui a montré que le temps passé à voler dans des conditions météorologiques nécessitant normalement
un déroutement immédiat était négativement corrélé à l’expérience des pilotes. L’explication avancée
est que l’expérience permet une évaluation plus juste et plus efficace de la situation.
3.3
3.3.1
ETUDE NEUROÉCONOMIQUE DU CONFLIT LORS DE LA PRISE DE
DÉCISION À L’ATTERRISSAGE
Le conflit entre sécurité et désir d’atterrir
Comme nous l’avons vu dans l’expérience précédente ainsi que dans la première partie de ce manuscrit (cf section 2.2.1), de nombreux travaux montrent la difficulté des opérateurs à réviser leurs
objectifs (ex : plan de vol) et plusieurs explications cognitives et psychosociales ont été avancées
(Causse et al., in press : 2011; Goh et Wiegmann, 2002; O’Hare et Smitheram, 1995). Récemment,
afin de mieux comprendre les facteurs ayant poussé les pilotes à poursuivre un atterrissage dangereux,
des chercheurs de la NASA (National Aeronautics and Space Administration) ont examiné des erreurs
de décision dans un échantillon d’accidents aéronautiques sur lesquels le NTSB (National Transportation Safety Board) avait conduit des enquêtes (Orasanu et al., 2001). Parmi les facteurs susceptibles
de contribuer à de telles erreurs, les pressions de la compagnie furent identifiées. En effet, une remise
de gaz coûte extrêmement cher aux compagnies aériennes (kérosène et logistique notamment), surtout lorsqu’elle se poursuit par un déroutement. La culture de la compagnie pèse sur la sécurité : si
cette compagnie attache une connotation négative aux remises de gaz, elle est une excellente candidate aux accidents à l’atterrissage. Même si dans l’immense majorité des cas les compagnies n’ont pas
recours à des sanctions en cas de remise de gaz, dans un climat de concurrence très rude, leur marge
de manoeuvre se réduit. Ces dernières semblent de moins en moins enclines à supporter ce genre de
dépenses imprévues. Ainsi une compagnie aérienne, aujourd’hui disparue, proposait de dédommager
les passagers d’un dollar pour chaque minute de retard, jusqu’à ce qu’un équipage ait tenté d’atterrir dans ces conditions orageuses et se soit écrasé (Nance, 1986). Selon Orasanu et al. (2001), les
compagnies aériennes mettent également l’accent sur l’économie de carburant et le besoin d’amener
les passagers à destination plutôt que de dérouter le vol. De tels messages ambigus créent des motifs contradictoires entre sécurité et productivité, qui peuvent affecter inconsciemment l’évaluation
des risques par les pilotes. Toutes ces pressions émotionnelles pourraient modifier le raisonnement
rationnel en déplaçant les critères décisionnels vers des considérations économiques au détriment de
la sécurité.
39
3.3.2
Apport des neurosciences :
Raisonnement “à froid” vs raisonnement “à chaud”
Il est admis que l’émotion ou les stresseurs, tels ceux décrits précédemment, peuvent mettre en
péril la prise de décision et le fonctionnement cognitif, en particulier dans les tâches complexes comme
le pilotage (Causse et al., in press : 2011) qui impliquent le cortex préfrontal. En effet de nombreuses
études ont mis en évidence le fait que l’émotion est étroitement liée à la l’évaluation rationnelle des
risques lorsque l’incertitude est élevée (Damasio, 1994). Des auteurs ont postulé l’existence d’une
bascule d’un raisonnement “à froid”, rationnel, à un raisonnement “à chaud”, émotionnel, assurés par
des subdivisions cérébrales émotionnelles et cognitives (Mitchell et Phillips, 2007; Goel et Dolan, 2003;
Drevets et Raichle, 1998). Ces types de subdivision ont pu être par exemple identifiées au sein du cortex
cingulaire antérieur (CCA) dorsal “cognitif” et ventral “émotionnel” (Bush et al., 2000) ou encore entre
le cortex préfrontal dorsolatéral (CPFDL) “cognitif” et le cortex préfrontal ventromédian (CPFVM)
“émotionnel” (Goel et Dolan, 2003). Une telle bascule au sein de ces dernières régions frontales peut
affecter la performance, la précision du raisonnement et la prise de décision (Simpson et al., 2001b).
Elle peut également être exprimée par des changements dans le système nerveux autonome (Thayer
et al., 2009; Buchanan et al., 2010) mesurables via la pression artérielle (Boutcher et Boutcher, 2006)
ou la fréquence cardiaque et sa variabilité (Capa et al., 2008; Duschek et al., 2009).
Neuroéconomie et influence de la récompense sur la prise de décision
La décision du pilote au moment de l’atterrissage se rapproche de la problématique de la prise
de décision sous incertitude, un courant de recherche très actif en économie et en neurosciences. Si
durant le dernier siècle, la théorie des choix rationnels a beaucoup apporté au monde stratégique et
économique, elle a aussi été souvent remise en question par différents courants révélant que dans
bien des situations, l’être humain ne prend pas la meilleure décision attendue par les modèles d’utilité
rationnelle classiques. La neuroéconomie se propose d’étudier l’influence de différents facteurs pesant
sur la réalisation des prises de décisions économiques ainsi que les bases neuronales de ces processus.
Les protocoles expérimentaux sont souvent complexes, étudient généralement l’influence de la récompense et de la punition, basée sur des systèmes monétaires et impliquent des moyens de neuroimagerie.
Un parallèle peut-être dressé avec la situation qui nous intéresse où le pilote se retrouve pris dans
un conflit lewinien (Lewin et al., 1939) entre des systèmes de punitions (économiser le carburant,
éviter la fatigue engendrée par une deuxième tentative d’atterrissage...) et de récompenses (amener
les passagers sans retard...) De façon générale, les études en neuroéconomie mettent en avant le fait
que les processus de décision financière réalisés dans un contexte risqué mettent en jeu différentes
zones cérébrales impliquées normalement lors d’expériences émotionnelles de la vie quotidienne. Les
études sont conçues de façon à analyser tout le processus décisionnel, depuis la prise de décision
elle-même jusqu’au traitement de ses conséquences financières (Dreher et al., 2006; Coricelli et al.,
2005; Taylor et al., 2004).
3.3.3
Expérimentation
Nous avons mis au point un protocole expérimental (Causse, 2010), inspiré de l’approche de
la neuroéconomie, visant à moduler sous l’influence de l’argent la prise de décision de participants
confrontés à une situation proche de celle de l’atterrissage (c.f. figure 3.3.1). Ainsi une matrice de
paiement reproduisait les différentes pressions, en particulier financières, qui incitaient à l’atterrissage
(+ 5 euros) et rendait la remise de gaz aversive même si elle était justifiée (-2 euros). Une remise de
gaz inappropriée était fortement punie (-5 euros) alors que la poursuite erronée de l’atterrissage était
punie modérément (-2 euros). La prise de décision s’effectuait en fonction de la configuration visuelle
d’un instrument d’aide à l’atterrissage issu d’interfaces d’avions de ligne. L’incertitude était également
manipulée et l’instrument d’aide à l’atterrissage affichait des informations soit certaines (0% ou
40
100% de chance réussir l’atterrissage) soit ambiguës (50% de chances de réussir l’atterrissage). Une
première expérimentation a été réalisée avec 19 volontaires (élèves pilotes de l’Isae) afin d’observer
les modifications du système nerveux autonome et du comportement oculaire lors de la prise de
décision en condition neutre ou financière et en fonction de l’incertitude (Causse et al., in Press).
Une deuxième expérimentation en IRMf a été réalisée avec 15 sujets à la Fondazione Santa Lucia à
Rome, en collaboration avec l’équipe du Pr Sabatini (Causse, 2010).
Figure 3.3.1 Reproduction simplifiée de la prise de décision lors de l’atterrissage. Dans la partie supérieure,
l’environnement réel, de gauche à droite : le PFD (Primary Flight Display) au sein du cockpit, le PFD réel
en gros plan avec les deux losanges de l’Instrument Landing System (ILS en rose), la manette des gaz. Deux
expérimentations ont été réalisées : dans chacune d’elles, un PFD simplifié était présenté (uniquement l’ILS,
représenté par les deux losanges blancs, était conservé) et le boîtier de commande, permettait comme la
manette des gaz, de choisir d’atterrir ou de remettre les gaz (Causse, 2010).
Résultats 1 : expérience physiologie et oculométrie
Les données comportementales de cette première expérience (c.f. figure 3.3.2) ont montré que
les participants prenaient plus souvent des décisions dangereuses d’atterrir dans la condition où la
récompense était manipulée par rapport à la condition neutre où aucune récompense n’était attribuée.
Ces prises de risque se manifestaient également par un raccourcissement des temps de réaction (TR).
Cela était particulièrement vrai lorsque l’incertitude était la plus forte.
Les données psychophysiologiques (c.f. figure 3.3.3) ont montré que ce biais dans la prise de
décision s’accompagnait également d’une augmentation du rythme cardiaque, traduisant vraisemblablement une mobilisation catabolique et une réponse émotionnelle plus importante (Causse et al.,
2007). Des temps de fixation plus longs ont également été observés dans la condition à forte incertitude (c.f. figure 3.3.3), ce qui peut être le reflet d’une plus grande difficulté pour extraire de
41
Figure 3.3.2 Les deux figures montrent la bascule comportementale qui s’opère lorsque les participants
doivent prendre des décisions sous influence de l’argent : le "response bias" (figure de gauche) augmente
(traduisant une probabilité plus importante que le sujet accepte d’atterir) et le temps de réponse diminue
(figure de droite) d’autant plus fortement que l’incertitude est grande (Causse et al., in Press).
l’information de l’instrument de vol (Goldberg et Kotval, 1999; Wilson et Eggemeier, 1991; Fitts
et al., 1950) sinon d’un engagement attentionnel plus important (Duchowski, 2007).
Figure 3.3.3 La figure de gauche montre que la bascule émotionnelle s’accompagne d’une augmentation
du rythme cardiaque (figure de gauche) et de la longueur des temps de fixation (figure de droite) (Causse
et al., in Press).
Il est ainsi intéressant de constater que les prises de décisions risquées semblaient être réalisées en
dépit d’une bonne analyse visuelle de la situation. Ce type de résultat montre que le choix conflictuel
du pilote de poursuivre un atterrissage dangereux peut être réalisé en pleine conscience, confirmant
ainsi les études sur le “plan continuation error” (Holbrook et al., 2003; Burian et al., 2000). Ainsi,
l’ensemble de ces résultats comportementaux, physiologiques et oculométriques tendent à confirmer
l’existence d’une “bascule” d’un raisonnement “à froid” à un raisonnement “à chaud” qui conduirait les
pilotes à modifier leur critère de décision sous l’influence de stresseurs émotionnels. Le raisonnement
“à froid” apparaitrait comme plus analytique et objectif alors que le raisonnement “à chaud” a été
associé à une recherche de récompense au détriment de la sécurité.
42
Résultats 2 : expérience IRMf
Les données comportementales de cette seconde expérience (TR et % de bonne réponses) étaient
cohérentes avec les résultats obtenus dans l’expérimentation précédente puisque les participants ont
présenté un comportement plus risqué dans la condition financière. Nos analyses de neuroimagerie,
réalisées pour l’instant sur seulement 6 sujets, ont révélé des patterns d’activation cérébrale cohérents
avec ceux de la littérature (Goel et Dolan, 2003; Simpson et al., 2001b,a), à savoir une activité
différentielle des réseaux neuronaux selon que la décision est réalisée “à froid” ou “à chaud”. Les
régions du CPFDL semble désactivées en présence de l’enjeu financier, dénotant un comportement
moins “rationnel” au moment des prises de décisions. Cette diminution de la “rationalité” est à mettre
en regard de la sécurité. En effet, d’un point de vue financier, ces décisions sont tout à fait cohérentes
et peuvent s’expliquer par une bascule émotionnelle en faveur d’une utilité “financière”. Alors que
le CPFDL est impliqué plus fortement lorsque la décision est réalisée “à froid”, le CCA ventral et
l’insula semblent être recrutés lorsque la pression financière est présente (c.f. figure 3.3.4). De plus
des activations du cortex orbitofrontal se manifestent en condition financière lorsque l’incertitude
est importante. L’ensemble de ces activations sous enjeu financier nous confortent dans l’idée selon
laquelle les motivations des participants s’orientaient différemment en présence de l’enjeu au détriment
des considérations sécuritaires. Le CCA ventral est connu pour son rôle dans les processus émotionnels,
y compris les réactions physiologiques telles l’activité cardiaque, comme cela a été montré dans
l’expérience précédente. Enfin, l’insula est considérée comme une région fortement liée aux émotions
(Bechara et al., 1995) et à la prise de conscience d’un état de conflit (pour une revue, voir Scannella
(2011), p. 65 et 66). Ainsi, le conflit, dans lequel étaient placé les participants, semble agir comme un
stresseur émotionnel (Mann, 1992) dont la conséquence peut être néfaste pour le respect des règles
de sécurité.
Figure 3.3.4 Le contraste "condition financière > condition neutre" révèle une activité accrue du CCA ventral
(BA 24, p <.01 ; K=28) et de l’insula (BA13, p<.01 ; k =5) (Causse, 2010).
43
3.4
LE CONFLIT VISUO-AUDITIF OU L’INSENSIBILITÉ DES PILOTES
AUX ALARMES AUDITIVES :
Les expérimentations précédentes ont montré que la persistance dans l’erreur pourrait s’expliquer
par des limites de capacités exécutives et des biais émotionnels. Ces explications dites de “haut niveau”
semblent nécessaires mais pas suffisantes pour rendre compte d’événements aériens où les pilotes ont
persisté dans des décisions erronées en dépit d’alarmes auditives (Bliss, 2003). Pourtant ces types
d’alarmes sont connus pour leur efficacité à faire réagir les pilotes en situation d’urgence (Doll et
Folds, 1986; Wheale, 1981; Edworthy et al., 1991). Néanmoins, leur caractère agressif, distrayant
et perturbant (Doll et al., 1984; Edworthy et al., 1991), ainsi que leur rareté peuvent amener les
opérateurs à les négliger (Parasuraman et al., 1997). Toutefois, il apparaît que le manque de fiabilité
des alarmes est le facteur principal qui conduit les pilotes à ignorer ces signaux (Sorkin, 1988; Song
et Kuchar, 2001; Bliss et Dunn, 2000; Shapiro, 1994). En aviation, ce phénomène décrit par le terme
de "Cry-wolf effect" (l’effet dit de « crier au loup » en français) (Wickens et al., 2009; Breznitz,
1984) est à l’origine de nombreuses collisions en vol ou avec le relief alors que l’aéronef est en parfait
état de vol. Ainsi Bliss et al. (2003) montrent qu’il existe une relation quasi-linéaire entre le taux de
fiabilité d’une alarme et le taux d’absence de réponse à cette alarme. Cette dégradation du taux de
réponse est d’autant plus forte que ces alarmes se déclenchent lors de périodes de fortes charges de
travail (Bliss et Dunn, 2000). Un point de vue alternatif défendu dans la thèse de S. Scannella (2011)
est de considérer que ces situations peuvent s’expliquer par des conflits dits de “bas niveau” entre
les modalités visuelles et auditives. En particulier, le pilotage sollicite fortement l’activité oculaire et
l’apparition d’alarmes sonores contradictoires avec les informations visuelles du cockpit pourraient
amener les pilotes à une certaine insensibilité auditive. Cette hypothèse, appuyée par de nombreux
travaux en psychologie cognitive plus fondamentaux et en neurosciences, est argumentée dans la
section suivante.
3.4.1
L’apport des neurosciences pour la compréhension des conflits de bas
niveau
Colavita (1974) a montré que nous avons une tendance naturelle à favoriser les informations visuelles par rapport à celles issues de nos autres sens et en particulier vis-à-vis de l’audition. Cette
dominance visuelle sur l’audition est démontrée dans des tâches complexes (Sinnett et al., 2007;
Yuval-Greenberg et Deouell, 2009; Wang et al., 2002). S’il existe toutefois des exceptions (Guttman
et al., 2005; Recanzone, 2003; Repp et Penel, 2002), il est évident que la présentation contradictoire et conflictuelle d’informations visuelles et auditives dégrade la performance (Elliott et al., 1998;
Weissman et al., 2004). En neurosciences, la question du conflit entre processus cognitifs est telle
que des auteurs (Allport, 1987; Mozer et Sitton, 1998; Botvinick et al., 2001) n’hésitent pas a faire
valoir que ces phénomènes comportementaux, généralement attribués à l’existence et aux limites de
capacité d’un processeur central unique (Baddeley, 1990), doivent être conceptualisés en terme de
conflits entre processus de traitement parallèles. Des travaux récents montrent l’existence d’aires cérébrales spécialisées dans le traitement de ces conflits. (Cohen et al., 1990). Ainsi le cortex pariétal
est considéré comme une voie d’entrée de l’information où ont lieu les premières étapes de la gestion
du conflit (Bunge et al., 2002; Corbetta et Shulman, 2002; Wang et al., 2010), le cortex cingulaire
antérieur semble jouer un rôle particulièrement actif dans la supervision du conflit (Botvinick et al.,
2001) et le cortex préfrontal dorsolatéral est impliqué dans la résolution de ces conflits via des processus d’inhibition et/ou de sélection en fonction de la tâche à accomplir (Milham et al., 2001; Rubia
et al., 2003). L’étude de ces régions cérébrales présente non seulement un intérêt majeur pour la compréhension de la régulation de la charge cognitive en ergonomie mais elle permettrait aussi d’avoir une
compréhension plus fine du lien entre conflit et erreur humaine. Ainsi des études récentes (Fedota et
Parasuraman, 2010; Holroyd et Coles, 2002) démontrent l’intérêt de mesurer des potentiels évoqués
44
dans cette région et en particulier la composante négative et précoce nommée “error-related negativity
- ERN ” (négativité reliée à l’erreur).
3.4.2
Expérimentation
Une expérimentation a été proposée pour tester l’existence de conflits intermodalitaires à l’origine
d’une insensibilité aux alarmes visuelles (Scannella, 2011). Un scénario “écologique” a été proposé à
treize participants et nous avons utilisé des outils issus des neurosciences pour mettre en évidence des
corrélats électrophysiologiques. De manière à nous rapprocher des conditions qui conduisent les pilotes
à négliger les alertes (c.f. figure 3.4.1), nous avons évalué l’influence de trois facteurs contextuels sur
le niveau de performance et l’amplitude des composantes électrophysiologiques :
– La rareté : nous avons défini un son “alarme de remise de gaz “ (bip aigu à 1250 Hz) qui était
présent dans 25% des cas. Dans 75 % des cas, un son “fréquent” (bip grave à 750 Hz) était
émis et signifiait qu’aucune panne n’était présente ;
– La fiabilité : nous avons manipulé la fiabilité de cette “alarme de remise de gaz” et du son “fréquent” qui sont dans la moitié des cas étaient incompatibles avec les indications de l’instrument
principal ;
Figure 3.4.1 Les volontaires, équipés d’une bonnet EEG, regardaient des vidéos d’atterrissage durant lesquelles ils devaient prendre la décision d’interrompre ou de poursuivre cet atterrissage à l’aide d’un boitier
de réponse. La vidéo, présentée au centre de l’écran, est entourée de trois instruments et correspond à une
vue "cockpit" d’un atterrissage. L’instrument 1 était l’instrument de vol principal : il indiquait la piste en
service par la couleur verte (ici la piste de gauche). Le réticule jaune indiquait à un instant t la piste sur
laquelle se dirigeait l’avion (ici la piste de droite). La position de ce réticule devait être cohérente avec l’indication de l’instrument 1. Les deux instruments latéraux secondaires (2 et 3) donnaient une information sur
des paramètres de vols génériques dont la valeur peut être dans la norme (flèche en position vert comme
sur l’instrument 2) ou anormale (flèche en position rouge comme sur l’instrument 3). Un son était émis et
pouvait soit être une "alarme de remise de gaz" (25 % des cas), soit un son "fréquent" indiquant qu’il n’y
avait pas de problème (75 % des cas) (Scannella, 2011).
45
– La difficulté : nous avons créé trois niveaux progressifs de difficulté (D1, D2 et D3) en fonction
des différentes combinaisons visuo-auditives pour évaluer l’impact de la charge de travail sur le
niveau de performance (c.f. figure 3.4.2) :
– Dans la difficulté D1, les informations visuelles du cockpit étaient toutes cohérentes et la
décision pouvait être prise quelle que soit l’information auditive (ex : les trois instruments
sont “dans le vert” et l’atterrissage doit se poursuivre même si l” ’alarme de remise de gaz” se
déclenche),
– Dans la difficulté D2, un des deux instruments secondaires n’était pas cohérent avec l’information de l’instrument principal. Le participant devait ignorer cet instrument secondaire
défaillant et prendre la décision en fonction des indications de l’instrument principal et de
l’autre instrument secondaire. Dans ce niveau de difficulté intermédiaire, l’information auditive pouvait également être ignorée (ex : l’instrument principal 1 et l’instrument 2 sont dans
“le vert”, l’instrument 3 est “dans le rouge”. L’atterrissage peut se poursuivre même si l’alarme
de remise de gaz se déclenche) ,
– Dans la difficulté D3, les deux instruments secondaires n’étaient pas cohérents avec l’information de l’instrument principal. La décision devait être prise en tenant compte des informations
sonores (ex : un son “fréquent” indiquait que le vol devait se poursuivre).
Figure 3.4.2 Captures d’images de situation illustrant les trois niveaux de difficulté. Pour les trois niveaux
l’exemple a été choisi avec un réticule en direction de la piste d’atterrissage de droite et le son peut être un
son "fréquent" ou une "alarme". Dans la difficulté 1, les trois instruments donnent la même information (dans
ce cas poursuivre le vol à l’instant t quel que soit le son) : le réticule est sur la piste droite et la piste droite
est "verte" ; l’instrument 2 est "vert" et l’instrument 3 est "vert". Dans la difficulté 2, l’instrument principal
1 (piste) et l’instrument 3 donnent la même information (dans ce cas ne pas poursuivre le vol à l’instant t
quel que soit le son). Enfin dans la difficulté 3, l’instrument principal donne une information opposée aux
instruments 2 et 3 et ce sont les informations auditives qui donnent l’information nécessaire pour la réponse
(un son "fréquent" pour la poursuite du vol ou une "alarme de remise de gaz" pour l’arrêt) (Scannella, 2011).
Résultats
Les résultats comportementaux ont révélé un effet du niveau de difficulté sur la performance des
volontaires : les TR et le taux de bonne réponses se dégradaient au fur et à mesure de l’augmentation
de la difficulté (D1, D2 puis D3). Ces effets comportementaux étaient visualisables en EEG sous la
46
forme d’une augmentation de l’amplitude de la composante cognitive P300 frontale avec l’accroissement de la difficulté. Il est intéressant de noter que l’alarme induisait toujours une P300 plus ample
par rapport au son fréquent et ce, quel que soit le niveau de difficulté (c.f. graphe de gauche - figure
3.4.3). Par ailleurs, lorsque les sujets devaient prendre en compte l’alarme (difficulté D3), le générateur principal de la P300 se situait dans le cortex orbito-frontal (c.f. image de droite - figure 3.4.3),
une aire cérébrale impliquée dans la prise de décision sous forte incertitude (Bechara et al., 1995) et
qui traduit une difficulté d’adaptation à la tâche (Wintink et al., 2001). Ainsi, les participants étaient
capables de faire attention à cet événement rare mais cela se traduisait par une réponse plus tardive
et moins appropriée et un recrutement du cortex préfrontal. Si l’on transfère ces observations aux cas
des pilotes en situation de charge de travail importante, comme c’est le cas pendant la phase d’atterrissage, la présentation d’une alarme (i.e. un son rare à caractère négatif) nécessiterait l’utilisation
de ressources cognitives déjà engagées dans la tâche courante (Bliss et Dunn, 2000).
Figure 3.4.3 Effet de l’interaction entre le niveau de charge de travail et la rareté de l’alarme. La P300 est une
composante positive qui apparaît avec une latence de 300 ms après la présentation d’un stimulus rare, tel
que l’alarme dans notre expérimentation. Figure de gauche : l’augmentation du niveau de difficulté accroît
l’amplitude de cette composante, traduisant un engagement plus important des participants. Toutefois, on
remarque que l’amplitude de la P300 en présence de l’alarme de remise de gaz est toujours supérieure à celle
de la P300 en présence du son fréquent. D1, D2, D3 : difficultés D1, D2 et D3. ∗ : p<0,05. ∗ ∗ ∗ p<0,001. Figure
de droite : le générateur de la P300 se situerait dans le cortex orbito-frontal lorsque l’alarme se déclenche en
condition D3. Cette aire cérébrale est un indicateur de la prise de décision sous incertitude (Bechara et al.,
1995) et de la difficulté d’adaptation à la tâche (Wintink et al., 2001). Ces résultats électro-physiologiques
semblent confirmer que la prise en compte d’un événement rare est coûteuse et peuvent expliquer en partie
la dégradation de la performance comportementale des participants (Scannella, 2011).
47
Par ailleurs, le résultat le plus intéressant (c.f. figure 3.4.4) montrait un effet du conflit visuoauditif qui atténuait significativement l’amplitude de la N100 lorsqu’une “alarme de remise de gaz”
était contradictoire avec les indications des instruments (i.e. se poser). Cela confirme l’existence d’un
filtrage intermodal pré-attentionnel qui pourrait induire une diminution du gain sensoriel auditif (Lebib
et al., 2003). Ainsi, l’information sémantique auditive d’un événement dont l’occurrence est moins
fréquente et dont l’information est moins fiable que celle de ses compétiteurs est sensiblement atténuée
par des mécanismes de sélectivité attentionnelle. La rareté de certaines alarmes dans le cockpit d’avion
ainsi que leur fiabilité limitée pourrait induire un filtrage perceptif à un niveau précoce du traitement
sensoriel. Pris ensemble, ces résultats pourraient expliquer en partie l’insensibilité aux alarmes chez les
pilotes qui favoriseraient les informations visuelles au détriment d’informations sonores, considérées
comme moins fiables.
Figure 3.4.4 Effet du conflit visuo-auditif. La N100 est une composante négative qui survient environ 100
ms après la présentation d’un stimulus rare auditif ou visuel. Dans notre expérience, une N100 est toujours
présente quelle que soit la condition. La présence de l’alarme induit toujours une amplitude plus importante
par rapport à la condition avec le son fréquent. Toutefois, la N100 est significativement moins ample (traits
pointillés rouges) lorsque l’"alarme de remise de gaz" est conflictuelle avec les informations visuelles en
comparaison avec la condition où l’"alarme de remise de gaz" est compatible avec les informations visuelles
(traits pleins rouges). La N100 est connue pour être le reflet d’un mécanisme de sélectivité attentionnelle
précoce (Hillyard et al., 1998) : nos résultats semblent montrer qu’une alarme sonore non pertinente serait
filtrée de manière très précoce dès les aires auditives primaires. Illustration des résultats sur l’électrode Cz
représentative de la région centrale. C : Compatible , I : Incompatible. ∗ : p<0,05, pour la différence C vs. I
avec l’alarme. (Scannella, 2011).
48
3.5
CONCLUSION
Dans ce chapitre, nous avons utilisé l’approche de la neuroergonomie pour appréhender les mécanismes sous-jacents au conflit et à la persistance dans l’erreur. L’enjeu était de s’approprier les outils
théoriques et pratiques des neurosciences cognitives et de la neuropsychologie pour les appliquer à
des problématiques d’ergonomie.
Dans une première étude, nous avons administré à une population de pilotes une batterie de tests
en vue d’évaluer des fonctions exécutives élémentaires. Un objectif était de corréler les performances
de ces tests avec la qualité de la prise de décision évaluée en simulateur de vol. Les résultats ont
montré que les capacités de MDT étaient particulièrement prédictives : les pilotes présentant de
faibles capacités de mémoire de travail avaient tendance à s’enfermer dans une décision erronée en
persistant à atterrir. Ainsi, la compréhension des mécanismes cérébraux précis des erreurs de pilotage,
et la possibilité de prédire leur occurrence chez un individu nécessite encore de nombreux progrès.
Cependant, la définition de telles batteries de tests pouvant être administrées à des pilotes à l’occasion
de leur contrôle médical obligatoire serait selon nous une avancée significative en terme de sécurité
aéronautique, notamment lorsque de fortes lacunes exécutives sont observées.
Dans une deuxième étude, inspirée de la neuroéconomie, nous avons tenté de comprendre les
mécanismes neuronaux sous-jacents à la persistance dans l’erreur. Notre hypothèse était que les
conséquences financières négatives liées à la décision de remettre les gaz pouvaient provoquer un
recrutement de réseaux émotionnels et biaisaient la prise de décision rationnelle. Nous avons conçu
un protocole d’imagerie cérébrale où l’incitation financière et l’incertitude étaient manipulées alors
que les participants étaient soumis à une tâche de décision lors de l”atterrissage. Ce protocole était
également réalisé hors IRMf avec des mesures psychophysiologiques et oculométriques. Les résultats
démontrent l’efficacité de l’enjeu financier à générer une certaine pression émotionnelle et à inciter à
atterrir lors de situations pourtant trop dangereuses. Cette bascule s’accompagnait d’un recrutement
des aires émotionnelles (CPFVM) au détriment des aires plus cognitives (CPFDL) ainsi que d’une
hausse de l’activité cardiaque.
Enfin dans une dernière expérimentation, nous avons développé un protocole EEG pour comprendre
l’insensibilité des pilotes aux alertes auditives. Notre hypothèse était que les pilotes favorisaient le canal
visuel au détriment du canal auditif lorsque ceux-si sont en conflit. Là encore nous avons observé que
de tels conflits dégradaient la performance des participants et que les processus visuels prenaient le
pas sur les processus auditifs par des mécanismes précoces de filtrage précoce au niveau de la N100.
De tels mécanismes de bas niveau pourraient également expliquer pourquoi les pilotes peuvent négliger
des alarmes critiques en particulier si de tels conflits se produisent en situation de forte charge de
travail.
49
50
Chapitre 4
Conclusion et perspectives
Dans ce travail, nous nous sommes intéressé à l’étude du conflit en privilégiant une approche
pluridisciplinaire. Notre objectif a été de montrer que ce concept jouait un rôle central dans l’étude
des interactions homme-machine. En premier lieu l’approche de la psychologie cognitive et la voie de
l’expérimentation semblent confirmer que la survenue d’un conflit est un précurseur remarquable de
la dégradation de la performance de l’opérateur humain. En particulier, un conflit conduit à focaliser
l’attention de l’opérateur sur sa résolution et à provoquer des comportements de persistance dans
l’erreur. Des solutions, les contre-mesures cognitives, ont été développées et ont montré leur efficacité
pour assister les opérateurs en situation de conflit. Ensuite l’approche formelle a permis de structurer
ce concept en en proposant une définition générique. Une mise en oeuvre informatique a été réalisée et
il semble possible de prédire l’apparition du conflit avant qu’il se manifeste. Cet enjeu est important car
il s’agit d’aider l’opérateur à l’anticiper en évitant ses effets de “surprise” bien connus dans la littérature.
L’utilisation de la logique floue a également permis d’estimer la “tunnélisation attentionnelle”, un
état possiblement induit par la présence du conflit. L’identification du conflit et la caractérisation
psycho-physiologique de l’opérateur humain constituent des éléments essentiels de diagnostic pour
adapter dynamiquement l’autorité entre l’homme et la machine. Enfin, l’approche originale de la
neuro-ergonomie a été proposée. Ainsi nous avons utilisé des outils issus de la neuropsychologie et
des neurosciences cognitives, tels que les batteries de tests, l’IRMf et l’EEG, pour comprendre les
mécanismes sous-jacents du conflit et de la persistance dans l’erreur. Ces travaux ont pu mettre en
évidence que des conflits de “haut niveau” peuvent provoquer une bascule d’un raisonnement rationnel
“à froid” vers un raisonnement émotionnel “à chaud” en modulant l’activité des aires cérébrales et en
induisant des comportements plus risqués. L’existence de conflits de “bas niveau” peut également
expliquer en partie la dégradation des capacités attentionnelles de l’opérateur humain et l’insensibilité
aux alarmes auditives : il existerait des mécanismes précoces de filtrage dès les aires auditives primaires.
Il apparaît enfin que les capacités de mémoire de travail sont cruciales pour mettre à jour la conscience
de l’opérateur et éviter de persister dans des raisonnements erronés.
L’ensemble de ces travaux ont pu se réaliser grâce à des collaborations pour expérimenter, analyser,
formaliser, mettre en œuvre ou publier. Ainsi nous avons été amené à travailler principalement avec
l’Onera DCSD, l’Inserm U825, la fondation Santa Lucia (Rome), le Laas, l’Université Laval (Québec)
et l’Irit. Sans les chercheurs de ces différents Instituts, nous n’aurions pu avancer sur l’étude des
conflits dans les interactions homme-machine. Toutefois, le travail que nous avons mené sur le conflit
doit se poursuivre et de riches perspectives sont ouvertes.
51
4.1
PERSPECTIVE 1 : NEUROERGONOMIE
L’Isae et l’Inserm U825 ont établi un partenariat pour développer la neuroergonomie en France.
Cette approche a trouvé une reconnaissance auprès de la DGA qui a inscrit la neuroergonomie comme
une orientation majeure du domaine « Homme et Système » de la Politique et Objectifs Scientifiques
(POS) en 2011. Ainsi, l’objectif envisagé est de poursuivre cette démarche pour identifier les invariants responsables des comportements anormaux, invariants qui seront mis en œuvre dans des
situations différentes et qui découlent des mécanismes cérébraux contraints par la neurophysiologie.
Une difficulté évidente de cette proposition est de relier des mesures de neurones à des fonctions
cognitives de haut niveau et de proposer une évaluation de la performance humaine en situation. Les
moyens de mesure des neurosciences sont souvent intrusifs, limités à une utilisation en laboratoire et
nécessitent de réaliser des protocoles simplifiés où les stimuli sont répétés de nombreuses fois et par
voie de conséquence peu écologiques. Mais ce serait une vision à très court terme d’ignorer l’apport
des neurosciences (Sarter et Sarter, 2003), d’autant que les techniques de capteurs progressent et se
miniaturisent et que des interfaces cerveau-machine, dont il faut penser leur rapport à l’homme, commencent déjà à être commercialisées. Dès lors, un enjeu important est de consolider cette approche
et de maintenir des liens forts avec l’Inserm U825. C’est également dans cette perspective que s’est
porté le choix du recrutement dans l’équipe de M. Causse, maître de conférence en neurosciences et
ergonome, pour asseoir cet axe de recherche.
D’un point de vue scientifique, la poursuite de ces recherches va consister à reproduire le protocole
IRMf que nous avons développé pour étudier la prise de décision des pilotes à l’atterrissage dans
différentes situations conflictuelles. Dans un premier temps, le but est de réaliser ces expériences avec
des volontaires ayant une véritable expérience de pilotage. Ensuite, ce protocole doit être amélioré
pour être plus écologique en plaçant les participants dans un contexte dynamique (ex : présentation
de vidéos, utilisation de simulateur..) : la maîtrise de techniques comme l’analyse en composantes
indépendantes (Biswal et Ulmer, 1999) est une voie prometteuse pour envisager de telles mises en
situation (Calhoun et al., 2005). Par ailleurs, l’étude de certaines structures cérébrales telles que
le pulvinar (thalamus) pourrait être particulièrement intéressante pour comprendre les mécanismes
sous-jacents à la persistance dans l’erreur et aux troubles attentionnels que nous avons identifiés lors
de nos expérimentations (c.f. section 2.2.1) : des recherches révèlent que cette structure cérébrale
est impliquée dans l’attention sélective en procédant par une inhibition des stimuli distracteurs et
des lésions de cette région conduisent à une perte de capacité au décrochage attentionnel (LaBerge
et al., 1992). Parallèlement, des travaux en imagerie révèlent que des sujets sains en situation de
“tunnélisation de l’attention” sous les effets de stresseurs (Tracy et al., 2000) montrent des activations
particulières du pulvinar. L’application de tels paradigmes expérimentaux à des situations de pilotage
serait pertinente dans le cadre de nos recherches en particulier pour tester l’impact des contre-mesures
sur des structures cérébrales comme le pulvinar.
La reproduction de l’expérimentation en EEG sur la non-perception d’alarmes se situe également
dans cette dynamique : il nous faut augmenter avant tout le nombre de participants pour aller audelà des résultats encourageants que nous avons obtenus. Un moyen de mesure complémentaire
pour ce type de recherche est de considérer l’imagerie spectroscopique en proche infrarouge (NearInfrared Spectroscopy - NIRS). Cette technologie très prometteuse possède une meilleure résolution
temporelle (et possiblement spatiale) que les techniques d’imagerie de type IRMf (Gratton et al.,
2003). Elle offre également les avantages d’être transportable et peu coûteuse en comparaison des
investissements nécessaires pour un IRMf. Des travaux précurseurs montrent son intérêt pour des
problématiques de pilotage (Takeuchi, 2000) mais également pour mesurer le niveau d’engagement
attentionnel (Takahashi et al., 2000), une perspective qui fait écho à la “tunnélisation attentionnelle”.
Dans le cadre du projet européen D3COS, des expérimentations sur nos moyens de simulation seront
réalisées en collaboration avec le Pr. Sergio Fonda (Université de Modene et Reggio Emilia) qui
développe cette technologie dans son laboratoire.
52
4.2
PERSPECTIVE 2 : EXPERIMENTER DE NOUVELLES CONTRE-MESURES
COGNITIVES
Nous avons mis au point des contre-mesures cognitives dont l’objectif est de désengager et réorienter l’attention d’un opérateur humain lorsqu’il fait face à une situation de “tunnélisation attentionnelle”. Leur principe consiste à retirer une information d’une interface sur laquelle se focalise à
tort un opérateur et à la remplacer par une information pertinente. Ces contre-mesures ont montré
leur efficacité dans un contexte où les alarmes visuelles n’étaient pas perçues. Toutefois des expérimentations doivent être conduites pour prouver l’efficacité des contre-mesures dans des conditions où
des alertes auditives ne seraient pas prises en considération. Un protocole, utilisant le simulateur de
vol de l’Isae, a été défini où des pilotes équipés d’un oculomètre et d’un électrocardiogramme, sont
placés dans différentes situations d’approche finale. Dans un des scénarios, la séquence de sortie du
train d’atterrissage ne se réalise pas entièrement et doit conduire les participants à une remise de gaz.
Cette défaillance est signalée dans le cockpit par le déclenchement d’une alarme sonore idoine (“triple
gong”) et par l’affichage d’une icône associée (1 rond rouge et deux ronds verts). Comme cette panne
se produit à un moment où l’avion subit un violent gradient de vent (risque de décrochage) alors que
la piste est en vue, il est attendu que les volontaires se focalisent sur le pilotage strict de l’avion pour
poursuivre l’atterrissage et ne perçoivent ni les alertes sonores ni les alertes visuelles. Dans l’état actuel
des choses 14 pilotes d’aviation légère (âge moyen : 30 ans, expérience de vol moyenne : 260 heures)
ont participé à l’expérimentation en condition sans contre-mesure. Les résultats comportementaux
montrent que seulement six pilotes sur quatorze ont perçu immédiatement les alarmes sonores et
visuelles et ont remis les gaz alors que les autres sujets ont poursuivi la phase d’atterrissage. Des
contre-mesures cognitives sont en cours de développement informatique et vont consister à éteindre
l’ensemble des cadrans pour une période très brève et à envoyer un message indiquant la panne dans
le viseur tête haute.
Figure 4.2.1 Des participants sont placés dans le simulateur de vol de l’Isae (figure de gauche). Dans un
des scénarios, un des trains d’atterrissage ne se déploie pas : une alarme ("triple gong") retentit et l’afficheur
de l’état du train sur l’instrument primaire de vol indique deux lumières vertes et une lumière rouge au
lieu de trois lumières vertes (c.f. en bas à droite de la figure de droite). Seulement six pilotes sur quatorze
ont perçu les alarmes visuelles et auditives. Des contre-mesures cognitives sont en cours de développement
informatique.
Le concept de contre-mesures cognitives ne doit pas se restreindre au seul principe du retrait
d’information. Des pré-expérimentations ont été réalisées et explorent actuellement une approche
53
complémentaire qui consiste à suggérer le plus rapidement possible l’action à entreprendre, sans
masquer pour autant une information déjà existante (Causse, 2010). Le principe fondateur consiste
à exploiter les propriétés des neurones miroirs (Rizzolatti et Craighero, 2004), dont l’existence chez
l’homme semble plausible. En cas d’urgence, les contre-mesures se matérialisent par l’affichage de
l’action à entreprendre, sous forme d’une animation projetée au sein du cockpit, dans un écran prévu
à cet effet. Le principe est de suggérer efficacement l’action à entreprendre en affichant, par exemple,
une main tirant sur le manche. De nombreuses collisions avec le terrain auraient pu être évitées
simplement par une action appropriée du pilote à cabrer. Il est envisageable que la perception d’une
telle action pourrait suggérer très rapidement l’action à entreprendre. En effet, selon la théorie des
neurones miroirs, la perception d’une action et son exécution impliquent des populations de neurones
communes. L’effet de cette contre-mesure pourrait être efficace grâce à la « pré-activation » de ces
neurones via la perception de l’action se déroulant sous les yeux du pilote. A notre connaissance,
l’exploitation des propriétés des neurones miroirs n’a fait l’objet d’aucune étude dans le domaine des
IHM.
Une dernière perspective de contre-mesure relève du domaine visuo-haptique. Dans le domaine
de l’aéronautique, les technologies actives à retour d’effort semblent être une voie appropriée pour
augmenter le ressenti des pilotes lors de ces phases cruciales et pour les aider dans leur tâche de
commande. Il n’y a que peu de recherches dans ce domaine en aéronautique, mais des travaux précurseurs (Amirabdollahian et al., 2002) démontrent que la modification en temps réel de l’impédance
d’un robot haptique permet d’assister des patients atteints de troubles du contrôle moteur dans des
tâches de guidage. Des travaux dans le domaine de la conduite automobile montrent également que
la modification de l’impédance donne au conducteur un meilleur contrôle de son véhicule (Minin et al.,
2008). Par ailleurs, des recherches originales (Lécuyer et al., 2004) suggèrent l’utilisation d’illusions
pseudo-haptiques visuelles pour générer des sensations de vitesse, d’accélération ou de relief dans
des tâches de guidage. Ainsi la maîtrise du couplage des modalités visuelles et haptiques est un enjeu scientifique pour améliorer la performance d’opérateurs dans des tâches de pilotage. Dans cette
perspective d’étude, nous avons développé un banc de pilotage constitué d’un manche actif et d’un
simulateur de vol en partenariat avec Ratier Figeac dans le cadre du projet GASVT. L’enjeu est
de réaliser des expérimentations pour tester différents concepts tels que la modification dynamique
du couplage visuo-haptique pour inciter ou interdire certaines manœuvres de pilotage et donner un
meilleur ressenti de l’avion à l’équipage.
4.3
4.3.1
PERSPECTIVE 3 : MODÉLISATION DE L’ATTENTION
Détection en temps réel de la “tunnélisation de l’attention”
Les travaux de modélisation présentés dans le chapitre 2 ont montré qu’il était possible de formaliser
les phénomènes de “tunnélisation attentionnelle”. Cependant, la détection de ce trouble attentionnel
est actuellement réalisée “hors ligne” après un traitement et une normalisation des données. De plus,
la définition des règles de type “Si/Alors” relève d’une connaissance experte a posteriori qui peutêtre critiquable. Or l’objectif des systèmes adaptatifs consiste à pouvoir inférer en temps réel l’état
cognitif des opérateurs pour modifier en conséquence l’interaction. Dès lors, les enjeux de nos travaux
consistent à définir des protocoles inspirés de l’approche de Liu et al. (2008) où les sujets sont soumis à
différentes tâches cognitives avant de commencer l’expérience proprement dite. Cette méthode permet
d’obtenir une première estimation du “domaine” psychophysiologique dans ses valeurs extrêmes pour
envisager une normalisation des données en temps réel. Ensuite, des techniques formelles telles que
les réseaux neurones doivent être considérées pour “apprendre” (Marshall, 2007) automatiquement
ces états attentionnels. Des travaux sont actuellement en cours et montrent que des techniques
d’apprentissage de type neuro-flou (ANFIS) sont particulièrement adaptées à cette problématique.
Une première mise en œuvre a été réalisée à l’aide de la toolbox “Fuzzy” de Matlab et permet d’obtenir
54
un très bon taux de réponse de 94 % (Thooris, 2011). L’enjeu est également de multiplier les métriques
en intégrant des données tels les clignements oculaires, les caractéristiques balistiques des saccades, la
longueur des fixations (volontaires vs. involontaires) ou encore des mouvements de tête, pour faciliter
la catégorisation de cet état d’engagement attentionnel (Regis, 2011). Enfin, l’utilisation de ces
différentes mesures dans un contexte opérationnel nécessite de travailler autant au développement de
nouveaux capteurs “embarquables” (ex : micro et nano capteurs) et peu intrusifs (Dehais et al., 2008)
que sur l’aspect du traitement du signal. Des collaborations avec des spécialistes du domaine doivent
être réalisées pour mener à bien de telles études. C’est l’enjeu du chantier RTRA-FH, auquel nous
participons activement en collaboration avec le laboratoire CLLE de l’UTM, de réunir une communauté
scientifique pluridisciplinaire autour de ces problématiques. La poursuite de ces travaux sera en partie
assurée par une thèse (2012 - 2015, financement MESR) qui sera en relation avec un projet financé
par le BEA.
4.3.2
Vers un modèle neuropsychologiquement plausible de l’attention visuelle et auditive
Une idée pour améliorer la conception et le diagnostic d’interfaces homme-machine est de pouvoir
disposer d’un modèle cognitif formel d’un opérateur humain. Un tel modèle peut également contribuer
à assister en ligne un opérateur humain en anticipant l’apparition d’états tels que la “tunnélisation attentionnelle”. Dans le cadre de cette problématique, une étape consiste à définir un modèle dynamique
de l’attention visuelle, dans la mesure où l’activité de traitement de l’information visuelle est particulièrement sollicitée dans les interactions homme-machine (exemple : surveillance des paramètres
avion). En ce sens le modèle que nous avançons cherche à reproduire les mécanismes cognitifs mis en
évidence par la psychologie cognitive et les neurosciences (ex : voies ventrales et dorsales (Goodale et
Milner, 1992), cartes de saillance (Itti et al., 1998)). Ce modèle s’inscrit toutefois dans la continuité
de travaux existants en intelligence artificielle (Itti et Koch, 2001), mais en les dépassant puisque nous
y introduisons la dynamique temporelle, et des mécanismes plus complexes de recherche volontaire de
l’information ("mécanismes top down"). Une première mise en œuvre informatique a été réalisée et
confrontée à l’expérimentation (Seban et al., 2008) où les prédictions du modèle étaient comparées
avec des mesures réalisées en oculométrie. Un processus de “diffusion attentionnelle” (c.f. figure 4.3.1)
a par la suite été ajouté à ce modèle afin de prendre en compte l’influence “dynamique” que certains
objets saillants exercent sur d’autres (Andrieu et al., 2008). Ce modèle présente également l’intérêt
de pouvoir être dégradé, par exemple en créant des “lésions artificielles” entre les cartes de saillances
et les cartes spatiales, pour représenter des pathologies attentionnelles telle la négligence spatiale
unilatérale. Des expérimentations ont commencé en collaboration avec le Pr. P. Marque (U825, Inserm) et C. Jouffrais (IRIT), pour valider l’aptitude du modèle à prédire les performances de patients
présentant des lésions pariétales.
55
Figure 4.3.1 Capture d’écran de la simulation du modèle attentionnel : un monde constitué d’objets (ex :
ronds, carrés...) est présenté au modèle (à gauche). Le modèle est capable de créer des cartes de chaleur
dynamiques en vue de simuler le comportement attentionnel (Andrieu et al., 2008).
Cependant la nécessité de modéliser les processus Top-down (guidés par l’objectif) pour prendre
en compte le concept de pertinence des informations perçues apparaît comme un enjeu majeur en vue
des objectifs fixés. La piste proposée pour modéliser ces processus est de représenter les consignes (ou
procédures) comme une méthode d’agrégation multicritère permettant d’évaluer la corrélation entre
les caractéristiques des objets de la scène et les procédures définies par des sous-ensembles flous.
Aussi, un simulateur de vol très simplifié a été développé (Fernandes, 2011) où différents cadrans
de pilotage peuvent s’interfacer avec notre modèle pour pouvoir évaluer ces différentes méthodes
d’agrégation (procédures de vote, moyennes, intégrales non additives...) Enfin une perspective pour
ce travail de modélisation consisterait à intégrer les problématiques d’interaction entre les modalités
visuelles et auditives de manière à pouvoir rendre compte de l’insensibilité des opérateurs aux alarmes.
56
4.4
PERSPECTIVE 4 : INITIATIVE MIXTE
Cette dernière perspective de recherche s’inscrit dans la thématique des interactions opérateur
humain-patrouille hétérogènes de robots autonomes. Une approche originale pour minimiser la survenue de conflits dans les systèmes opérateur-automatisation se situe dans le cadre des "initiatives
mixtes" (Bresina et al., 2005) où les agents artificiels et humains participent conjointement à la réalisation d’une ou plusieurs tâches communes (ex : planification). Chaque agent apporte, en fonction
de ses aptitudes reconnues par le groupe, des éléments pour atteindre de manière concertée un but
particulier. Par exemple, l’opérateur peut donner des directives à l’engin pour imposer des limites à
son comportement (Myers et Morley, 2001). Dans le même ordre d’idées, une approche originale
(Schurr et al., 2003) propose d’inclure des conseils de l’opérateur directement au niveau des heuristiques utilisées par l’engin. Nous avons démarré des recherches pour appliquer ce concept d’"initiative
mixte" à la planification de trajectoire et de mission et à la conception d’interfaces homme-machine.
L’ensemble de ces études en cours sont financées par la DGA-MRIS depuis 2007.
4.4.1
Application à la planification mixte de trajectoire
Une première interface a été prototypée pour réaliser la planification mixte de trajectoire de robots
terrestres à partir d’images de type “Google Earth” ou de prises de vue aériennes réalisées par un
ballon captif. Dans son principe, la planification consiste à utiliser des algorithmes de traitement
d’images (i.e. détection de contours) pour transformer l’image de telle manière à ce que les obstacles
apparaissent en noir et les chemins dégagés en blanc. On obtient ainsi une matrice ou chaque pixel
de l’image est codé en 0 (blanc - passage libre) ou en 1 (noir-obstacle). La matrice obtenue permet
d’appliquer un algorithme A* pour trouver une trajectoire possible entre un point de départ et un
point d’arrivée en évitant les obstacles. Dans l’ensemble ces algorithmes de traitement d’images et de
recherche de plus courts chemins sont beaucoup plus rapides qu’un opérateur humain pour déterminer
des trajectoires. Cependant, ces algorithmes ne sont pas exempts de défauts et se révèlent beaucoup
moins performants qu’un homme sur un plan qualitatif : les conditions de luminosité, lors de la prise
d’image, peuvent augmenter ou diminuer le nombre d’obstacles détectés et il n’est pas possible de
garantir systématiquement une trajectoire optimale.
57
Figure 4.4.1 Aperçu de l’application d’initiative mixte : les obstacles, détectés par des algorithmes de traitement d’image, apparaissent contourés en noir sur l’interface. Toutefois, on remarque que l’ombre du bâtiment (en bas à droite) est détectée à tort comme un obstacle par ces algorithmes (Dehais et al., 2010a).
Dès lors, l’idée est de donner la possibilité à l’opérateur humain d’interagir de manière intuitive
avec ces algorithmes pour optimiser le processus de planification : ainsi une interface a été développée
et met à disposition des outils graphiques (ex : gomme) pour améliorer le traitement d’image et des
outils d’édition pour modifier/ajouter des points de passage (c.f. figure 4.4.1). Ce démonstrateur
a permis de valider la faisabilité technique du concept mais les travaux doivent se poursuivre en
réalisant une évaluation ergonomique de ce type d’interaction avec de nombreux sujets dans le cadre
d’une expérimentation de coopération opérateur-robot. Par ailleurs, nous envisageons de porter ce
prototype sur une tablette tactile pour donner la possibilité à un opérateur humain “tactique”, présent
sur le terrain, de modifier la carte de l’environnement mais également de pouvoir contrôler les robots
par des ordres de haut niveau (ex : placement de waypoints par des actions de pointage...)
58
Figure 4.4.2 Aperçu de la situation tactique après l’interaction entre l’opérateur humain et les algorithmes :
en 1) l’opérateur humain a effacé les zones d’ombre du bâtiment (c.f. image 4.4.1), en 2) il a ajouté un obstacle
et en 3) une trajectoire planifiée automatiquement a été trouvée (Dehais et al., 2010a)..
4.4.2
Application à la planification de mission
Des recherches connexes sont menées pour étendre le principe du concept de planification “mixte”
de trajectoire à la planification “haut niveau” de la mission : l’enjeu est de permettre aux agents
humains et artificiels de décider conjointement de la réalisation de la mission (ex : nombre et type
de robots, planification des tâches, reconfiguration en cas d’aléas...) Une approche intéressante est
de considérer les Processus Décisionnels de Markov Partiellement Observables (POMDP) (Kaelbling
et al., 1998), qui permettent de modéliser des problèmes de planification où les effets des actions
et les observations sont incertaines. L’incertitude sur les observations est particulièrement utile pour
les problèmes d” ’initiative mixte”, car elle peut modéliser l’incertitude d’un agent (robot ou opérateur
humain) sur les intentions et les désirs de l’autre agent (Atrash et Pineau, 2009; Thomson et al.,
2008). Ainsi, chaque agent optimise une récompense globale commune en tenant compte des différentes hypothèses courantes sur les intentions et les désirs de l’autre. Chaque agent produit une
stratégie d’action qui indique l’action à réaliser pour chaque hypothèse possible. Un stage de M2R
(Rojas, 2011) a été réalisé l’an passé, en collaboration avec F. Teichteil, ingénieur de recherche à
l’Onera DCSD, pour proposer une méthode de planification à “initiative mixte” basée sur le modèle
POMDP et les travaux précédents cités. Cette recherche de M2R s’est portée sur la modélisation de
la mission robotique de recherche de cibles (c.f. section 2.2.1) où des essais répétés ont permis d’obtenir des probabilités sur la survenue d’aléas : ces distributions de probabilités sont données pour une
trentaine d’expérimentations réalisées avec notre environnement robotique et expriment le nombre
de fois qu’un capteur fonctionne correctement (exemple : fiabilité du capteur infrarouge 27/30). Un
premier modèle a été construit pour représenter toutes les actions et les transitions qui peuvent se
déclencher à chaque moment de la mission (c.f. figure 4.4.3).
Des simulations ont été réalisées avec différents algorithmes (LAO (Dai et Goldsmith, 2006), RFF
(Teichteil-Konigsbuch et al., 2008), et FSP* (Teichteil-Konigsbuch et al., 2008)) pour trouver les
plans optimaux afin de réaliser la mission.
59
Figure 4.4.3 L’ensemble des différents des états de la mission robotique de recherche de cible. EtatO : Calcul
de la trajectoire - Etat1 : Aller vers zone - Etat2 : Repérer cible - Etat3 : Traitement de cible - Etat4 : Retourner
base - Etat5 : Base - Etat 6 : Manuel (Contrôle Manuel opérateur) (Rojas, 2011).
Algorithme
Temps de calcul
Pourcentage de succès
Nombre moyen d’états trouvés
RFF
FSP
LAO
50s
54min
67min
42%
62%
72%
61,35
42,47
33,44
Ainsi le tableau montre que l’algorithme RFF est le plus rapide (50 s) à trouver l’ensemble des
plans, mais avec une faible probabilité de succès de 42% (i.e. pourcentage de réussite la mission) en
passant en moyenne par 61,35 états. A priori le meilleur algorithme est LAO, dans la mesure où la
pression temporelle n’est pas une limite, puisque les chances de succès sont de 72 % en produisant
le moins d’états (i.e une complexité de l’ensemble des plans réduite). Une première perspective de
ce travail est de programmer les différents plans calculés dans le calculateur du robot terrestre et de
valider expérimentalement leur efficacité dans un cadre expérimental. Une deuxième perspective est
de permettre à l’opérateur humain d’interagir directement avec les algorithmes de manière intuitive
pour améliorer l’efficacité de ce procesus de planification : les résultats de nos simulations montrent
que l’algorithme le plus performant a besoin d’une heure pour proposer une solution. Un tel temps
de calcul n’est pas compatible avec les nécessités opérationnelles. Il doit être envisagé de doter les
opérateurs humains de moyens graphiques pour relaxer des contraintes dans l’élaboration des buts de
la mission et orienter la recherche de solution pour optimiser la planification de la mission dans une
manière semblable à la recherche de trajectoires.
60
4.4.3
Vers une interface à initiative mixte
Ces prototypes d’outils de planification à initiative mixte s’inscrivent dans une démarche plus large
d’amélioration de la station sol développée dans le cadre de nos expérimentations (c.f. figure 4.4.4).
Ainsi des travaux sont actuellement en cours afin de mettre en œuvre une nouvelle interface de pilotage
et de supervision pour permettre à un opérateur humain d’interagir avec une patrouille hétérogène
de robots. Cette interface intègre des concepts inspirés du contrôle aérien (ex : gestion de strips) ou
de jeux vidéos de stratégie (ex : “mini carte”, synoptiques dynamiques..) qui ne sont pour le moment
qu’au stade du développement informatique (Aubert et al., 2010). La plate-forme expérimentale multirobots constitue un environnement pertinent pour la conception d’une interaction coopérative et la
validation expérimentale . Par ailleurs l’embauche cette année de P. Chauvin, ingénieur de laboratoire,
et l’obtention de nouveaux financements MRIS-DGA vont permettre de concrétiser le développement
informatique de cette interface et des différents concepts d” ’initiative mixte”.
Figure 4.4.4 L’environnement robotique de l’Isae (à gauche) intègre progressivement davantage de vecteurs
aéro-terrestres présentant des capacités opérationnelles différentes. La supervision de ces vecteurs nécessite
de développer une IHM ergonomique (à droite) pour donner une bonne conscience de la situation à l’opérateur humain. Cette IHM intègre les concepts d’initiative mixte présentés dans cette section (Aubert et al.,
2010).
4.5
SYNTHÈSE DES PERSPECTIVES
Les perspectives que nous avons présentées visent à poursuivre l’étude du conflit en privilégiant
une approche pluridisciplinaire. Notre première ambition est d’assurer le développement de la neuroergonomie. L’idée est de reproduire nos expérimentations IRMf et EEG avec davantage de volontaires
mais surtout de définir de nouveaux protocoles permettant des mises en situation plus “écologiques”
(ex : utilisation de vidéo ou de simulateurs simplifiés). De plus nous envisageons l’utilisation de nouveaux moyens de mesure telle la spectroscopie en proche infra-rouge pour disposer d’outils d’imagerie
cérébrale portables. Il est attendu que ces travaux aident à mieux comprendre les effets du conflit sur
l’activité cérébrale et permettent à terme d’établir des recommandations pour la conception des IHM.
Nous continuons l’approche de la psychologie-ergonomie cognitive : il est nécessaire de valider expérimentalement le principe des contre-mesures et d’améliorer leur efficacité en s’inspirant du principe
des “neurones miroirs” et des illusions visuo-haptiques. Ces nouvelles contre-mesures seront testées
avec nos moyens de simulations (simulateurs de vol, plate-forme robotique) en plaçant des participants, équipés de capteurs, dans différentes situations de conflit.
61
Enfin, l’approche formelle doit être également poursuivie à travers plusieurs axes. En premier lieu,
il nous faut concrétiser les travaux sur les systèmes adaptatifs pour assister automatiquement les
opérateurs en situation de conflit et de “tunnélisation attentionnelle”. Cela suppose de mettre en
œuvre des techniques d’apprentissage neuro-floues qui semblent particulièrement adaptées pour ces
problématiques de diagnostic en temps réel. De plus, une perspective intéressante pour affiner un
tel diagnostic serait de disposer d’un modèle dynamique des processus attentionels neuropsychologiquement plausible. Ce modèle permettrait également de simuler un opérateur humain pour tester
des solutions IHM dès la phase de conception et éviter l’apparition de futurs conflits en condition
opérationnelle. De même, une dernière perspective pour éviter la survenue de conflits est de considérer l’interaction à “initiative mixte” où chaque agent apporte sa contribution pour construire une
représentation commune de la situation.
L’ensemble de ces perspectives seront réalisées à travers des collaborations nationales et internationales et sont pour la plupart soutenues par des projets financés par des fonds européens ou en
partenariat avec Airbus, la DGA, le RTRA, Thalès et le BEA. De plus, les récentes embauches de M.
Causse, maître de conférence en neurosciences et ergonome, et de P. Chavin, ingénieur de laboratoire,
permettront d’assurer la pérennité de ces travaux.
62
Bibliographie
DA Allport : Selection for action : Some behavioral and neurophysiological considerations of attention
and action. Perspectives on perception and action, 15:395–419, 1987.
CM Allwood : Error detection processes in statistical problem solving. Cognitive science, 8(4):413–
437, 1984.
R. Amalberti : Dysfonctionnements des systèmes et dysfonctionnements de la cognition : contribution
à la compréhension de la sécurité des systèmes ultra-sûrs. Revue générale nucléaire, (1):55–62,
1998.
R. Amalberti : Une réflexion sur le rôle des hommes dans les systèmes intelligents et automatisés. In
Le rôle de l’être humain dans les systèmes automatisés intelligents, Varsovie, Pologne, 2002. RTO
HFM.
R. Amalberti et F. Deblon : A cognitive modelling of fighter aircraft process control : a step toward an
intelligent on-board assistance system. International journal of man-machine studies, 36(5):639–
671, 1992.
F. Amirabdollahian, R. Loureiro et W. Harwin : Minimum jerk trajectory control for rehabilitation and
haptic applications. In Robotics and Automation, 2002. Proceedings. ICRA’02. IEEE International
Conference on, volume 4, pages 3380–385. IEEE, 2002.
Q. Andrieu, F. Dehais, A. Izaute, C. Lesire et C. Tessier : Towards a dynamic computational model of visual attention. In International Conference on Humans Operating Unmanned Systems
(HUMOUS’08), Brest, France, 2008.
A. Atrash et J. Pineau : A bayesian reinforcement learning approach for customizing human-robot
interfaces. In Proceedings of the 13th international conference on Intelligent user interfaces, pages
355–360. ACM, 2009.
T. Aubert, J. Corjon, F. Gautreault, M. Laurent, M. Causse et F. Dehais : Improving situation
awareness of a single human operator interacting with multiple unmanned vehicles : first results.
2010.
A. Baddeley : Human memory. Theory and Practice. Lawrence Erlbaum, Londres, 1990.
HP Bahrick, PM Fitts et RE Rankin : Effect of incentives upon reactions to peripheral stimuli. Journal
of Experimental Psychology, 44(6):400–406, 1952.
S.P. Baker, Y. Qiang, G.W. Rebok et G. Li : Pilot error in air carrier mishaps : Longitudinal trends
among 558 reports, 1983-2002. Aviation, space, and environmental medicine, 79(1):2, 2008.
R.A. Barkley : Behavioral inhibition, sustained attention, and executive functions : Constructing a
unifying theory of adhd. Psychological bulletin, 121(1):65, 1997.
63
JL Beauvois, M Bungert et P Mariette : Forced compliance : Commitment to compliance and
commitment to activity. European Journal of Social Psychology, 25(1):17–26, 1995.
A. Bechara, A. R. Damasio, H. Damasio et S. W. Anderson : Insensitivity to future consequences
following damage to human prefrontal cortex. Cognition, 50:7 – 15, 1995.
DB Beringer et HC Harris, Jr : Automation in general aviation : Two studies of pilot responses to
autopilot malfunctions. The International Journal of Aviation Psychology, 9(2):155–174, 1999.
D. Besnard, D. Greathead et G. Baxter : When mental models go wrong : co-occurrences in dynamic,
critical systems. International Journal of Human-Computer Studies, 60(1):117–128, 2004. ISSN
1071-5819.
EE Billings : Aviation automation : The search for a human-centered approach. Lawrence Erlbaum
associates, Inc., Mahwah, NJ 07430(USA), 1996.
B.B. Biswal et J.L. Ulmer : Blind source separation of multiple signal sources of fmri data sets using
independent component analysis. Journal of computer assisted tomography, 23(2):265–271, 1999.
J.P. Bliss : Investigation of alarm-related accidents and incidents in aviation. The International Journal
of Aviation Psychology, 13(3):249–268, 2003.
J.P. Bliss et M.C. Dunn : Behavioural implications of alarm mistrust as a function of task workload.
Ergonomics, 43(9):1283–1300, 2000.
K.O. Boley : Error-free performance. Flightfax, 14, 1986.
O. Bonnet-Torrès, P. Domenech, C. Lesire et C. Tessier. : Exhost-pipe : Pipe extended for two classes
of monitoring petri nets. In ICATPN’06, 27th International Conference On Application and Theory
of Petri Nets and Other Models of Concurrency, Turku, Finland, 2006.
M.M. Botvinick, T.S. Braver, D.M. Barch, C.S. Carter et J.D. Cohen : Conflict monitoring and
cognitive control. Psychological Review, 108(3):624, 2001. ISSN 1939-1471.
Y.N. Boutcher et S.H. Boutcher : Cardiovascular response to stroop : effect of verbal response and
task difficulty. Biological psychology, 73(3):235–241, 2006.
J.M. Bradshaw, M. Sierhuis, A. Acquisti, R. Feltovich, R. Hoffman, R. Jeffers, D. Prescott, N. Suri,
A. Uszok et R. Van Hoof : Adjustable autonomy and human-agent teamwork in practice : An
interim report on space application. In Agent Autonomy, chapitre 11. Kluwer Academic Publishers,
2003.
J. Bresina, A. Jónsson, P. Morris et K Rajan : Mixed-initiative planning in mapgen : Capabilities and
shortcomings. In International Conference on Automated Planning and Scheduling, Monterey, CA,
2005.
S. Breznitz : Cry wolf : The psychology of false alarms. Lawrence Erlbaum Associates Hillsdale, NJ,
1984.
T.W. Buchanan, D. Driscoll, S.M. Mowrer, J.J. Sollers III, J.F. Thayer, C. Kirschbaum et D. Tranel :
Medial prefrontal cortex damage affects physiological and psychological stress responses differently
in men and women. Psychoneuroendocrinology, 35(1):56–66, 2010.
S.A. Bunge, E. Hazeltine, M.D. Scanlon, A.C. Rosen et JDE Gabrieli : Dissociable contributions of
prefrontal and parietal cortices to response selection. Neuroimage, 17(3):1562–1571, 2002.
64
Bureau Enquête Analyse : Objectif destination. http ://www.bea-fr.org/francais/rapports/rap.htm.
Rapport technique, 2000.
B.K. Burian, J. Orasanu et J. Hitt : Weather-related decision errors : Differences across flight types.
In Human Factors and Ergonomics Society Annual Meeting Proceedings, volume 44, pages 22–25.
Human Factors and Ergonomics Society, 2000.
G. Bush, P. Luu, M.I. Posner et al. : Cognitive and emotional influences in anterior cingulate cortex.
Trends in cognitive sciences, 4(6):215–222, 2000.
E.A. Bustamante : Implementing likelihood alarm technology in integrated aviation displays for enhancing decision making : A two-stage signal detection modeling approach. International Journal
of Applied Aviation Studies, 8(2):241–262, 2008.
R.W. Butler, S.P. Miller, J.N. Potts et V.A. Carreno : A formal methods approach to the analysis
of mode confusion. In Digital Avionics Systems Conference, 1998. Proceedings., 17th DASC. The
AIAA/IEEE/SAE, volume 1. IEEE, 1998. ISBN 0780350863.
VD Calhoun, K. Carvalho, R. Astur et GD Pearlson : Using virtual reality to study alcohol intoxication
effects on the neural correlates of simulated driving. Applied psychophysiology and biofeedback, 30
(3):285–306, 2005.
TJ Callantine : Activity tracking for pilot error detection from flight data. In 21st European Annual
Conf. On Human Decision Making and Control, Glasgow, Scotland, 2002.
V. Camps : Vers une théorie de l’auto-organisation dans les systèmes multi-agents basée sur la
coopération : application à la recherche d’information dans un système d’information répartie.
Thèse de doctorat, IRIT, 1998.
R.L. Capa, M. Audiffren et S. Ragot : The interactive effect of achievement motivation and task
difficulty on mental effort. International Journal of Psychophysiology, 70(2):144–150, 2008.
C. Castelfranchi : Conflict ontology. In H.-J. M’fcller Dieng et R., éditeurs : Computational conflicts :
conflict modeling for distributed intelligent systems, with contributions by numerous experts. Springer Verlag, 2000.
M. Causse : Influence de la récompense et de l’âge sur la performance de pilotage : une contribution
de la neuroergonomie à la sécurité aérienne. Thèse de doctorat, 2010.
M Causse, F Dehais et J Pastor : Executive functions and pilot characteristics predict flight simulator
performance in general aviation pilots. The International Journal of Aviation Psychology, in press :
2011.
M Causse, J Pastor et F Dehais : Reward and uncertainty favor risky decision-making in pilots :
Evidence from cardiovascular and oculometric measurements. Applied psychophysiology and biofeedback, in Press.
M. Causse, B. Pavard, J-M. Senard, J-F. Demonet et J. Pastor : Emotion induction through virtual
avatars and its impact on reasoning : Evidence from autonomous nervous system measurements
and cognitive assessment. In VRIC’9207, Laval, France, 2007.
M Causse, JM Senard, JF Demonet et J Pastor : Monitoring cognitive and emotional processes
through pupil and cardiac response during dynamic versus logical task. Applied psychophysiology
and biofeedback, 35(2):115–123, 2010.
65
L. Chaudron, H. Fiorino, H-J Müller et C. Tessier : Agent’s conflict : new issues. In H.-J Müller
C. Tessier, L. Chaudron, éditeur : Conflicting agents : conflict management in multi-agent systems,
chapitre 1, pages 1–30. Kluwer Academic Press, 2000.
Y.N. Chen, S. Mitra et F. Schlaghecken : Sub-processes of working memory in the n-back task : an
investigation using erps. Clinical Neurophysiology, 119(7):1546–1559, 2008.
JD Cohen, K. Dunbar et McClelland JL. : On the control of automatic processes : A parallel distributed
processing account of the Stroop effect. Psychological Review, 97(3):332–361, 1990.
F.B. Colavita : Human sensory dominance. Perception and Psychophysics, 16(2):409–412, 1974.
C. Coombs et G. Avrunin : The structure of conflict. Lawrence Erlbaum Assoc., 1988.
M. Corbetta et G.L. Shulman : Control of goal-directed and stimulus-driven attention in the brain.
Nature Reviews Neuroscience, 3(3):201–215, 2002.
G. Coricelli, H.D. Critchley, M. Joffily, J.P. O’Doherty, A. Sirigu et R.J. Dolan : Regret and its
avoidance : a neuroimaging study of choice behavior. Nature neuroscience, 8(9):1255–1262, 2005.
E. Cox : Fuzzy fundamentals. Spectrum, IEEE, 29(10):58–61, 1992. ISSN 0018-9235.
J. Crow, D. Javaux et J. Rushby : Models and mechanized methods that integrate human factors into
automation design. In International Conference on Human-Computer Interaction in Aeronautics :
HCI-Aero, pages 163–168. Citeseer, 2000.
D Crundall, G Underwood et P Chapman : Driving experience and the functional field of view.
PERCEPTION-LONDON-, 28:1075–1088, 1999.
P. Dai et J. Goldsmith : Lao*, rlao*, or blao*. In AAAI Workshop on Heuristic Search, pages 59–64,
2006.
A. Damasio : Descartes’ Error. G.P. Putnam’s Sons, New York, 1994.
S.L. Decker, S.K. Hill et R.S. Dean : Evidence of construct similarity in executive functions and fluid
reasoning abilities. International Journal of Neuroscience, 117(6):735–748, 2007.
A. Degani et E.L. Wiener : Procedures in complex systems : the airline cockpit. In IEEE Transactions
on System, Man and cybernetics, volume 27, pages 302–312, 1997.
F. Dehais : Modélisation des conflits dans l’activité de pilotage. Thèse de doctorat, ENSAE, Toulouse,
mai 2004.
F. Dehais : Method and Device for Detecting absences of manual and automatic piloting of an
aircraft, mars 23 2009. Airbus, US Patent App. 12/934,311.
F. Dehais, M. Causse et J. Pastor : Embedded eye tracker in a real aircraft : new perspectives on
pilot/aircraft interaction monitoring. In International Conference on Research in Air Transportation,
Fairfax, USA, march 22-25 2008.
F. Dehais, M. Causse et S. Tremblay : Mitigation of Conflicts with Automation : Use of Cognitive
Countermeasures. Human Factors : The Journal of the Human Factors and Ergonomics Society,
53(5):448–460, 2011a.
F. Dehais, M. Causse, F. Vachon et S.. Tremblay : Cognitive conflict in human-automation interactions : A psychophysiological study. Applied Ergonomics, In press : 2011.
66
F. Dehais, T. Cong Sang et P. Chauvin : Rapport dga année 2 : Modélisation des conflits dans les
interactions opérateur-robots. Rapport technique, 2010a.
F. Dehais, A. Goudou, C. Lesire et C. Tessier : Towards an anticipative agey "From reactive to
anticipatory cognitive embodied systems". Arlington, Viriginia, USA, 2005a.
F. Dehais, A. Goudou, C. Lesire et C. Tessier : Towards an anticipatory agent to help pilots. In AAAI
2005 Fall Symposium "From Reactive to Anticipatory Cognitive Embodied Systems", Arlington,
Virginia, 2005b.
F Dehais, C Lesire, C Tessier et L Christophe : Method and device for detecting piloting conflicts
between the crew and the autopilot of an aircraft. wo patent wo/2010/000.960. 2010b.
F. Dehais et P. Pasquier : Approche générique du conflit. In ILS et ESTIA, éditeur : ErgoIHM.
D.L.Scapin et E. Vergisson, octobre 2000.
F Dehais, A Sisbot, R Alami et M Causse : Physiological and subjective evaluation of a human-robot
object hand over task. Applied ergonomics, 42(6):785–891, 2011b.
F Dehais, C Tessier et L Chaudron : Ghost : experimenting conflicts countermeasures in the pilot’s
activity. Proceedings of the International Joint Conference on Artificial Intelligence (IJCAI), 18:163–
168, 2003.
F Dehais, C Tessier, L Christophe et F Reuzeau : The perseveration syndrome in the pilot’s activity :
guidelines and cognitive countermeasures. Human Error, Safety and Systems Development, pages
68–80, 2010c.
S Dekker : Failure to adapt or adaptations that fail : contrasting models on procedures and safety.
Applied Ergonomics, 34(3):233–238, 2003.
M.C. Desoto, M. Fabiani, D.C. Geary et G. Gratton : When in doubt, do it both ways : Brain evidence
of the simultaneous activation of conflicting motor responses in a spatial stroop task. Journal of
Cognitive Neuroscience, 13(4):523–536, 2001.
GR Dirkin et PA Hancock : Attentional narrowing to the visual periphery under temporal and acoustic
stress. Aviation, Space and Environmental Medicine, 55:457, 1984.
K. Dixon, K. Hagemann, J. Basilico, C. Forsythe, S. Rothe, M. Schrauf et W. Kincses : Improved
Team Performance Using EEG-and Context-Based Cognitive-State Classifications for a Vehicle
Crew. Foundations of Augmented Cognition. Neuroergonomics and Operational Neuroscience,
pages 365–372, 2009.
SR Dixon, CD Wickens et JS McCarley : On the independence of compliance and reliance : are
automation false alarms worse than misses ? Human factors, 49(4):564, 2007.
TJ Doll et DJ Folds : Auditory signals in military aircraft : ergonomics principles versus practice.
Applied Ergonomics, 17(4):257–264, 1986.
T.J. Doll, DJ Folds et L.A. Leiker : Auditory information systems in military aircraft : Current
configurations versus the state of the art. Final Report, 1 May-30 Sep. 1983 Georgia Inst. of
Tech., Atlanta. Systems Engineering Lab., 1, 1984.
C. Donaldson, D. Lam et A. Mathews : Rumination and attention in major depression. Behaviour
research and therapy, 45(11):2664–2678, 2007. ISSN 0005-7967.
67
G. Dorais, P. Bonasso, D. Kortenkamp, B. Pell et D. Schreckenghost : Adjustable autonomy for
human-centered autonomous systems. In IJCAI’99 Workshop on Adjustable Autonomy Systems,
Stockholm, Sweden, 1999.
J.C. Dreher, P. Kohn et K.F. Berman : Neural coding of distinct statistical properties of reward
information in humans. Cerebral Cortex, 16(4):561, 2006.
W.C. Drevets et M.E. Raichle : Reciprocal suppression of regional cerebral blood flow during emotional
versus higher cognitive processes : Implications for interactions between emotion and cognition.
Neuropsychological perspectives on affective and anxiety disorders, pages 353–385, 1998.
AT Duchowski : Eye tracking methodology : Theory and practice. Springer-Verlag New York Inc,
2007.
S. Duschek, M. Muckenthaler, N. Werner et G.A. Reyes del Paso : Relationships between features
of autonomic cardiovascular control and cognitive performance. Biological psychology, 81(2):110–
117, 2009.
JA Easterbrook : The effect of emotion on cue utilization and the organization of behavior. Psychological review, 66(3):183–201, 1959.
S. M. Easterbrook : Handling conflict between domain descriptions with computer supported negotiation. Knowledge Acquisition : An International Journal, 3(4):255–289, 1991.
J. Edworthy, S. Loxley et I. Dennis : Improving auditory warning design : Relationship between warning
sound parameters and perceived urgency. Human Factors : The Journal of the Human Factors and
Ergonomics Society, 33(2):205–231, 1991.
B. Egloff et M. Hock : Interactive effects of state anxiety and trait anxiety on emotional Stroop
interference. Personality and Individual Differences, 31(6):875–882, 2001. ISSN 0191-8869.
P. Eling, K. Derckx et R. Maes : On the historical and conceptual background of the wisconsin card
sorting test. Brain and cognition, 67(3):247–253, 2008.
E.M. Elliott, N. Cowan et F. Valle-Inclan : The nature of cross-modal color-word interference effects.
Attention, Perception, & Psychophysics, 60(5):761–767, 1998.
R. Elliott : Executive functions and their disorders. British Medical Bulletin, 65(1):49, 2003.
H.C. Ellis et B.A. Moore : Mood and memory. Handbook of cognition and emotion, pages 193–210,
1999.
B.A. Eriksen et C.W. Eriksen : Effects of noise letters upon the identification of a target letter in a
nonsearch task. Perception & Psychophysics, 16(1):143–149, 1974.
JR. Fedota et R. Parasuraman : Neuroergonomics and human error. Theoretical issues in Ergonomics
Science, 11(5):402–421, 2010.
A. Fernandes : Création d’un éditeur de scénario pour évaluer les mécanismes attentionnels, rapport
de stage de m2pro. Mémoire de D.E.A., 2011.
L. Festinger : A theory of cognitive dissonance. Stanford University Press, 1957.
PM Fitts, RE Jones et JL Milton : Eye Movements of Aircraft Pilots During Instrument-Landing
Approaches. Aeron. Aeronautical Engineering Review, 9(2):24–29, 1950.
J.M. Fuster : Executive frontal functions. Experimental Brain Research, 133(1):66–70, 2000.
68
O. Giroud-Fliegner : Tout le monde peut se tromper. Essai sur l’erreur. Seuil, Paris, 2001.
V. Goel et R.J. Dolan : Reciprocal neural response within lateral and ventral medial prefrontal cortex
during hot and cold reasoning. Neuroimage, 20(4):2314–2321, 2003.
J Goh et D Wiegmann : Human factors analysis of accidents involving visual flight rules flight into
adverse weather. Aviation, space, and environmental medicine, 73(8):817–822, 2002.
J.H. Goldberg et X.P. Kotval : Computer interface evaluation using eye movements : Methods and
constructs. International Journal of Industrial Ergonomics, 24(6):631–645, 1999. ISSN 0169-8141.
M.A. Goodale et A.D. Milner : Separate visual pathways for perception and action. Trends in
neurosciences, 15(1):20–25, 1992. ISSN 0166-2236.
M. Goodrich, D. Olsen, J. Crandall et T. Palmer : Experiments in adjustable autonomy. In IJCAI’01
Workshop on Autonomy, Delegation and Control : interacting with autonomous agents, Seattle,
WA, 2001.
Michael A. Goodrich et Alan C. Schultz : Human-robot interaction : a survey. Foundations and Trends
in Human-Computer Interaction, 1(3):203–275, 2007. ISSN 1551-3955.
G. Gratton, M. Fabiani, T. Elbert et B. Rockstroh : Seeing right through you : applications of optical
imaging to the study of the human brain. Psychophysiology, 40(4):487–491, 2003.
J. Grégoire et M. Van der Linden : Effect of age on forward and backward digit spans. Aging,
Neuropsychology, and Cognition, 4(2):140–149, 1997.
S.E. Guttman, L.A. Gilroy et R. Blake : Hearing what the eyes see. Psychological Science, 16(3):228,
2005.
A. Gyurak, M.S. Goodkind, A. Madan, J.H. Kramer, B.L. Miller et R.W. Levenson : Do tests of
executive functioning predict ability to downregulate emotions spontaneously and when instructed
to suppress ? Cognitive, Affective, & Behavioral Neuroscience, 9(2):144–152, 2009.
A. Haarmann, W. Boucsein et F. Schaefer : Combining electrodermal responses and cardiovascular
measures for probing adaptive automation during simulated flight. Applied Ergonomics, 40(6):
1026–1040, 2009. ISSN 0003-6870.
B.L. Hills : Vision, visibility, and perception in driving. Perception, 9(2):183, 1980.
S.A. Hillyard, E.K. Vogel et S.J. Luck : Sensory gain control (amplification) as a mechanism of
selective attention : electrophysiological and neuroimaging evidence. Philosophical Transactions of
the Royal Society of London. Series B : Biological Sciences, 353(1373):1257, 1998.
J.M. Hoc : Towards a cognitive approach to human-machine cooperation in dynamic situations.
Internation Journal of Human-computer Studies, 54(4):509–540, 2001.
J Holbrook, J Orasanu et C McCoy : Weather-related decision making by aviators in alaska. Proceedings of the 12th International Symposium on Aviation Psychology, pages 576–81, 2003.
C.B. Holroyd et M.G.H. Coles : The neural basis of human error processing : reinforcement learning,
dopamine, and the error-related negativity. Psychological Review, 109(4):679–708, 2002. ISSN
0033-295X.
R. Horst et G. Kay : Cogscreen- personal computer-based tests of cognitive function for occupational
medical certification. In International Symposium on Aviation Psychology, 6 th, Columbus, OH ;
United States, pages 734–739. Columbus, OH, Ohio State University, 1991.
69
T Inagaki : Automation and the cost of authority. International Journal of Industrial Ergonomics, 31
(3):169–174, 2003.
L. Itti et C. Koch : Computational modelling of visual attention. Nature reviews neuroscience, 2
(3):194–203, 2001. ISSN 1471-003X.
L. Itti, C. Koch et E. Niebur : A model of saliency-based visual attention for rapid scene analysis.
Pattern Analysis and Machine Intelligence, IEEE Transactions on, 20(11):1254–1259, 1998. ISSN
0162-8828.
D. Javaux et E. Olivier : Assessing and understanding pilots ? knowledge of mode transitions on the
A340-200/300. In Proceedings of the International Conference on Human-Computer Interaction
in Aeronautics (HCI-Aero), 2000.
M.S. John, D.A. Kobus, J.G. Morrison et D. Schmorrow : Overview of the DARPA augmented
cognition technical integration experiment. International Journal of Human-Computer Interaction,
17(2):131–149, 2004. ISSN 1044-7318.
L.P. Kaelbling, M.L. Littman et A.R. Cassandra : Planning and acting in partially observable stochastic
domains. Artificial Intelligence, 101(1-2):99–134, 1998.
A. Kapoor et R.W. Picard : Multimodal affect recognition in learning environments. In Proceedings of
the 13th annual ACM international conference on Multimedia, pages 677–682. ACM, 2005. ISBN
1595930442.
V. De Keyser : Les erreurs temporelles et les aides techniques. In la gestion du temps dans les
environnements dynamiques, pages 287–309. J.M. Cellier, V. De Keyser et C. Valot, Le Travail
Humain édition, 1996.
V. De Keyser et D.D. Woods : Systems Reliability Assessment, chapitre Fixation errors in dynamics
and complex systems, pages 231–251. Kluwer Academic Press, 1990.
C.J. Knapp et R. Johnson : F-16 class a mishaps in the us air force, 1975-93. Aviation, space, and
environmental medicine, 67(8):777–783, 1996.
E. Koechlin, G. Corrado, P. Pietrini et J. Grafman : Dissociating the role of the medial and lateral
anterior prefrontal cortex in human planning. Proceedings of the National Academy of Sciences of
the United States of America, 97(13):7651, 2000.
D. Kortenkamp, P. Bonasso, D. Ryan et D. Schreckenghost : Traded control with autonomous
robots as mixed initiative interaction. In AAAI-97 Spring Symposium on Mixed Initiative Interaction,
Stanford University, CA, March 1997.
J.K. Kuchar et L.C. Yang : A review of conflict detection and resolution modeling methods. In
Proceedings of IEEE Transactions on Intelligent Transportation Systems, volume 1, 2000.
D Kulic et EA Croft : Affective state estimation for human robot interaction. IEEE Transactions on
Robotics, 23(5):991–1000, 2007.
D. LaBerge, M. Carter et V. Brown : A network simulation of thalamic circuit operations in selective
attention. Neural Computation, 4(3):318–331, 1992. ISSN 0899-7667.
M. Le Marc : Psychologie sociale, chapitre Du conflit. Bréal : collection Grand Amphi, 1999.
R. Lebib, D. Papo, S. de Bode et P.M. Baudonnière : Evidence of a visual-to-auditory cross-modal
sensory gating phenomenon as reflected by the human p50 event-related brain potential modulation.
Neuroscience letters, 341(3):185–188, 2003.
70
A. Lécuyer, J.M. Burkhardt et L. Etienne : Feeling bumps and holes without a haptic interface : the
perception of pseudo-haptic textures. In Proceedings of the SIGCHI conference on Human factors
in computing systems, pages 239–246. ACM, 2004.
J. Leplat : Erreur humaine, fiabilité humaine dans le travail. Paris, A. Colin, 1985.
M. Leroux : Erato : une aide au contrôleur aérien. Control, 85:66–79, 1997.
C. Lesire : Estimation numérico-symbolique pour le suivi d’activités hybrides. Thèse de doctorat,
2006.
C Lesire et C Tessier : Particle petri nets for aircraft procedure monitoring under uncertainty. Proceedings of the Applications and Theory of Petri Nets conference, pages 329–348, 2005.
N.G. Leveson et E. Palmer : Designing automation to reduce operator errors. In Systems, Man, and
Cybernetics, 1997.’Computational Cybernetics and Simulation’., 1997 IEEE International Conference on, volume 2, pages 1144–1150. IEEE, 1997. ISBN 0780340531.
K. Lewin, R. Lippitt et R. K. White : Patterns of aggression behavior in experimentally created "social
climates". Journal of Social Psychology, 10:271–299, 1939.
C. Liu, K. Conn, N. Sarkar et W. Stone : Online affect detection and robot behavior adaptation for
intervention of children with autism. IEEE Transactions on Robotics, 24(4):883–896, 2008.
L.D. Loukopoulos, R.K. Dismukes et I. Barshi : Cockpit interruptions and distractions : a line observation study. In International symposium on aviation psychology, Colombus, USA, March 2001.
RL Mandryk et MS Atkins : A fuzzy physiological approach for continuously modeling emotion during
interaction with play technologies. International Journal of Human-Computer Studies, 65(4):329–
347, 2007.
L. Mann : Stress, affect, and risk taking. 1992.
J.G. March et H.A. Simon : Organizations. NY : Wiley, New York, 1958.
S.P. Marshall : Identifying cognitive state from eye metrics. Aviation, space, and environmental
medicine, 78(Supplement 1):165–175, 2007. ISSN 0095-6562.
JS McCarley et AF Kramer : Eye movements as a window on perception and cognition. In Neuroergonomics : The brain at work, pages 95–112. 2006.
S Mercier : Contrôle du partage de l’autorité dans un système d’agents hétérogènes. Thèse de
doctorat, 2010.
S. Mercier, C. Tessier et F. Dehais : Détection et résolution de conflits d’autorité dans un système
homme-robot. Revue d’intelligence artificielle, 24(3):325–356, 2010. ISSN 0992-499X.
C. Meredith et J. Edworthy : Are there too many alarms in the intensive care unit ? An overview of
the problems. Journal of Advanced Nursing, 21(1):15–20, 1995. ISSN 1365-2648.
J Meyer : Effects of warning validity and proximity on responses to warnings. Human factors, 43
(4):563, 2001.
S Milgram : Obedience to authority : An experimental view. Harper & Row, New York, 1974.
MP Milham, MT Banich, A. Webb, V. Barad, NJ Cohen, T. Wszalek et AF Kramer : The relative
involvement of anterior cingulate and prefrontal cortex in attentional control depends on nature of
conflict. Cognitive Brain Research, 12(3):467–473, 2001.
71
L. Minin, R. Montanari, C. Corbelli et C. Iani : Force feedback : new frontier as the innovative
driving comfort tool. In CHI’08 extended abstracts on Human factors in computing systems, pages
2147–2150. ACM, 2008.
R.L.C. Mitchell et L.H. Phillips : The psychological, neurochemical and functional neuroanatomical
mediators of the effects of positive and negative mood on executive functions. Neuropsychologia,
45(4):617–629, 2007.
A. Miyake, N. Friedman, M. Emerson, A. Witzki et A. Howerter : The unity and diversity of executive
functions and their contribution to complex "frontal lobe" tasks : a latent variable analysis. Cognitive
Psychology, 41, 2000.
D.G. Morrow, W.E. Menard, H.E. Ridolfo, E.A.L. Stine-Morrow, T. Teller et D. Bryant : Expertise,
cognitive ability, and age effects on pilot communication. The International Journal of Aviation
Psychology, 13(4):345–371, 2003a.
D.G. Morrow, W.E. Menard, E.A.L. Stine-Morrow, T. Teller et D. Bryant : The influence of expertise
and task factors on age differences in pilot communication. Psychology and Aging, 16(1):31–46,
2001.
D.G. Morrow, H.E. Ridolfo, W.E. Menard, A. Sanborn, E.A.L. Stine-Morrow, C. Magnor, L. Herman, T. Teller et D. Bryant : Environmental support promotes expertise-based mitigation of age
differences on pilot communication tasks. Psychology and Aging, 18(2):268–284, 2003b.
MC Mozer et M Sitton : Computational modeling of spatial attention. In H. Pashler, éditeur :
Attention, pages 341–393. Psychology Press, Hover, UK, 1998.
J.M. Müller et R. Dieng : On conflicts in general and their use in ai in particular. In H.-J.Müller et
R.Dieng, éditeurs : Computational conflict, chapitre 1. Springer Verlag, April 2000.
R. Mumaw, N. Sarter et C. Wickens : Analysis of pilots’ monitoring and performance on an automated
flight deck,. Colombus, Ohio, 2001.
K. Myers et D. Morley : Human directability of agents. In In K-CAP 2001, 1st International Conference
on Knowledge Capture, Victoria, Canada, 2001.
JJ Nance : Blind Trust : How Deregulation Has Jeopardised Airline Safety and what You Can Do
about it. Morrow, 1986.
A. Nunes et T. Laursen : Identifying the factors that contributed to the Überlingen Midair Collision. In
Human Factors and Ergonomics Society Annual Meeting Proceedings, volume 48, pages 195–198.
Human Factors and Ergonomics Society, 2004.
D O’Hare et T Smitheram : Pressing on into deteriorating conditions : An application of behavioral
decision theory to pilot decision making. The International Journal of Aviation Psychology, 5
(4):351–370, 1995.
D. O’Hare, M. Wiggins, R. Batt et D. Morrison : Cognitive failure analysis for aircraft accident
investigation. Ergonomics, 37(11):1855–1869, 1994.
J. Orasanu et L. Martin : Errors in aviation decision making : a factor in accidents and incidents. In
Proceedings of HESSD, Seattle, Washington, USA, April 1998.
J. Orasanu, L. Martin et J. Davison : Cognitive and contextual factors in aviation accidents : Decision
errors. Linking expertise and naturalistic decision making, pages 209–225, 2001.
72
A. Orsini, L. Chiacchio, M. Cinque, C. Cocchiaro et al. : Effects of age, education and sex on two
tests of immediate memory : A study of normal subjects from 20 to 99 years of age. Perceptual
and motor skills, 1986.
R. Parasuraman, PA Hancock et O. Olofinboba : Alarm effectiveness in driver-centred collision-warning
systems. Ergonomics, 40(3):390–399, 1997.
R. Parasuraman, M. Mouloua et B. Hilburn : Adaptive aiding and adaptive task allocation enhance
human-machine interaction. Automation technology and human performance : Current research
and trends, pages 119–123, 1999.
R. Parasuraman, M. Mouloua et R. Molloy : Effects of adaptive task allocation on monitoring of
automated systems. Human factors, 38(4), 1996.
R. Parasuraman et M. Rizzo : Neuroergonomics : the brain at work. Oxford University Press, 2007.
R Parasuraman et CD Wickens : Humans : Still vital after all these years of automation. Human
factors, 50(3):511, 2008.
J. Pastor : Reasoning and the underlying cerebral mechanisms : an Artificial Intelligence Approach.
Thèse de doctorat, 1999.
B. Pavard et J. Dugdale : The contribution of complexity theory to the study of socio-technical
cooperative systems. In Proceedings of the International Conference on Complex Systems (ICCS),
Nashua, USA, 2000.
C. Pecher, C. Quaireau, C. Lemercier et J.M. Cellier : The effects of inattention on selective attention :
How sadness and ruminations alter attention functions evaluated with the Attention Network Test.
Revue Européenne de Psychologie Appliquée/European Review of Applied Psychology, 2010. ISSN
1162-9088.
P. Philippot et F. Brutoux : Induced rumination dampens executive processes in dysphoric young
adults. Journal of behavior therapy and experimental psychiatry, 39(3):219–227, 2008. ISSN
0005-7916.
S. Pizziol, F. Dehais et C. Tessier : Towards human operator "state" assessment. In ATACCS
conference, 2011.
M. I. Posner, J. A. Walker, F. J. Friedrich et R. D. Rafal : Effects of parietal lobe injury on covert
orienting of visual attention. Journal of Neuroscience, 4:1863–1874, 1984.
MI Posner et S Dehaene : Attentional networks. Trends in neurosciences, 17(2):75–79, 1994.
M.I. Posner et M.K. Rothbart : Educating the human brain. American Psychological Association,
2007.
M.I. Posner, B.E. Sheese, Y. Odludas et Y.Y. Tang : Analyzing and shaping human attentional
networks. Neural Networks, 19(9):1422–1429, 2006.
A.R. Pritchett et R.J. Hansman : Pilot non conformance to alerting systems commands during closely
spaced parallel approaches. Rapport technique ASL-97-2, MIT Aeronautical Systems Laboratory,
Cambridge, MA, 1997.
L. Putnam et M. Poole : Handbook of organizational communication : an interdisciplinary perspective.
pages 549–599. Sage, Beverly Hills, L. Porter édition, 1987.
73
G.H. Recanzone : Auditory influences on visual temporal rate perception. Journal of neurophysiology,
89(2):1078, 2003.
N. Regis : Définition d’un vecteur d’état attentionnel, rapport de stage de m2r. Mémoire de D.E.A.,
2011.
B.H. Repp et A. Penel : Auditory dominance in temporal processing : New evidence from synchronization with simultaneous visual and auditory sequences. Journal of Experimental Psychology :
Human Perception and Performance, 28(5):1085, 2002.
D.A. Rhoda et M.L. Pawlak : An assessment of thunderstorm penetrations and deviations by commercial aircraft in the terminal area. Rapport technique, M.I.T., 1999.
S Rice : Examining single-and multiple-process theories of trust in automation. The Journal of general
psychology, 136(3):303–322, 2009.
A. Rizzo, S. Bagnara et M. Visciola : Human error detection processes. Internation of Man-Machine
studies, 36:253–259, 1987.
G. Rizzolatti et L. Craighero : The mirror-neuron system. Annu. Rev. Neurosci., 27:169–192, 2004.
A. Rojas : Initiative mixte pour la planification de mission, rapport de stage de m2r. Mémoire de
D.E.A., 2011.
D.R. Royall, E.C. Lauterbach, J.L. Cummings, A. Reeve, T.A. Rummans, D.I. Kaufer, W.C. LaFrance Jr et C.E. Coffey : Executive control function : a review of its promise and challenges
for clinical research. a report from the committee on research of the american neuropsychiatric
association. Journal of Neuropsychiatry and Clinical Neurosciences, 14(4):377, 2002.
K. Rubia, A.B. Smith, M.J. Brammer et E. Taylor : Right inferior prefrontal cortex mediates response
inhibition while mesial prefrontal cortex is responsible for error detection. Neuroimage, 20(1):351–
358, 2003.
J Rushby : Using model checking to help discover mode confusions and other automation surprises.
Reliability Engineering & System Safety, 75(2):167–177, 2002.
J. Rushby, J. Crow et E. Palmer : An automated method to detect potential mode confusions.
In Digital Avionics Systems Conference, 1999. Proceedings. 18th, volume 1. IEEE, 1999. ISBN
0780357493.
A.G. Sanfey, R. Hastie, M.K. Colvin et J. Grafman : Phineas gauged : decision-making and the human
prefrontal cortex. Neuropsychologia, 41(9):1218–1229, 2003.
N. Sarter et M. Sarter : Neuroergonomics : opportunities and challenges of merging cognitive neuroscience with cognitive ergonomics. Theoretical issues in ergonomics science, 4:142–150, 2003.
NB Sarter et DD Woods : How in the world did we ever get into that mode ? mode error and awareness
in supervisory control. Human Factors : The Journal of the Human Factors and Ergonomics Society,
37(1):5–19, 1995.
NB Sarter, DD Woods et CE Billings : Automation surprises. Handbook of human factors and
ergonomics, 2:1926–1943, 1997.
S. Scannella : Bases cérébrales du conflit visuo-auditif. Thèse de doctorat, 2011.
74
P. Scerri, D. Pynadath, L. Johnson, P. Rosenbloom, M. Si, N. Schurr et M. Tambe : A prototype
infrastructure for distributed robot-agent-person teams. In AAMAS’03, pages 433–440, Melbourne,
Australia, July 2003.
N. Schurr, P. Scerri et M. Tambe : Impact of human advice on agent teams : a preliminary report.
In AAMAS’03 Workshop on Humans and Multi-Agent Systems, Melbourne, Australia, 2003.
P. Seban, F. Dehais et C. Lesire : Towards a dynamic model of human visual attention. In French
Congress on Form Processing and Artificial Intelligence (RFIA’08), Amiens, France, 2008.
B. Sellner, F. Heger, L. Hiatt, R. Simmons et S. Singh : Coordinated multi-agent teams and sliding
autonomy for large-scale assembly. In IEEE, 94(7), 2006.
N. Shapiro : Nbc dateline. New York : National Broadcasting Corporation, 1994.
T.B. Sheridan et W.L. Verplank : Human and computer control of undersea teleoperators. Rapport
technique, MIT Man-Machine Systems Laboratory, Cambridge, MA, 1978.
M. Sherif et C.W. Sherif : Groups in harmony and tension. New York : Harper and Row, 1953.
G. Simmel : Le conflit. Circé/poche, 2003.
J. Simpson, W. Drevets, Z. Snyder, D. Gusnard et M. Raichle : Emotion-induced changes in human
medial prefrontal cortex : I. During cognitive task performance. PNAS, 98(2), 2001a.
J.R. Simpson, W.C. Drevets, A.Z. Snyder, D.A. Gusnard et M.E. Raichle : Emotion-induced changes
in human medial prefrontal cortex : Ii. during anticipatory anxiety. Proceedings of the National
Academy of Sciences, 98(2):688, 2001b.
S. Sinnett, C. Spence et S. Soto-Faraco : Visual dominance and attention : The colavita effect
revisited. Attention, Perception, & Psychophysics, 69(5):673–686, 2007.
L. Song et J.K. Kuchar : Describing, predicting and mitigating dissonance between alerting systems.
In International workshop on human error, safety, and system development, Sweden, 2001.
R.D. Sorkin : Why are people turning off our alarms. Journal of the Acoustical Society of America,
84(3):1107–1108, 1988.
O. Spreen, A.H. Risser et D. Edgell : Developmental neuropsychology. Oxford University Press, USA,
1995.
A Steinfeld, T Fong, D Kaber, M Lewis, J Scholtz, A Schultz et M Goodrich : Common metrics for
human-robot interaction. In 1st ACM SIGCHI/SIGART conference on Human-robot interaction,
page 40, Salt Lake City, Utah, USA, 2006. ACM.
J.R. Stroop : Studies of interference in serial verbal reactions. Journal of experimental psychology,
28:643–662, 1935.
K. Takahashi, S. Ogata, Y. Atsumi, R. Yamamoto, S. Shiotsuka, A. Maki, Y. Yamashita, T. Yamamoto, H. Koizumi, H. Hirasawa et al. : Activation of the visual cortex imaged by 24-channel
near-infrared spectroscopy. Journal of biomedical optics, 5:93, 2000.
Y. Takeuchi : Change in blood volume in the brain during a simulated aircraft landing task. Journal
of Occupational Health, 42(2):60–65, 2000.
J. Taylor, R. O’Hara, M. Mumenthaler et J. Yesavage : Relationship of cogscreen-ae to flight simulator
performance and pilot age. Aviat Space Environ Med, 71:373–80, 2000.
75
J.L. Taylor, Q. Kennedy, A. Noda et J.A. Yesavage : Pilot age and expertise predict flight simulator
performance. Neurology, 68(9):648–654, 2007.
J.L. Taylor, R. O’Hara, M.S. Mumenthaler, A.C. Rosen et J.A. Yesavage : Cognitive ability, expertise,
and age differences in following air-traffic control instructions. Psychology and Aging, 20(1):117–
133, 2005.
S.F. Taylor, R.C. Welsh, T.D. Wager, K. Luan Phan, K.D. Fitzgerald et W.J. Gehring : A functional
neuroimaging study of motivation and executive function 1. NeuroImage, 21(3):1045–1054, 2004.
F. Teichteil-Konigsbuch, U. Kuter et G. Infantes : Fsp* : Optimal forward stochastic planning using
relaxed ppddl operators. Probabilistic track of the 6th International Planning Competition, 2008.
J.F. Thayer, J.J. Sollers III, D.M. Labiner, M. Weinand, A.M. Herring, R.D. Lane et G.L. Ahern :
Age-related differences in prefrontal control of heart rate in humans : a pharmacological blockade
study. International Journal of Psychophysiology, 72(1):81–88, 2009.
K. Thomas : Conflict and conflict management. In D. Dunnette, éditeur : Handbook of industrial
and organizational psychology, pages 889–935. Rand Mc Nally College Pub, Chicago, 1976.
LC Thomas et CD Wickens : Eye-tracking and individual differences in off-normal event detection
when flying with a synthetic vision system display. Conference Proceedings of the Human Factors
and Ergonomics Society, 48(1):223–227, 2004.
B. Thomson, J. Schatzmann et S. Young : Bayesian update of dialogue state for robust dialogue
systems. In Acoustics, Speech and Signal Processing, 2008. ICASSP 2008. IEEE International
Conference on, pages 4937–4940. IEEE, 2008.
C. Thooris : Modélisation neuro-floue de la tunnélisation attentionnelle, stage de m2r. Mémoire de
D.E.A., 2011.
J.I. Tracy, F. Mohamed, S. Faro, R. Tiver, A. Pinus, C. Bloomer, A. Pyrros et J. Harvan : The effect
of autonomic arousal on attentional focus. Neuroreport, 11(18):4037, 2000. ISSN 0959-4965.
P.S. Tsang : Age, attention, expertise, and time-sharing performance. Psychology and Aging, 13
(2):323–347, 1998.
P. Van Eslande : Erreur de conduite et besoin d’aide : une approche accidentologique. In Journée
d’étude en psychologie ergonomique EPIQUE, 2001.
P. Van Eslande, L. Alberton, C. Nachtergaële et G. Blancher : Scénarios types de production de
l’"erreur humaine" dans l’accident de la route. Rapport technique 218, Inrets, 1997.
HTA Van Ginkel, MFL de Vries, JJM Koeners et E Theunissen : Flexible authority allocation in
unmanned aerial vehicles. Conference Proceedings of the Human Factors and Ergonomics Society,
50:530–534, 2006.
F. Vanderhaegen : Human-error-based design of barriers and analysis of their uses. Cognition,
Technology & Work, 12(2):133–142, 2010.
F. Vanderhaegen, S. Zieba, Enjalber S. et Polet : A Benefit/Cost/Deficit (bcd) model for learning
from human errors. Reliability Engineering and System Safety, 2011.
P.R. Veillette : Human error cited as major cause of U.S. commercial EMS helicopter accidents.
Flight Safety Digest, 20, April-May 2001.
76
P. Verhaeghen, A. Marcoen et L. Goossens : Facts and fiction about memory aging : A quantitative
integration of research findings. Journal of Gerontology, 48(4):157–171, 1993.
S.R. Waldstein et L.I. Katzel : Stress-induced blood pressure reactivity and cognitive function. Neurology, 64(10):1746, 2005.
L. Wang, X. Liu, K.G. Guise, R.T. Knight, J. Ghajar et J. Fan : Effective connectivity of the frontoparietal network during attentional control. Journal of Cognitive Neuroscience, 22(3):543–553,
2010.
Y. Wang, H. Wang, L. Cui, S. Tian et Y. Zhang : The n270 component of the event-related potential
reflects supramodal conflict processing in humans. Neuroscience letters, 332(1):25–28, 2002.
J.C. Wanner et N. Wanner : Opérateur et sécurité. Rapport technique, 5/2, septembre 1999.
DH Weissman, LM Warner et MG Woldorff : The neural mechanisms for minimizing cross-modal
distraction. The Journal of neuroscience, 24(48):10941, 2004.
G Weltman et GH Egstrom : Perceptual narrowing in novice divers. Human Factors : The Journal of
the Human Factors and Ergonomics Society, 8(6):499–506, 1966.
J.L. Wheale : The speed of response to synthesized voice messages. British Journal of Audiology, 15
(3):205–212, 1981.
C Wickens, S Dixon, J Goh et B Hammer : Pilot dependence on imperfect diagnostic automation
in simulated uav flights : An attentional visual scanning analysis. In 13th Annual International
Symposium of Aviation Psychology, Oklahoma City, Oklahoma, 2005.
C Wickens et SR Dixon : The benefits of imperfect diagnostic automation : A synthesis of the
literature. Theoretical Issues in Ergonomics Science, 8(3):201–212, 2007.
C.D. Wickens : Attentional tunneling and task management. In 13th International Symposium on
Aviation Psychology, Dayton, OH, 2005.
C.D. Wickens, S. Rice, D. Keller, S. Hutchins, J. Hughes et K. Clayton : False alerts in air traffic
control conflict alerting system : Is there a ?cry wolf ? effect ? Human Factors : The Journal of the
Human Factors and Ergonomics Society, 51(4):446, 2009.
D.A. Wiegmann et S.A. Shappell : A human error approach to aviation accident analysis : The human
factors analysis and classification system. Ashgate Pub Ltd, 2003.
M. Wiggins et D. O’Hare : Expertise in aeronautical weather-related decision making : A crosssectional analysis of general aviation pilots. Journal of Experimental Psychology : Applied, 1(4):305–
320, 1995.
LJ Williams : Cognitive load and the functional field of view. Human Factors : The Journal of the
Human Factors and Ergonomics Society, 24(6):683–692, 1982.
LJ Williams : Tunnel vision induced by a foveal load manipulation. Human Factors : The Journal of
the Human Factors and Ergonomics Society, 27(2):221–227, 1985.
LJ Williams : Peripheral target recognition and visual field narrowing in aviators and nonaviators. The
International Journal of Aviation Psychology, 5(2):215–232, 1995.
G.F. Wilson et F.T. Eggemeier : Psychophysiological assessment of workload in multi-task environments. Multiple-task performance, pages 329–360, 1991.
77
A.J. Wintink, S.J. Segalowitz et L.J. Cudmore : Task complexity and habituation effects on frontal
p300 topography. Brain and Cognition, 46(1-2):307–311, 2001.
L. Wioland : Etudes des mécanismes de protection et de détection des erreurs. Contribution à un
modèle de sécurité écologique. Thèse de doctorat, Université Paris V, 1997.
D.D. Woods, L.J. Johannsen, R.I. Cook et N.B. Sarter : Behind human error : cognitive systems,
computers and hindsight. In CESERIAC SOAR 94-01, Wright-Patterson Air Force Base, 1994.
DD Woods et NB Sarter : Learning from automation surprises and going sour accidents. In N. Sarter
et R. Amalberti, éditeurs : Cognitive engineering in the aviation domain, page 327’96353. Lawrence
Erlbaum, New York, 2000.
NV Yakimovich, GL Strongin, VV Govorushenko, DJ Schroeder et GG Kay : Cogscreen as a predictor
of flight performance in russian pilots. In 65th annual meeting of the Aerospace Medical Association,
San Antonio, TX, 1994.
J.A. Yesavage, N. Dolhert et J.L. Taylor : Flight simulator performance of younger and older aircraft
pilots : effects of age and alcohol. Journal of the American Geriatrics Society, 42(6):577–582,
1994.
S. Yuval-Greenberg et L.Y. Deouell : The dog ?s meow : asymmetrical interaction in cross-modal
object recognition. Experimental brain research, 193(4):603–614, 2009.
78
View publication stats
Téléchargement