See discussions, stats, and author profiles for this publication at: https://www.researchgate.net/publication/269895411 Conflit et persistance dans l'erreur : une approche pluridisciplinaire (HDR) Book · June 2012 CITATIONS READS 4 1,130 1 author: Frédéric Dehais Institut Supérieur de l'Aéronautique et de l'Espace (ISAE) 160 PUBLICATIONS 2,085 CITATIONS SEE PROFILE Some of the authors of this publication are also working on these related projects: MAIA - Modélisation de l'Attention pour une Interaction Adaptative View project Human-Robotic Performance View project All content following this page was uploaded by Frédéric Dehais on 23 December 2014. The user has requested enhancement of the downloaded file. HABILITATION A DIRIGER LES RECHERCHES Université Paul Sabatier présentée par Frédéric DEHAIS Enseignant-chercheur à l’ISAE - Formation Supaéro Conflits et persistance dans l’erreur : une approche pluridisciplinaire. Table des matières Introduction 3 1 5 5 5 6 6 2 3 Conflits 1.1 Préambule : de la nécessité du conflit . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.1 Les limites du concept d’erreur humaine . . . . . . . . . . . . . . . . . . . . 1.1.2 Le conflit : une approche complémentaire à l’étude de l’erreur humaine . . . 1.2 Vers une définition du conflit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.1 Conflit en psychologie sociale, intelligence artificielle distribuée (IAD), en neurosciences et ergonomie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.2 Notion d’incohérence et d’engagement dans un but . . . . . . . . . . . . . . 1.3 Modélisation des conflits : le cas des conflits entre l’opérateur et les systèmes automatiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.1 Le cas du pilote automatique d’avion de transport . . . . . . . . . . . . . . 1.3.2 La détection du conflit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.3 Mise en oeuvre dans le simulateur de l’Isae . . . . . . . . . . . . . . . . . . 1.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 8 9 10 14 Vers une résolution du conflit 2.1 Préambule : le conflit, un précurseur de la dégradation de la performance . . . 2.2 Approche expérimentale du conflit . . . . . . . . . . . . . . . . . . . . . . . . 2.2.1 Expérimentation 1 : conflit dans les interactions opérateur - robot . . . 2.2.2 Définition de contre-mesures cognitives . . . . . . . . . . . . . . . . . 2.2.3 Expérimentation 2 : évaluation des effets des contre-mesures cognitives 2.3 Adapter l’interaction pour résoudre le conflit . . . . . . . . . . . . . . . . . . . 2.3.1 Principes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.2 Inférence de la “tunnélisation attentionnelle” . . . . . . . . . . . . . . . 2.3.3 Modéliser la dynamique de l’autorité opérateur-automate . . . . . . . . 2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 15 16 16 20 20 23 24 25 28 32 Aspects neuroergonomiques du conflit et de la persistance dans l’erreur 3.1 Préambule : le continuum cognitif . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Fonctions exécutives et persistance dans la décision d’atterrir en aviation légère 3.2.1 Apport de la neuropsychologie : les batteries de test . . . . . . . . . . 3.2.2 Expérimentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Etude neuroéconomique du conflit lors de la prise de décision à l’atterrissage . 3.3.1 Le conflit entre sécurité et désir d’atterrir . . . . . . . . . . . . . . . . 3.3.2 Apport des neurosciences : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 35 36 37 37 39 39 40 1 6 7 3.4 3.5 4 3.3.3 Expérimentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Le conflit visuo-auditif ou l’insensibilité des pilotes aux alarmes auditives : . . . . . . 3.4.1 L’apport des neurosciences pour la compréhension des conflits de bas niveau 3.4.2 Expérimentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Conclusion et perspectives 4.1 Perspective 1 : Neuroergonomie . . . . . . . . . . . . . . . . . . . . . . 4.2 Perspective 2 : Experimenter de nouvelles contre-mesures cognitives . . . 4.3 Perspective 3 : Modélisation de l’attention . . . . . . . . . . . . . . . . . 4.3.1 Détection en temps réel de la “tunnélisation de l’attention” . . . . 4.3.2 Vers un modèle neuropsychologiquement plausible de l’attention auditive . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4 Perspective 4 : Initiative mixte . . . . . . . . . . . . . . . . . . . . . . . 4.4.1 Application à la planification mixte de trajectoire . . . . . . . . . 4.4.2 Application à la planification de mission . . . . . . . . . . . . . . 4.4.3 Vers une interface à initiative mixte . . . . . . . . . . . . . . . . 4.5 Synthèse des perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . Bibliographie . . . . . . . . . . . . . . . . visuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . et . . . . . . . . . . . . 40 44 44 45 49 51 52 53 54 54 55 57 57 59 61 61 63 2 Introduction Quelles sont les causes des accidents dans les grands systèmes industriels à risques ? Bénéficiant des progrès techniques, d’un savoir-faire et d’une réglementation très exigeante pour la certification, ces systèmes critiques tels que le nucléaire ou l’aéronautique sont dits "ultra-sûrs" (Amalberti, 1998) et ne connaissent que très rarement des défaillances qui remettent en cause la sécurité. C’est le facteur humain qui est le plus souvent tenu comme le principal responsable de ces accidents : en aéronautique par exemple, des études (Boley, 1986; Veillette, 2001), tendent à montrer que l’opérateur humain est à l’origine de 70% à 80 % des cas d’accidents dans l’aviation civile ou militaire (O’Hare et al., 1994; Wiegmann et Shappell, 2003). Toutefois, ces statistiques, bien que discutées (Woods et al., 1994), ont motivé un nombre important d’études en facteurs humains depuis les années quatre-vingt qui ont permis d’améliorer la sécurité en général (Baker et al., 2008). L’objet de ce travail de recherche est d’apporter une contribution théorique et pratique à la problématique de l’erreur humaine. Cette contribution s’inscrit dans les thèmes précis de la prédiction de la dégradation de la performance des opérateurs humains et de la définition de moyens d’assistance. Modéliser in situ l’erreur humaine et estimer ses conséquences sur l’activité des opérateurs est une tâche pour le moins complexe et hasardeuse. Une posture raisonnable consiste à identifier des situations ou scénarios qui font émerger des comportements stéréotypés à l’origine d’accidents. Ainsi l’Inrets (Institut national de recherche sur les transports et leur sécurité) partant du constat de l’existence d’invariants dans les accidents (Van Eslande et al., 1997; Van Eslande, 2001), postule que le comportement des automobilistes est essentiellement conditionné par les infrastructures routières (longueur de la ligne droite, implantation du carrefour, emplacement de la signalisation, courbure de la route, visibilité...) Par ailleurs, Wanner et Wanner (1999), en faisant rejouer en simulateur des scénarios connus d’accidents aériens à des équipages de compagnie, montrent que leur comportement est convergent, ce qui les amène quasi mécaniquement à commettre les mêmes erreurs qui les conduisent au même type d’accident. La revue d’accidents tant militaires que civils indique également que l’apparition de situations psychologiques particulières comme les conflits est un précurseur remarquable d’erreurs humaines (Pritchett et Hansman, 1997; Song et Kuchar, 2001) : ceux-ci peuvent se produire par exemple entre l’équipage et le contrôle aérien (Air Philippines, avril 99), entre l’homme et les systèmes embarqués (collision aérienne entre un Tupolev 154 et un boeing 757, juillet 2002), ou encore dans la compréhension des procédures de vol (Crossair, janvier 2000). Dans cette logique, la question à laquelle nous nous efforçons de répondre est de déterminer si le conflit est un concept pertinent pour la sécurité des systèmes à risques. Or, l’étude approfondie du conflit, pourtant délaissée à tort par de nombreux auteurs (Le Marc, 1999), se révèle riche et trouve ici des applications dans deux domaines principaux : les interactions pilote-avion et les interactions opérateur-robot. Ces problématiques sont au cœur de l’activité de recherche en facteurs humains que nous avons créée à l’Isae, consolidée par les embauches 3 récentes d’un chercheur et d’un ingénieur de laboratoire. L’approche suivie pour étudier ce concept est celle de la transdisciplinarité et de la pluridisciplinarité. Transdisciplinarité tout d’abord, car le conflit est un concept transversal qui a des fondements formels, neurobiologiques, psychologiques et sociologiques. Pluridisciplinarité ensuite, car pour l’identifier et le résoudre nous utilisons des méthodes et des outils formels mais aussi des théories de la psychologie cognitive. Ainsi ce manuscrit est organisé en trois chapitres qui proposent d’observer et d’étudier ce concept de conflit à travers un prisme pluridisciplinaire. Dans le premier chapitre, nous intéressons aux aspects structurels du conflit, en mettant en œuvre des moyens formels pour le détecter. Dans le deuxième chapitre nous nous attachons à étudier les effets du conflit sur la performance humaine et à définir des moyens adaptés et automatisés pour le résoudre. Enfin dans un dernier chapitre, nous introduisons l’approche originale de la neuroergonomie pour comprendre certains mécanismes neurocognitifs sous-jacents au conflit. 4 Chapitre 1 Conflits Guide de lecture. Dans ce chapitre, nous montrons par une approche théorique et conceptuelle l’intérêt d’étudier le conflit en ergonomie. En particulier, son apparition est synonyme de dégradation de la performance des opérateurs humains. Après une revue de ce concept à travers diverses disciplines, nous proposons une définition générique du conflit pour les facteurs humains. Nous mettons en œuvre notre approche du conflit dans le cadre d’une application aéronautique pour détecter son apparition dans les interactions équipage - pilote automatique. 1.1 1.1.1 PRÉAMBULE : DE LA NÉCESSITÉ DU CONFLIT Les limites du concept d’erreur humaine Classiquement, la mesure et la prédiction de la performance des interactions opérateurs - systèmes repose sur la détection d’écarts entre l’activité réelle des opérateurs et la tâche attendue (Leplat, 1985). Ainsi de nombreuses approches formelles sont proposées (Lesire et Tessier, 2005; Callantine, 2002; Steinfeld et al., 2006) où l’activité réelle, reconstituée dynamiquement à partir des données comportementales des opérateurs (i.e. actions sur les interfaces de pilotage), est comparée à une base de données qui représente les procédures de référence. Or ces méthodes comportent des limites. Cela tient principalement à deux problèmes épistémologiques auxquels se heurte l’étude de l’erreur (Dehais, 2004) : celui de son existence, et celui de son statut. En effet, la formalisation de l’erreur est hasardeuse puisque la notion de norme à laquelle elle se rattache n’est pas universelle. En ergonomie, il est reconnu que les opérateurs redéfinissent les normes pour trouver de nouvelles procédures, plus efficaces et plus sûres (Dekker, 2003). La survenue d’une erreur ne conduit pas nécessairement à la dégradation des interactions homme-système. Par exemple, les opérateurs (ex : pilote, conducteur de trains) commettent immanquablement des erreurs mais en récupèrent la plupart (Rizzo et al., 1987). Cette production-détection-récupération de l’erreur constitue un véritable trait d’expertise (Allwood, 1984). Il est également largement reconnu que l’apprivoisement de l’erreur est un processus intrinsèque dans l’apprentissage de connaissances (Giroud-Fliegner, 2001). Enfin, l’erreur est un moyen important dans l’auto-évaluation de sa performance : c’est au regard de ses erreurs que l’on peut estimer si une connaissance est apprise, comprise. Dans le domaine de la conduite (conduite automobile, pilotage d’avion...), le nombre d’erreurs commises joue un rôle de feedback et permet d’estimer sa performance (ex : fatigue) (Wioland, 1997). Il est à noter toutefois que l’usage de techniques d’apprentissage 5 formelles semblent prometteuses pour tenir compte de ces caractéristiques particulières de l’erreur humaine (Vanderhaegen et al., 2011; Vanderhaegen, 2010). 1.1.2 Le conflit : une approche complémentaire à l’étude de l’erreur humaine Nous cherchons à définir une méthode et des outils pour identifier des précurseurs de la dégradation de l’activité de pilotage et à mettre en oeuvre des moyens pour empêcher la déterioration des interactions pilote-système. Mais au regard de ce que nous avons rapporté jusqu’ici, nous sommes en mesure de nous demander si la modélisation de l’erreur constitue une approche suffisante pour rendre compte de l’état de dysfonctionnement d’un système hommes-machines. Au contraire, le concept de conflit particulièrement étudié en psychologie sociale (Le Marc, 1999; Simmel, 2003) montre que sa présence est révélatrice d’une dynamique de tension et d’opposition au sein d’un groupe d’individus en interaction. En intelligence artificielle distribuée (IAD), son apparition permet de diagnostiquer un état de dysfonctionnement dans les interactions entre les agents artificiels (Dehais et Pasquier, 2000). Une objection pourrait être de considérer le point de vue de Simmel (2003) sur le rôle positif et finalement cristallisateur de ces conflits. Sans le nier, il faut pourtant considérer que ce mécanisme positif est un processus à long terme, qui se réalise une fois les tensions apaisées, une fois les crimes pardonnés, une fois la paix faite avec l’ennemi, comme le suggèrent les travaux de Sherif et Sherif (1953). En revanche à court terme, le conflit engendre des comportements tels que l’inhibition (Lewin et al., 1939), l’agressivité (Sherif et Sherif, 1953), l’exclusion, l’incompréhension (Simmel, 2003). Ensuite, d’un point de vue formel, ce concept est plus intéressant que l’erreur : il ne se rapporte pas systématiquement à un référentiel. Le conflit peut effectivement être relatif à une norme et en ce sens on se retrouve confronté aux mêmes problèmes rencontrés avec l’étude de l’erreur. Mais il peut exister dans l’absolu en dehors de toute morale, ou de toute vérité : son essence est la contradiction (Castelfranchi, 2000), la différence entre deux points de vue (Chaudron et al., 2000). Ainsi, il apparaît possible de le détecter en se concentrant sur l’analyse de phénomènes d’opposition, d’interférence ou d’incohérences comportementales entre plusieurs agents. 1.2 VERS UNE DÉFINITION DU CONFLIT La notion de conflit jouit d’un intérêt considérable dans de nombreuses disciplines puisqu’on le retrouve en psychologie, en psychanalyse (conflit oedipien), en sociologie et en sciences politiques (conflits sociaux), en géostratégie (conflit ethnique), en intelligence artificielle (conflit de ressource), en neurosciences... Cependant, lorsqu’on s’intéresse à la littérature sur ce concept transversal, on constate qu’il n’a pas de véritable identité formelle et que la confusion est souvent présente. Par exemple, au sens commun, le conflit est défini par la “Rencontre d’éléments, de sentiments contraires ou qui s’opposent” (Petit Robert) ; le “Choc de gens qui en viennent aux mains” (Littré) ; les “Actions, idées, intérêts ou personnes opposés ou en compétition” (Encyclopédie Britannica). La dérive sur l’utilisation de ce concept est la conséquence première de l’ambiguïté entre le conflit per se et sa résolution : la guerre n’est pas le conflit, mais une technique de résolution du conflit au même titre que la négociation, le compromis... Ensuite les enjeux particuliers de chaque discipline font que chacun apporte sa vision du conflit en fonction de ses objectifs, comme en intelligence artificielle où le conflit est la plupart du temps assimilé au dysfonctionnement. Synonyme d’échec, on s’intéresse plus à le résoudre ou à l’éviter qu’à le comprendre ou en tirer profit. 1.2.1 Conflit en psychologie sociale, intelligence artificielle distribuée (IAD), en neurosciences et ergonomie En psychologie sociale, une définition communément admise propose qu’il y ait “conflit lorsqu’une décision ne peut être prise par les procédures habituelles” (March et Simon, 1958). Pour Thomas 6 (1976), le conflit se produit lorsqu’un groupe d’agents se sent en état de frustration vis-à-vis d’un autre groupe. Coombs et Avrunin (1988) insistent sur le fait qu’un conflit se caractérise par une opposition entre deux réponses comportementales. En neurosciences cognitives, l’étude du conflit fait également l’objet de nombreux travaux (Botvinick et al., 2001; Allport, 1987) notamment à travers l’utilisation de matériaux expérimentaux tels que la tâche de Flanker (Eriksen et Eriksen, 1974) ou le test de Stroop (Stroop, 1935). Une bonne illustration de cette problématique est proposée par Mozer et Sitton (1998, p. 342) : “On peut concevoir le traitement de l’information ... comme se produisant le long d’une certaine voie neuronale. Si les voies de traitement pour deux stimuli ne se recouvrent pas, alors le traitement peut avoir lieu en parallèle. Mais si les voies partagent des ressources communes ou “hardware” les stimuli vont interagir en interférant l’un avec l’autre (p. 342)”. En IAD, le conflit est la plupart du temps assimilé à la notion d’incohérence logique (Müller et Dieng, 2000; Castelfranchi, 2000). Il est presque toujours considéré comme une entrave sur le chemin de la solution émergente. C’est une des conséquences de l’orientation applicative (tournée vers l’efficacité) d’une majorité de projets du domaine. Par exemple, dans les systèmes coopératifs, le conflit est vu comme une des situations non-coopératives (Camps, 1998). Cette définition par ombrage se retrouve dans nombre des approches du conflit. Enfin, dans le domaine des interactions hommes-systèmes, le concept de conflit est considéré sans être vraiment défini ou alors, comme en IAD, de manière ad hoc. L’ergonomie, et surtout l’ergonomie de conception, cherche avant tout à optimiser les interactions entre les opérateurs et leurs interfaces. Par conséquent, les travaux s’orientent essentiellement sur la définition de systèmes coopératifs (Hoc, 2001; Pavard et Dugdale, 2000; Amalberti et Deblon, 1992) en mettant en oeuvre des moyens et des outils de dialogue et d’assistance pour éviter l’apparition de conflits (Leroux, 1997). On distingue toutefois les conflits entre systèmes d’alerte (Song et Kuchar, 2001), les conflits dans l’exécution de la tâche de l’opérateur, le conflit entre opérateur et systèmes automatisés appelés “surprise de l’automatisation” (“automation surprise” en anglais) (Sarter et al., 1997), ou encore le conflit entre avions dans le contrôle aérien. Ce type de conflit est sans doute le plus étudié si l’on considère l’imposante documentation scientifique dans le cadre du contrôle aérien (Kuchar et Yang, 2000). Il est aussi celui qui est le mieux formalisé, du fait que ce type de conflit met en jeu des grandeurs objectives que sont les distances entre aéronefs. 1.2.2 Notion d’incohérence et d’engagement dans un but Une approche pour unifier l’ensemble des assertions précédentes est de considérer que le conflit est un état d’incohérence qui relève soit d’une contradiction au sein des connaissances portées par le ou les agents, soit d’une insuffisance de ressource. Toutefois cette vision issue de l’IAD est réductrice : il est reconnu que l’apparition d’incohérences ne devient conflictuelle que si elle remet en cause la réalisation d’une tâche (Song et Kuchar, 2001; Castelfranchi, 2000; Putnam et Poole, 1987) 1 . En ce sens, Easterbrook (1991) insiste sur la notion du degré d’importance d’une incohérence et de ses conséquences sur la réalisation d’un but. Ce point de vue a souvent été repris dans le domaine des facteurs humains où l’impossibilité d’atteindre un but (ex : décoller, atterrir, éviter une collision ...) est une hypothèse implicite du conflit. Néanmoins, cette acception du conflit qui relie cause (i.e. incohérence) et conséquence (i.e. but non atteignable) induit des problèmes de modélisation. Cela présuppose de connaitre les buts des agents et de mesurer les effets de l’apparition d’incohérences sur la réalisation de ces buts, ce qui ne peut être souvent réalisé qu’a posteriori comme pour l’erreur humaine. Dans le cadre des facteurs humains, on peut néanmoins poser l’hypothèse qu’un opérateur est nécessairement engagé dans une 1. Par exemple, l’apparition du stimulus “VERT ” peut produire un effet de conflit lorsqu’il est explicitement demandé d’énoncer la couleur de l’encre. En l’absence de tâche ou de consigne, la lecture de ce mot ne présente aucune difficulté particulière. 7 tâche et qu’il se trouve en conflit dès qu’il fait face à des incohérences dans son interaction avec son interface ou d’autres opérateurs. Dans ce domaine, on peut relever deux familles d’incohérences qui peuvent conduire au conflit : – les paramètres ou les informations sont contradictoires : l’interface utilisateur affiche des données incompatibles (Orasanu et Martin, 1998; Song et Kuchar, 2001), les procédures ne sont pas conciliables (Woods et al., 1994), les objectifs sécuritaires et de performance (respecter les horaires, économie de carburant...) sont en opposition (Loukopoulos et al., 2001; Degani et Wiener, 1997; Orasanu et Martin, 1998), – les ressources sont limitées : les actions d’un autre agent interfèrent (Castelfranchi, 2000) (ex : le pilote automatique refuse ou modifie les valeurs que l’équipage a entrées via son interface, la piste est utilisée par un autre avion) , les ressources physiques (ex : carburant, calculateur) et cognitives sont saturées (Mozer et Sitton, 1998; Keyser, 1996; Loukopoulos et al., 2001), l’opérateur humain dispose de modèles mentaux incomplets (Woods et Sarter, 2000; Besnard et al., 2004). Par exemple, dans l’accident d’Uberlingen, l’équipage a reçu des ordres incohérents entre monter et descendre provenant respectivement de son système d’anticollision et du contrôleur aérien (Nunes et Laursen, 2004) 2 . Il n’est pas nécessaire de connaître le ou les buts des pilotes pour estimer que les conséquences de cette contradiction étaient critiques et ont pu empécher de réaliser la manoeuvre d’évitement. L’ensemble de ces réflexions nous amène à poser la définition suivante : DEFINITION Conflit Un conflit est un état incohérent où pendant un intervalle de temps : – au moins une ressource limitée ou non partageable est l’objet d’une compétition ou ; – au moins deux informations sont contradictoires. 1.3 MODÉLISATION DES CONFLITS : LE CAS DES CONFLITS ENTRE L’OPÉRATEUR ET LES SYSTÈMES AUTOMATIQUES Nous proposons ici une formalisation des conflits opérateurs-systèmes automatiques. Une telle formalisation est envisageable car il est possible de réaliser des mesures de l’état de ces systèmes et des actions des opérateurs sur les interfaces de ces systèmes. L’analyse d’événements aériens montre que de nombreux accidents aériens récents ont eu pour origine un conflit entre l’équipage et les systèmes automatiques capables d’effectuer “en série ou en parallèle de l’opérateur des opérations de tri, de décision, de diagnostic, de conduite et d’action habituellement dévolues à cet opérateur” (Amalberti, 2002). Dans ces situations qualifiées de “surprise de l’automatisation” (Sarter et Woods, 1995; Sarter et al., 1997; Woods et Sarter, 2000), il apparaît que le pilote automatique ne se comporte pas de la manière dont l’équipage se la figure. Ces travaux, réalisés en partenariat avec l’Onera dans le cadre du projet Airbus - Ghost, ont donné lieu à deux brevets (Dehais et al., 2010b; Dehais, 2009) qui sont présentés dans les paragraphes suivants. 1.3.1 Le cas du pilote automatique d’avion de transport La plupart des aéronefs, notamment les avions de transport civil, sont équipés d’un pilote automatique qui permet de contrôler la trajectoire et la vitesse suivant des consignes établies par l’équipage. 2. Au sens strict de March et Simon (1958), il n’y a pas de conflit homme-machine dans cet événement aérien puisqu’il existe une procédure qui stipulait que l’équipage doit toujours suivre les ordres du système d’anticollision et ce quelles que soient les consignes du contrôleur aérien. Pourtant, le stress et le manque d’entraînement à ce type de situations incohérentes ont probablement conduit l’équipage à négliger cette norme et à se sentir dans un véritable état de conflit. 8 Dans leur principe, ces pilotes automatiques modernes sont des automates à états finis ; états qui correspondent à autant de modes de pilotage dans le contrôle du plan vertical (exemple mode ALTITUDE de tenue d’altitude) ou du plan horizontal (exemple mode HEADING de tenue de cap) et de la tenue de vitesse (exemple : mode SPEED de tenue de vitesse). Le passage d’un mode de pilotage à un autre est réalisé, de manière générale, par une action directe de l’équipage sur les interfaces du pilote automatique pour provoquer l’apparition du mode souhaité (exemple : sélection du mode HEADING - d’asservissement en cap - en tirant sur le rotateur idoine). Toutefois l’existence de fortes interactions entre les différents modes de pilotage peut faire : – qu’une simple action sur les interfaces du pilote automatique provoque une cascade de transitions d’états du pilote automatique en ayant des conséquences sur le contrôle vertical, horizontal et la tenue de la vitesse de l’aéronef ; – que des actions des pilotes sur des commandes de pilotage autres que celles du pilote automatique (ex : levier des aérofreins) peuvent également déclencher des transitions de modes de pilotage ; – que des transitions de modes peuvent être déclenchées automatiquement, en dehors de toute action de l’équipage, pour protéger l’avion contre les sorties de domaine de vol (ex : survitesse ou sous-vitesse). La compréhension et l’utilisation d’un pilote automatique nécessitent que les pilotes maîtrisent parfaitement toutes les conditions de déclenchement des transitions des modes de pilotage (il existe par exemple 268 transitions de modes sur le pilote automatique de l’airbus A340 200/300). Or, des travaux de recherche (Crow et al., 2000; Javaux et Olivier, 2000) révèlent que les équipages méconnaissent l’étendue de ces transitions d’états et peinent à anticiper le déclenchement de certaines transitions notamment dans les trois cas précités. En particulier, ces recherches montrent deux familles types de conflits entre les équipages et le pilote automatique : – soit les équipages se rendent compte que l’automatisme effectue des actions non demandées mais ne comprennent pas le comportement du pilote automatique et ne connaissent pas la procédure à appliquer pour retourner dans l’état souhaité ; – soit le pilote automatique n’effectue pas une action à laquelle l’équipage s’attend. Ces situations peuvent être considérées comme conflictuelles puisques les pilotes perçoivent et doivent traiter un état d’incohérence entre leurs actions sur les interfaces du pilote automatique et le comportement réel de l’avion. De plus, l’équipage et les automatismes se partagent une ressource commune : les organes de conduite du vol. Dès lors, un enjeu consiste à mettre en œuvre des outils de détection et de résolution des conflits par une démarche de formalisation. 1.3.2 La détection du conflit Les méthodes formelles ont pour objet d’étude la modélisation, l’analyse et la vérification de la cohérence du comportement des systèmes. Les automates à états finis sont très souvent utilisés et se trouvent particulièrement adaptés à la modélisation du fonctionnement du pilote automatique puisque son comportement est connu et déterministe (Crow et al., 2000). Ainsi, des auteurs (Leveson et Palmer, 1997; Butler et al., 1998) ont utilisé une telle approche pour examiner la conception d’un pilote automatique et sa tolérance aux erreurs humaines. Rushby (2002) applique les automates à états finis pour représenter d’une part le fonctionnement du pilote automatique et d’autre part les modèles mentaux que l’opérateur se construit sur la logique du pilote automatique, en vue de détecter des conflits potentiels. Rushby et al. (1999) ont montré que ce formalisme permettait de décrire et prédire des conflits avec le pilote automatique d’un MD80. Notre approche se distingue des travaux précédents dans le sens où la modélisation est générique et ne vise pas à représenter les conflits au cas par cas. Par ailleurs, nous ne formulons pas d’hypothèses de modèles mentaux pour représenter les connaissances imparfaites de l’équipage sur la logique du pilote automatique (Crow et al., 2000). Cette position éliminativiste repose sur le fait que la variabilité inter individuelle de ces modèles mentaux est 9 un frein à la formalisation. Au contraire, nous proposons de modéliser le fonctionnement du “système avion” composé de l’équipage et des automatismes de pilotage sur des faits objectifs et observables. Détection formelle du conflit Notre approche se veut générique pour éviter une modélisation ad hoc de chaque situation conflictuelle. Or, l’analyse des 2 familles de conflits évoquées précemment (c.f. section 1.3.1) montre que celles-ci présentent un dénominateur commun : des changements de modes sont induits par un événement du système sans qu’ils soient directement commandés par l’équipage qui ne les perçoit ou ne les comprend pas. En effet, si l’on considère le fonctionnement du pilote automatique (c.f. figure 1.3.1), tout changement de mode est soit provoqué par un événement - ou action - du pilote soit par un événement du système pour réguler le comportement du pilote automatique. Ces derniers événements ont pour objet d’éviter une sortie de domaine de vol (i.e. éviter la survitesse ou la sous vitesse), de prendre la main pendant certaines phases de vol ou de rendre au contraire la main pour que le pilote gère une situation à laquelle le pilote automatique ne peut faire face. Ainsi ces prises ou ces restitutions d’autorité du système sur l’équipage constituent bien des situations conflictuelles : elles interfèrent avec le but initialement souhaité par l’équipage. Figure 1.3.1 Une analyse fine du fonctionnement du pilote automatique montre qu’il existe plusieurs chemins ou transitions possibles pour passer d’un mode à un autre. Ces transitions peuvent être tirées soient par un événement pilote (ex : action sur l’interface) - notée TP ilote - soient par un événement système - notée TP A . Dans la figure de gauche, l’état du pilote automatique (noté "PA") et celui du pilote sont identiques : les deux agents ne sont pas en conflit. Dans la figure de droite, une survitesse déclenche un événement système qui déconnecte le pilote automatique pour rendre la main au pilote. La représentation simplifiée, à l’aide des réseaux de Petri, montre que l’état du pilote automatique (PA OFF - pilote automatique déconnecté, place marquée en bas à gauche) diffère de l’état du pilote (PA ON - pilote automatique connecté, place marquée en haut à droite) et provoque un conflit entre ces deux agents : le réseau de Petri est bloqué car la transition TP ilote ne peut plus être tirée. Ce type de situation est à l’origine d’incidents graves où les équipages n’ont pas perçu une telle déconnexion : plus personne ne pilote l’avion (Mumaw et al., 2001). 1.3.3 Mise en oeuvre dans le simulateur de l’Isae La détection de conflits présuppose de disposer de moyens de suivi de situation pour surveiller conjointement les actions de l’opérateur (ex : reconnaissance d’actions et de procédures) et l’état du système (ex : alertes). Une extension du formalisme des réseaux de Petri (Lesire et Tessier, 2005) a été proposée dans le cadre de la thèse de Charles Lesire (2006) par l’utilisation de réseaux de Petri hybrides. L’intérêt majeur de ces travaux consiste d’une part à intégrer dans la modélisation des données discrètes (ex : action du pilote sur l’interface) mais aussi des données numériques pour 10 représenter les paramètres continus (ex : vitesse, altitude...) D’autre part, ces réseaux présentent des propriétés de prédiction qui sont utilisées pour anticiper l’apparition d’un conflit et en prédire les conséquences sur la sécurité du vol. Ainsi, lorsqu’un conflit est prédit, les réseaux hybrides de suivi de situation visent à estimer les futurs états du système “autopilote-pilote” et en particulier si ceux-ci évoluent vers un des cinq événements graves : – sortie de domaine de vol de l’avion ; – changement de niveau de vol ; – risque d’abordage ou de collision avec le sol ; – configuration (train, volets) incohérente avec la phase de vol ; – état de carburant incompatible avec le plan de vol. Une mise en oeuvre du principe de détection de conflits a été réalisée à l’aide des logiciels Exhost PIPE (Bonnet-Torrès et al., 2006) qui dialogue d’un point de vue informatique avec le simulateur de vol de l’Isae (c.f. figure 1.3.2). Figure 1.3.2 Le système de détection de conflits et d’assistance à l’équipage : le simulateur est connecté, par le biais d’une interface en C++, à Exhost PIPE, un logiciel de réseaux de Petri hybrides développé par C. Lesire durant sa thèse (Bonnet-Torrès et al., 2006). Exhost Pipe reçoit en entrée des paramètres discrets (ex : actions pilote) et continus (ex : vitesse verticale de l’avion) du simulateur à partir desquels il peut prédire l’apparition de conflit dans les interactions pilote-pilote automatique (Lesire, 2006; Dehais et al., 2005a). Une expérimentation a été réalisée dans le simulateur de l’Isae pour tester la capacité de nos outils à détecter mais surtout à anticiper l’apparition et les conséquences de conflits sur la conduite du vol (Dehais et al., 2005a; Lesire, 2006). Plusieurs scénarios ont été proposés tels le cas de “réversion de mode” où le pilote automatique prend l’initiative de faire monter l’avion en cas de survitesse alors que le pilote a programmé une mise en palier (c.f. figure 1.3.3) 11 Figure 1.3.3 Scénario de "réversion de mode" : (1) l’avion est en montée en plein puissance (mode Climb) ; (2) suite à un ordre du contrôleur aérien, le pilote effectue une mise en palier (mode Level Off - Vertical Speed nulle). (3) Si l’avion se retrouve dans des conditions aérologiques défavorables (ex : forte rafale de vent), sa vitesse se rapproche des limites autorisées. Dans ce dernier cas (4), le pilote automatique prend l’initiative de faire monter l’avion pour éviter une survitesse et fait basculer à nouveau l’avion en mode Climb. Un conflit se produit et peut conduire à une collision avec un avion évoluant au-dessus (Lesire, 2006; Dehais et al., 2005a). Des équations différentielles issues de la mécanique du vol ont été utilisées pour estimer l’évolution future de variables telles que la vitesse, l’altitude ou encore la vitesse verticale de l’avion (c.f. figures 1.3.4 et 1.3.5). Les estimations sur ces variables pertinentes permettent de prédire les états futurs du pilote automatique et d’anticiper en particulier si une survitesse va modifier l’état du pilote automatique. L’intérêt de cette approche est pouvoir prédire mais également identifier les événements à l’origine du conflit en analysant l’historique des transitions d’état qui ont conduit à la situation. Il est ainsi possible de générer automatiquement une explication du conflit dans les interfaces de pilotage pour aider l’équipage à comprendre la situation et le comportement possible du pilote automatique. Enfin, ces travaux permettent de montrer que la détection de conflits ne nécessite pas de connaître l’ensemble des normes ou des procédures comme c’est le cas pour la détection d’erreur humaine. 12 Figure 1.3.4 Conflit pilote-pilote automatique dans le scénario de "réversion de mode" : la courbe bleue montre les prédictions réalisées par Exhost PIPE sur l’altitude (z) de l’avion. Les deux courbes vertes représentent l’état du réseau de Petri sous-jacent. La courbe verte supérieure figure les actions du pilote sur le pilote automatique (PA) : à l’instant 40, le pilote interrompt la montée (Pilote : Montée) en ordonnant une mise en palier (Pilote : Palier). La courbe verte inférieure montre l’état du PA (palier ou montée) et l’énergie de l’avion (accélération, décélération). Une première incohérence (en rouge) est prédite au temps 40 au moment où le pilote programme la mise en palier. Cette incohérence est due à un léger retard entre la consigne du pilote et la réponse de l’avion. En revanche, l’incohérence qui est prédite à l’instant 53 représente un réel conflit dans l’activité de pilotage détecté : l’avion n’arrive pas à décélerer ce qui conduit le PA à déclencher une montée au temps 62 (courbe verte du bas - PA : Montée) alors que le pilote croit être toujours en palier (courbe verte du haut - Pilote : Palier). La courbe bleue montre bien que l’altitude augmente au lieu de rester stable. (Lesire, 2006; Dehais et al., 2005a). Figure 1.3.5 Absence de conflit pilote-pilote automatique dans le scénario de "réversion de mode" : comme pour le cas précédent , une première incohérence sans conséquence est prédite au temps 22. Une nouvelle incohérence potentiellement dangereuse est détectée à l’instant 36, mais cesse à l’instant 39, dès que le comportement de l’avion est redevenu cohérent : dans ce cas, la survitesse a été évitée de peu et le PA reste finalement dans l’état palier (courbe verte du bas - PA : Palier), comme cela avait été ordonné par le pilote (courbe verte du haut - Pilote : Palier). La courbe bleue montre bien que l’altitude est maintenue. (Lesire, 2006; Dehais et al., 2005a). 13 1.4 CONCLUSION L’apparition de conflits, en particulier lorsqu’ils se produisent dans des activités à risque, représente un réel facteur de remise en cause de la sécurité. L’analyse du conflit est un moyen complémentaire à l’étude de l’erreur humaine pour prédire la dégradation des interactions homme-machine. Dans ce chapitre nous nous sommes efforcés d’en proposer une définition. Le point de vue défendu est que le conflit se produit lorsqu’un agent ou un groupe d’agents est engagé dans un état d’incohérence. Nous avons proposé une méthode générique de détection de conflits appliquée à l’aéronautique. Cette méthode évite les écueils d’une modélisation ad hoc et tend à confirmer le bien-fondé de s’intéresser au concept de conflit : sa formalisation est relativement simple, dans la mesure où il est possible d’observer que le pilote automatique interfère avec les commandes de haut niveau de l’opérateur. Ensuite, des équations différentielles sont utilisées pour essayer d’anticiper l’apparition de ces conflits et d’en prédire les conséquences sur la conduite du vol et sa sécurité. D’une manière générale, l’approche formelle présente un intérêt indéniable pour la psychologie cognitive et l’ergonomie. Elle impose un effort de modélisation qui aide à structurer les concepts manipulés. Cette approche ne constitue cependant qu’une première étape dans notre étude du conflit. En effet, un enjeu important est de pouvoir mettre en œuvre des moyens pour adapter l’interaction en temps réel pour assister les opérateurs en situation de conflit. L’objet du chapitre suivant est justement de réaliser des expérimentations dans une situation écologique (pilotage d’un robot) pour mesurer l’impact du conflit sur les processus attentionnels afin d’envisager des contre-mesures adaptées. Des méthodes formelles sont également proposées pour représenter l’état cognitif de l’opérateur humain et pour adapter dynamiquement l’interaction au sein du système. 14 Chapitre 2 Vers une résolution du conflit Guide de lecture. Dans ce chapitre, nous cherchons à montrer par une approche théorique et expérimentale que le conflit est un précurseur remarquable de la dégradation de la performance humaine. Son apparition conduit les opérateurs à persister dans des décisions erronées et diminue leur capacité attentionnelle. Des contre-mesures cognitives, reposant sur le principe du retrait d’information, semblent être efficaces pour contrer les effets du conflit. Des techniques d’inférence sont ensuite utilisées pour estimer a posteriori le degré de focalisation attentionnelle d’un opérateur humain. Enfin, nous posons les bases formelles d’un contrôleur de la dynamique de l’autorité dont le rôle est d’adapter l’interaction à partir de l’état des ressources globales du système homme-machine. 2.1 PRÉAMBULE : LE CONFLIT, UN PRÉCURSEUR DE LA DÉGRADATION DE LA PERFORMANCE Le chapitre précédent a montré que les propriétés structurelles du conflit peuvent conduire logiquement au blocage des interactions homme-machine. Mais le concept de conflit ne se réduit pas seulement à ses aspects formels, il possède également des attributs psychologiques et affectifs. En ergonomie cognitive, l’analyse de rapports d’accidents aériens (Dehais et al., 2003, 2010c) et des expérimentations réalisées en simulateur de vol montrent que l’apparition d’un conflit dans la gestion du vol est un précurseur remarquable de la dégradation de la performance des opérateurs humains. En particulier, ces travaux indiquent une tendance des pilotes à s’attacher à la résolution du problème initial, au détriment de la surveillance des paramètres vitaux de l’appareil, et ce en dépit des alarmes auditives et visuelles présentes dans le cockpit. Cette rupture de coopération entre l’opérateur et ses interfaces peut conduire à des accidents alors que l’aéronef est en parfait état de vol mais que l’équipage persiste à résoudre un conflit mineur (Billings, 1996) “au lieu d’envisager d’autres moyens plus directs pour accomplir leur but de navigation” (Woods et Sarter, 2000, p. 347) et ce malgré des alarmes sonores pressantes (Beringer et Harris, 1999). De telles situations critiques ne relèvent pas uniquement de l’aéronautique mais se retrouvent dans le domaine de la supervision d’engins autonomes (ex : drone) où une mauvaise conception du partage d’autorité (Inagaki, 2003) peut créer des conflits avec l’opérateur humain et dégrader sa performance (Parasuraman et Wickens, 2008; Van Ginkel et al., 2006). Ainsi, certains auteurs (Rice, 2009; Meyer, 2001) ont étudié les notions de confiance et de fiabilité des systèmes d’assistance à l’opérateur. Il ressort qu’une fiabilité impar15 faite et une mauvaise confiance dans ces systèmes est à même de provoquer des conflits qui ont des conséquences négatives sur les ressources attentionnelles de l’opérateur (Wickens et al., 2005) ainsi que sur sa performance globale (Dixon et al., 2007; Wickens et Dixon, 2007). Il est alors intéressant de constater que dans l’ensemble des situations décrites, le conflit n’est pas la cause directe d’accidents mais c’est bien son apparition qui va perturber l’opérateur humain en catalysant une gestion erronée de la situation. L’étude approfondie de ce concept par une approche expérimentale se révèle nécessaire pour mesurer les effets du conflits et définir des solutions pour aider les opérateurs à y faire face. Ainsi dans ce chapitre nous réalisons une première expérimentation pour tenter de montrer que le conflit induit des comportements de persistance dans l’erreur et dégrade les capacités attentionnelles des opérateurs. Dès lors un enjeu est de définir et de tester, dans une seconde expérimentation, des contre-mesures cognitives pour aider l’opérateur à faire face aux effets délétères du conflit sur sa performance. Néanmoins la mise en œuvre d’une telle solution dans un contexte opérationnel présuppose de se doter de moyens de diagnostic automatisé pour détecter la dégradation de la performance de l’opérateur. Ces travaux formels, réalisés en collaboration avec l’Onera-DCSD, consistent à multiplier les mesures sur le système homme-machine et à les agréger pour décider d’adapter et de redistribuer le rôle et l’autorité des agents humains et artificiels 2.2 2.2.1 APPROCHE EXPÉRIMENTALE DU CONFLIT Expérimentation 1 : conflit dans les interactions opérateur - robot Afin d’évaluer précisément l’impact du conflit sur le comportement cognitif d’un opérateur humain, une expérimentation a été réalisée dans un environnement robotique 1 constitué d’un robot terrestre autonome, d’une station sol de pilotage et de supervision ainsi que d’une interface de magicien d’Oz pour déclencher des aléas (c.f. figure 2.2.1). Figure 2.2.1 L’image de gauche montre le robot développé par l’ISAE. L’image de droite représente l’interface de supervision et de pilotage du robot. Les parties critiques de l’interface sont numérotées : (1) écran de la vidéo panoramique, (2) synoptique, (3) carte Google tactique, (4) panneau de dialogue, (5) états du GPS, des ultrasons et de la batterie, (6) mode de pilotage du robot (Dehais et al., In press : 2011).) 1. Les études présentées dans cette section ont été financées par la MRIS (Mission pour la Recherche et l’Innovation Scientifique - DGA) 16 Le scénario opérationnel consiste en une mission d’identification d’une cible (Dehais et al., In press : 2011). Dans cette mission (c.f. figure 2.2.2), le robot rejoint en mode supervisé une zone de recherche, dans laquelle il effectue un balayage. Lorsque le robot a détecté la présence de la cible, il rend la main à l’opérateur humain pour que celui-ci l’identifie. Afin de provoquer un conflit, une chute de tension de la batterie du robot se produit (aléa déclenché par le magicien d’Oz) au moment où l’opérateur prend en main le robot pour identifier la cible. Cet aléa conduit le robot a une prise d’autorité qui interrompt la mission pour retourner à la base en mode supervisé. Cet événement est perceptible pour l’opérateur sur son interface à l’aide de plusieurs alertes visuelles. Or, comme cet aléa se produit à un moment où l’opérateur est particulièrement focalisé sur sa tâche d’identification, il est attendu qu’il ne perçoive pas ces changements d’état et que chaque agent - opérateur et robot - s’entête à poursuivre son but (retrouver la cible vs. retour base). Ainsi, la mission se déroule en 4 segments : S1 “aller sur zone” en mode autonome, S2 “rechercher cible” en mode autonome, S3 “identifier cible” en mode manuel et S4 “conflit”. Figure 2.2.2 La mission opérationnelle : les opérateurs sont placés dans une salle fermée sans contact visuel avec le robot qui évolue sur le terrain. Lorsque le robot détecte une cible, l’opérateur prend le contrôle pour l’identifier mais à ce moment là le magicien d’Oz déclenche une panne de batterie. Un conflit se produit alors entre l’opérateur (rester "sur zone" pour continuer l’identification) et le robot (rentrer le plus rapidement à la base) (Dehais et al., In press : 2011). Treize volontaires ont participé à l’expérimentation : l’analyse des effets du conflit porte sur la prise de décision des participants au moment de la panne ainsi que sur l’analyse de leur comportement oculaire et cardiaque. 17 Résultat 1 : Conflit et comportement de persistance dans l’erreur Les résultats comportementaux ont montré que le conflit a conduit 9 participants sur 13 à persévérer à tort dans la tâche d’identification de la cible en dépit des alertes visuelles affichées sur l’interface utilisateur. Le comportement particulier du robot, qui se dirigeait vers la base, a provoqué des situations typiques de “surprise d’automatisation” (Sarter et Woods, 1995; Sarter et al., 1997; Woods et Sarter, 2000) qui ont conduit les sujets à se “battre” avec le joystick pour rapprocher le robot de la cible. Seulement 4 participants ont perçu et compris l’origine du conflit en décidant rapidement de laisser revenir le robot vers sa base. Ce type de comportement où les opérateurs s’enferrent dans des décisions erronées a été particulièrement décrit en aéronautique (Rhoda et Pawlak, 1999) à travers les concepts de “Sunk Cost Effect” (O’Hare et Smitheram, 1995) ou de “plan continuation error” PCE (Burian et al., 2000). Selon ces concepts, le pilote effectue une série d’actions et conserve la décision d’atterrir même s’il doit pour cela violer un certain nombre de règles de sécurité, simplement parce qu’il possède un plan de vol qu’il veut mener à son terme, ce qui biaise les prises de décision en faveur de la finalisation de l’action initialement programmée. Des auteurs avancent avec le concept d” ’erreurs de fixation” (Keyser et Woods, 1990) que cette rigidité mentale peut être le résultat d’une incapacité décisionnelle où l’opérateur n’a plus la possibilité d’agir et d’interrompre son but (erreur de type 1), d’une stéréotypie motrice (erreur de type 2) ou d’une obnubilation générale où l’opérateur n’est plus capable d’analyser les changements de l’environnement (erreur de type 3). Dès lors, un point important est de comprendre pourquoi un tel mécanisme de persistance dans l’erreur peut être induit par une situation conflictuelle. Un point de vue est de considérer que le conflit relève d’une impossibilité pour un agent d’atteindre un but important (voir section 2.3). Dès lors, la résolution du conflit impose soit que l’agent révise son but courant (appelée technique de compromis) soit qu’il abandonne définitivement son but (Castelfranchi, 2000). Or, les théories classiques en psychologie sociale (Beauvois et al., 1995; Festinger, 1957; Milgram, 1974) décrivent expérimentalement l’escalade d’engagement, phénomène qui traduit la tendance que manifestent les individus à s’accrocher à leur première décision, même lorsqu’elle celle-ci est clairement remise en cause par les faits. Les auteurs postulent notamment que plus le coût (durée, argent, effort physique ou psychologique) de l’engagement est fort, plus il est difficile de renoncer à un objectif que l’on s’est fixé. Ainsi, dans notre expérimentation, le but d’identification de la cible était particulièrement crucial pour la mission et a probablement incité fortement les participants à s’engager à réussir ce but quel qu’ait été l’état du robot. En aéronautique il est montré que ce type de “fascination pour l’objectif” est responsable de 40% des victimes en aviation légère, alors que la plupart du temps l’aéronef était en parfait état de vol (Bureau Enquête Analyse, 2000). Résultat 2 : Conflit et trouble attentionnel Nous avons examiné trois métriques oculaires durant chaque segment de la mission : le pourcentage de temps passé sur l’écran de la caméra panoramique (c.f. figure 2.2.1), le nombre d’aires d’intérêt (AOI) sur lesquelles se sont opérées des fixations et le taux de transitions oculaires (nombre de saccades entre AOI par minute). Une analyse statistique portée sur les 9 sujets qui ont persévéré, a révélé un effet délétère significatif du conflit sur ces métriques oculaires. En effet, lors de la survenue du conflit, ces 9 participants s’étaient exclusivement concentrés sur la vidéo panoramique (c.f. graphe de gauche - 2.2.3), ils ont scanné moins d’AOI et ont presenté une activité saccadique réduite. De plus, ils n’ont porté aucune fixation sur les alertes qui les informaient du comportement du robot. De même l’analyse des données physiologiques a montré que le rythme cardiaque de ces 9 participants était significativement plus élevé lors de la gestion du conflit en comparaison avec les phases précédentes (c.f. graphe de droite - figure 2.2.3). Cette incapacité à détecter les changements imprévus dans l’environnement, enjeu crucial pour la sécurité, a été décrite dans de nombreux domaines tels que l’automobile (Crundall et al., 1999) et l’aéronautique (Thomas et Wickens, 2004). Différents modèles ont été avancés pour décrire ce 18 Figure 2.2.3 Figure de gauche : Evolution du pourcentage du temps passé sur la vidéo panoramique au cours des quatre segments de la mission : le conflit (S4) a significativement généré le plus important pourcentage de temps de fixation sur la video de toute la mission pour les 9 sujets qui ont persévéré. On remarque que les 4 participants ("non perseverative") qui ont perçu la panne ont passé généralement moins de temps sur cette AOI lors de l’ensemble de la mission (sauf segment S2 - rechercher cible). Figure de droite : Evolution du rythme cardiaque au cours des quatre segments de la mission : le conflit a significativement généré le rythme cardiaque le plus élevé de toute la mission pour les 9 sujets qui ont persévéré. On remarque que les 4 participants qui ont perçu la panne ont eu une activité cardiaque en moyenne plus réduite lors de l’ensemble de la mission que les 9 sujets qui ont persévéré (sauf segment S1 - aller sur zone) (Dehais et al., In press : 2011). Les barres d’erreur représentent l’erreur type (Dehais et al., In press : 2011). phénomène, en mettant en avant soit une dilution du champ visuel utile - théorie de l’interférence générale (Crundall et al., 1999) - soit un rétrécissement du champ visuel utile induit par l’augmentation de la charge fovéale - théorie de la “tunnélisation de la vision” (Williams, 1982, 1985, 1995). Cette dernière terminologie, très perceptive, est souvent critiquée (Thomas et Wickens, 2004; Dirkin et Hancock, 1984) et remplacée par le concept adjacent de “tunnélisation de l’attention” en stipulant que ce mécanisme relève d’une attention sélective. Ce concept de “tunnélisation de l’attention” est défini comme “l’allocation de l’attention vers une information particulière, l’enfermement dans une hypothèse ou la réalisation d’un but pour une durée trop longue au vu du coût de négliger d’autres informations, d’autres hypothèses ou de ne pas réaliser d’autres tâches” (Wickens, 2005). De manière à comprendre l’origine de cette dégradation dans notre expérimentation, une hypothèse est de considérer, comme l’ont montré nos résultats physiologiques (c.f. figure 2.2.3), que le conflit perturbe le bon déroulement de la mission en induisant, à un moment critique, du stress et un accroissement de la charge de travail. Or de nombreux auteurs démontrent que le stress est un facteur particulièrement fort qui induit la “tunnélisation” (Easterbrook, 1959; Weltman et Egstrom, 1966; Bahrick et al., 1952). Plus récemment, des études portant sur l’interaction entre émotion et cognition ont montré que le stress et les émotions peuvent conduire, dans certains cas, à une diminution des ressources attentionnelles (Ellis et Moore, 1999). Il est également intéressant de noter, dans notre expérimentation, que les 4 participants qui n’ont pas persévéré ont eu un rythme cardiaque moins élevé en se montrant moins sensibles au stress avant et pendant la gestion du conflit. De même, ils ont manifesté une activité attentionnelle plus importante en scannant plus de zones et plus régulièrement durant toute la mission. Ces résultats qualitatifs semblent avancer, comme le proposent Thomas et Wickens (2004), que les différences 19 individuelles pourraient permettre de prédire la résistance à la “tunnélisation” et de mieux gérer les conflits cognitifs. 2.2.2 Définition de contre-mesures cognitives Les troubles attentionnels que nous avons identifiés présentent un paradoxe aux concepteurs d’interfaces : comment peut-on espérer sortir les opérateurs de leur “tunnélisation attentionnelle” si les alarmes / systèmes conçus pour les prévenir sont négligés ? Une solution consiste à considérer les modèles attentionnels développés en neuropsychologie. Ainsi Posner et Dehaene (1994) postulent que les processus attentionnels sélectifs sont réalisés par des réseaux attentionnels dits d’alerte, d’orientation, et de contrôle exécutif. Des recherches menées sur des patients traumatisés crâniens suppose que la déficience du réseau d’orientation peut provoquer des négligences visuelles (Posner et al., 1984). De plus, Pecher et al. (2010) ont montré que l’émotion affecterait sélectivement la fonction d’orientation chez des sujets sains. En particulier, ce réseau d’orientation repose sur un mécanisme procédant en trois temps et qui consiste à désengager, déplacer, et réengager l’attention (Posner et Dehaene, 1994). L’expérimentation menée dans un simulateur de vol (Dehais et al., 2003) a suggéré que l’absence de réaction à des alarmes sonores ou visuelles peut être expliquée par une incapacité à dégager l’attention, une hypothèse cohérente avec les travaux de certains auteurs (Philippot et Brutoux, 2008; Donaldson et al., 2007; Hills, 1980). Or l’approche classique consiste à ajouter des systèmes d’alerte ou à augmenter la saillance des alarmes (Beringer et Harris, 1999). Bien que cette dernière approche soit efficace pour mobiliser et attirer l’attention (Bustamante, 2008), elle peut être contre-productive (Meredith et Edworthy, 1995) en ne facilitant pas le désengagement attentionnel. Au contraire, le principe des contre-mesures cognitives que nous proposons repose sur une suppression temporaire des informations sur lesquelles se concentre l’opérateur humain et leur substitution par un stimulus visuel explicite destiné à changer le focus attentionnel. Dans cette optique, l’interface utilisateur viendrait agir comme une prothèse cognitive qui effectue le désengagement attentionnel. 2.2.3 Expérimentation 2 : évaluation des effets des contre-mesures cognitives Une deuxième expérimentation a été réalisée avec 23 participants dans l’environnement robotique (cf section 2.2.1) pour tester le principe des contre-mesures (Dehais et al., 2011a). Deux groupes étaient constitués : le groupe contrôle sans contre-mesure (N = 12) et le groupe avec contre-mesure (N=11). Le scénario était identique à l’expérimentation précédente à la différence que le magicien d’Oz envoyait une contre-mesure cognitive au moment de la panne de batterie pour aider les participants avec contre-mesure à gérer la situation conflictuelle. Le principe de la contre-mesure (cf figure 2.2.4) consistait à enlever momentanément l’affichage de la vidéo panoramique puis à la remplacer par l’explication du comportement du robot. 20 Figure 2.2.4 Ces quatre images représentent respectivement les quatre étapes chronologiques de la contremesure cognitive. Image supérieure gauche - étape 1 : la vidéo panoramique est supprimée pendant 1 seconde. Image supérieure droite - étape 2 : les informations pertinentes pour comprendre le comportement du robot sont placées dans le champ visuel pendant 3 secondes. Image inférieure droite - étape 3 : la vidéo panoramique réapparaît avec les informations pertinentes en surimpression pendant 3 secondes de plus. Image inférieure droite - étape 4 : fin de la contre-mesure cognitive. Les barres d’erreur représentent l’erreur type (Dehais et al., 2011a). Comme pour l’expérience précédente, les résultats comportementaux du groupe contrôle (sans contre-mesure) ont montré que la majorité des participants (8 sur 12) ont persisté dans la tâche de détection de la cible. En revanche, l’ensemble des participants du groupe avec contre-mesure ont déclaré avoir perçu la décharge de la batterie et un seul participant a décidé de continuer à identifier la cible consciemment. Au cours de la séance de débriefing, ce participant a déclaré qu’il pensait que la batterie avait une marge de sécurité suffisante qui lui permettrait de poursuivre l’identification de la cible, ce qui n’était évidemment pas le cas. Le comportement de ce participant montre les limites de l’approche des contre-mesures cognitives pour sortir les opérateurs de leur obnubilation : ce principe permet de pallier des déficits attentionnels et de donner une meilleure conscience de la situation, toutefois il ne peut garantir que l’opérateur renonce au but dans lequel il s’est trop engagé (Dehais et al., 2003). Les participants du groupe avec contre-mesure ont présenté pendant la gestion du conflit un rythme cardiaque significativement plus faible en comparaison avec les participants du groupe contrôle qui n’avaient pas eu de contre-mesures. Ce résultat semble suggérer une baisse de l’activité catabolique (Causse et al., 2010) pendant la gestion du conflit et indiquer que la contre-mesure a un effet positif sur le niveau de stress des participants. De plus les participants du groupe avec contre-mesure ont passé statistiquement moins de temps sur la vidéo panoramique au profit d’une prise en considération plus soutenue en direction des autres AOI de l’interface (c.f. figure 2.2.5). 21 Figure 2.2.5 Effets bénéfiques de la contre-mesure cognitive. Figure de gauche : les participants qui ont eu des contre-mesures cognitives ont passé moins de temps sur la vidéo panoramique que les volontaires du Groupe contrôle lors du conflit (S4). Figure de droite : de la même manière, le rythme cardiaque des sujets du groupe avec contre-mesure est beaucoup plus faible que les participants du groupe sans contrôle (Dehais et al., 2011a). La conception de la contre-mesure cognitive, qui relève des théories des neurosciences cognitives de l’attention (Posner et Dehaene, 1994), vise à faciliter le décrochage attentionnel. En ce sens, les résultats oculométriques suggèrent que le principe de suppression des informations a été suffisamment efficace pour provoquer une saccade de la vidéo panoramique à une autre aire d’intérêt pertinente chez 9 participants sur 11 (cf figure 2.2.6). Comme les saccades oculaires sont le reflet de processus attentionnels (McCarley et Kramer, 2006), il peut être soutenu que ce changement rapide de focalisation a provoqué un désengagement attentionnel. Engager et maintenir l’attention sur des informations particulières telles que la vidéo panoramique repose sur un processus d’inhibition tonique (mis en œuvre dans le pulvinar, noyau du thalamus) pour filtrer les éléments visuels distracteurs (LaBerge et al., 1992), en particulier en situation de stress psychologique (Tracy et al., 2000). En supprimant la vidéo panoramique sur laquelle l’attention était excessivement focalisée, une hypothèse est de considérer que les contre-mesures cognitives libérent le processus d’inhibition et permettent le déclenchement d’une saccade vers une autre AOI. 22 Figure 2.2.6 Image de gauche : la croix rouge de l’oculomètre montre que le participant est focalisé sur la vidéo panoramique pour identifier la cible. Image du milieu : lors de la première seconde du déclenchement de la contre-mesure, la vidéo panoramique est supprimée de l’interface homme machine. Ce bref retrait d’information a déclenché, en moins d’une seconde, une saccade vers le message de panne situé sous la batterie. Quatre autres participants se sont comportés de manière similaire et quatre autres ont eu une saccade vers des aires d’intérêt pertinentes comme le synoptique, l’affichage du mode de pilotage ou la carte tactique. Image de droite : le participant a son regard dirigé vers le message explicatif (Dehais et al., 2011a). 2.3 ADAPTER L’INTERACTION POUR RÉSOUDRE LE CONFLIT L’état de l’art présenté en préambule de ce chapitre ainsi que nos expérimentations tendent à révéler que l’apparition d’un conflit est un précurseur de la dégradation de la coopération hommemachine. Une solution consiste à adapter automatiquement le rôle et l’autorité des agents pour faire face à la situation conflictuelle. Ces changements peuvent consister à déléguer un certain nombres de tâches aux automatismes de manière à soulager l’opérateur si celui-ci fait face à un engagement excessif et coûteux dans un but. Inversement, l’exécution de tâches dévolues aux automatismes peut être confiée à l’opérateur humain si ces automates sont défaillants. Dans tous les cas, l’usage de contre-mesures cognitive est envisagée pour informer l’opérateur de l’évolution de son rôle et de celui des automates mais aussi pour éviter des mécanismes de persistance dans l’erreur. Par conséquent, de telles modifications automatiques de l’interaction doivent relever d’une estimation objective de l’état de l’engin (avion, robot...), des actions de l’opérateur (ex : temps de réaction aux alertes), de l’apparition de conflits et de l’état cognitif de l’opérateur (c.f. figure 2.3.1). Nous présentons dans cette section des outils et des techniques formelles pour estimer a posteriori l’état attentionnel de l’opérateur ainsi qu’un contrôleur de la dynamique de l’autorité dont le rôle est d’adapter l’interaction à partir de l’état des ressources globales du système homme-machine (c.f. figure 2.3.1). 23 Figure 2.3.1 Vers un résolution automatisée du conflit : le diagnostic de la performance l’ensemble homme machine repose sur la prise en compte du vecteur d’état du véhicule (ex : panne, alertes....) , du vecteur d’état des interactions homme-véhicule (ex : conflits) et du vecteur d’état de l’opérateur (ex : état attentionnel). L’agrégation et l’analyse de ces 3 vecteurs peuvent conduire à des adaptations en modifiant l’interface (ex : contre-mesures) et le rôle des automatismes (ex : changement de mode du pilote automatique). 2.3.1 Principes Une approche proposée pour améliorer le fonctionnement d’un système hommme-machine est d’optimiser le partage d’autorité et des tâches entre les agents humains et artificiels. L’état de l’art est aujourd’hui surtout fondé sur des « niveaux d’autorité, qui sont descriptifs et ne présentent pas de caractère opérationnel objectif (Mercier et al., 2010). Sheridan et Verplank (1978) proposent dès 1978 une classification de l’autonomie opérationnelle sur dix niveaux. Ce modèle est abstrait et ne tient pas compte de la complexité de l’environnement ni du contexte de mission dans lequel évolue l’automate. Il existe beaucoup d’autres classifications de ce type (Bradshaw et al., 2003). Le point commun de ces approches est que les capacités des machines et des humains sont complémentaires (Kortenkamp et al., 1997). Un agent artificiel est ainsi capable de fonctionner à différents niveaux d’autonomie préétablis et de basculer de l’un à l’autre si besoin, un niveau étant caractérisé par la complexité des commandes traitées par cet automate (Dorais et al., 1999; Goodrich et al., 2001). La principale limite de ces approches réside dans le caractère figé du rôle des agents et des interactions entre l’automate et l’opérateur pour chaque niveau. Afin d’introduire plus de flexibilité, Goodrich et Schultz (2007) distinguent autonomie ajustable, où l’opérateur choisit les modes de fonctionnement de l’agent artificiel, et autonomie adaptative, où c’est l’automate lui-même qui détermine le mode qu’il va utiliser. Scerri et al. (2003) dotent ainsi les agents artificiels de capacités d’apprentissage, afin de mieux gérer les demandes d’intervention humaine. Cependant, cette méthode ne semble pas directement applicable à des systèmes critiques. Enfin Sellner et al. (2006) proposent un mode de partage d’autorité fondé sur des statistiques reflétant qui de l’agent artificiel ou de l’opérateur réussit le mieux une tâche donnée. L’usage de statistiques ne garantit cependant pas le succès car agrégeant des situations très variées. En revanche, le principe de l’affectation considérée au niveau de chaque tâche est intéressant car présentant une granularité plus fine que les niveaux d’autonomie classiques. Il est à noter que toutes ces approches considèrent l’humain comme un recours infaillible, ignorant ses défaillances potentielles ainsi que les incompréhensions possibles entre l’humain et les automatismes (Dehais et al., 2005b). Le point de vue que nous adoptons est de systématiser notre démarche où le conflit est percu comme le signal conduisant l’agent artificiel à réagir et à adapter son autonomie relativement à l’opé24 rateur. Néanmoins, toute modification de l’autorité (ex : réalisation d’une manoeuvre automatique d’évitement) ne peut être considérée sans tenir compte de l’état cognitif de l’opérateur et de sa capacité à percevoir et comprendre ces changements. Dès lors, un premier enjeu est d’estimer l’état cognitif de l’opérateur humain et en particulier ses capacités attentionnelles comme un pré-requis pour décider de la manière d’adapter l’interaction au sein du système. 2.3.2 Inférence de la “tunnélisation attentionnelle” Une approche intéressante pour estimer l’état cognitif des opérateurs est de considérer l’utilisation des techniques d’inférence (Parasuraman et al., 1999). Des travaux ont montré le bien-fondé de ces approches pour déterminer l’état des opérateurs en intégrant différentes techniques de mesures psychophysiologiques et comportementales (John et al., 2004). Ainsi, une étude dans le domaine de l’aéronautique a montré qu’il était possible de déterminer le niveau de charge de travail via des mesures cardiaques et de la résistance électrodermale (Haarmann et al., 2009) et des expérimentations conduites sur un véhicule de l’armée américaine ont permis de dériver la charge cognitive en temps réel à travers l’analyse de données encéphalographiques (Dixon et al., 2009). Par ailleurs Marshall (2007) a déterminé un nombre de métriques oculaires pour identifier le niveau d’engagement attentionnel dans de nombreuses tâches telles que la conduite automobile. Différents formalismes sont proposés pour diagnostiquer l’état des opérateurs tels que les machines à vecteurs de support (Kapoor et Picard, 2005), la logique floue (Mandryk et Atkins, 2007), les stateflows (Liu et al., 2008) ou les approches stochastiques (Kulic et Croft, 2007). Ainsi l’efficacité de ces systèmes inférentiels dépend tant du choix des capteurs physiologiques pour mesurer des état cognitifs ou émotionnels (Causse et al., 2007; Dehais et al., 2011b) que de l’utilisation d’un formalisme adapté pour rendre compte de leur évolution en temps réel. Mise en oeuvre : modélisation floue de la “tunnélisation attentionnelle” Les travaux expérimentaux que nous avons réalisés sur la plate-forme robotique de l’Isae ont montré que la survenue du conflit peut être associée à des comportements de “tunnélisation attentionnelle”. Dans une démarche formelle proche de celle de Mandryk et Atkins (2007), nous proposons l’utilisation de la logique floue pour agréger des mesures comportementales et psycho-physiologiques en vue d’estimer le degré d’engagement attentionnel d’un opérateur humain. L’usage de cette logique se justifie dans la mesure où il n’existe pas de modèle mathématique pour décrire ce phénomène attentionnel, où les variables d’entrée sont en partie continues (ex : rythme cardiaque) et où il est possible d’établir une relation intuitive, en langage naturel, entre les variables d’entrée et de sortie Cox (1992). Une première formalisation de la “tunnélisation attentionnelle” (Pizziol et al., 2011) est réalisée à partir des données oculométriques et cardiaques enregistrées lors de nos expérimentations (c.f. section 2.2.3). L’identification de la “tunnélisation attentionnelle” est établie à partir des indicateurs résumés dans le tableau 2.1. 25 Indicateur de la tunnélisation attentionnelle Allocation des ressources attentionnelles sur un cadran particulier Activité saccadique réduite Réduction du nombre d’AOI considérées Stress psychophysiologique Référence Métrique choisie (Wickens, 2005) % maximum de temps passé sur une AOI (Cowen et al., 2002) (Tsai et al., 2007) Taux de transitions oculaires entre AOI (Thomas et Wickens, 2004) Nombre d’AOI (Easterbrook, 1959) (Weltman et Egstrom, 1966) (Bahrick et al., 1952) (Tracy et al., 2000) Rythme cardiaque et sa variabilité Table 2.1 Le tableau résume les quatre indicateurs connus de la tunnélisation attentionnelle dans la littérature (première et deuxième colonnes). La troisième colonne exprime leur “traduction” sous la forme de métriques utilisables dans le cadre de nos expérimentations robotiques. Ainsi, dans le cadre de notre application, nous avons défini trois métriques oculaires pour caractériser le degré de focalisation (pourcentage de temps maximum passé sur une AOI, taux de transitions oculaires entre AOI, et nombre d’AOI) et deux métriques cardiaques pour identifier un stress psychologique (rythme cardiaque et sa variabilité). La détection de la “tunnélisation attentionnelle” est le résultat d’une analyse de trois systèmes flous (c.f. figure 2.3.2). Le premier système flou (“focalisation”) agrège les trois variables oculométriques pour établir un degré de “focalisation attentionnelle”. Le deuxième système flou (“stress”) intègre les variables liées au rythme cardiaque et à sa variabilité pour estimer le “stress psycho-physiologique”. Enfin, le dernier système flou (“tunnélisation”) analyse la sortie des deux systèmes précédents de règles expertes de type SI/ALORS pour déterminer le degré de tunnélisation (ex : SI le degré de “focalisation” est élevé et que le degré “stress” est élevé ALORS le degré de” tunnélisation” est élevé). La sortie finale de l’ensemble de ce système flou produit une évaluation de la “tunnélisation attentionnelle” en trois niveaux faible, moyen ou fort. 26 Figure 2.3.2 Agrégation des différentes données pour détecter la tunnélisation attentionnelle. Un premier système flou "focalisation" intègre les données de l’eye tracker : pourcentage maximum de temps passé sur une AOI (% Max AOI), taux de transition entre AOI (Transition) et nombre d’AOI (AOI). Un deuxième système flou estime le degré de stress psycho-physiologique en combinant les données cardiaques (HR, rythme cardiaque et HRV, variabilité cardiaque). Les sorties de ces deux systèmes sont fusionnées pour donner une sortie en trois niveaux de la tunnélisation attentionnelle : faible (vert), moyen (jaune) ou fort (rouge). (Pizziol et al., 2011).) Les résultats ont permis de montrer la capacité de notre modèle formel à estimer la “tunnélisation attentionnelle” (c.f. figure 2.3.4) sur l’ensemble des sujets, à discriminer les sujets qui ont perçu la panne d’eux-mêmes mais aussi à vérifier l’efficacité des contre-mesures à réduire la “tunnélisation attentionnelle”. 27 Figure 2.3.3 Effet du conflit sur la tunnélisation attentionnelle : l’axe des abscisses figure par un code couleur le degré d’engagement attentionnel de normal (en vert) à tunnélisation (en rouge) (Pizziol et al., 2011). Figure 2.3.4 Effet de la contre-mesure sur la tunnélisation attentionnelle : alors que le sujet est en situation de "tunnélisation attentionnelle", l’envoi d’une contre-mesure a été effet bénéfique pour le sortir totalement de sa focalisation excessive. (Pizziol et al., 2011). 2.3.3 Modéliser la dynamique de l’autorité opérateur-automate Mise en oeuvre d’un contrôleur dynamique de l’autorité Les outils de suivi et de détection de conflits que nous avons présentés au chapitre précédent ainsi que les techniques pour estimer la “tunnélisation attentionnelle” constituent des moyens pour diagnostiquer l’état du système homme-machine. Cependant, des décisions doivent être prises pour adapter les interactions opérateur-automate et éviter leur dégradation en attribuant l’autorité à l’agent le plus capable. Dans le cadre de la thèse de Mercier (2010) un contrôleur de la dynamique de l’autorité a été mis en œuvre et a pour enjeu d’adapter les interactions entre les différents agents 28 humains et artificiels. L’approche consiste à modéliser sous la forme de ressources l’ensemble des éléments (connaissances, buts, opérateur humain, agents artificiels ...) nécessaires à la réalisation de la mission. Par exemple, pour atteindre un point de passage (waypoint), un agent robotique utilise une ressource de navigation qui nécessite de mettre en oeuvre d’autres ressources telles que le GPS, la batterie, la conduite. Ces ressources sont instanciées dans un graphe de dépendance (c.f. figure 2.3.5). Figure 2.3.5 Le graphe de dépendance figure l’ensemble de ressources nécessaires pour réaliser le but "atteindre un waypoint". Les arcs orientés spécifient les relations de dépendance entre ces ressources. Dans cet exemple, la ressource "navigation" dépend de quatre ressources "position", "energy", "steering wheel" et "safety distance". Des conflits sur l’utilisation de ces différentes ressources sont susceptibles de se produire entre le robot et l’humain. Il faut pouvoir les détecter et les résoudre en adaptant dynamiquement l’autorité de chaque agent sur les ressources (Mercier et al., 2010). Une relation d’autorité graduelle est établie sur chacune de ces ressources pour chaque couple d’agents humain et artificiel : ainsi l’opérateur humain peut disposer d’une autorité totale sur la ressource de pilotage d’un drone en condition nominale et la perdre totalement au détriment du drone qu’il contrôle lorsque les communications sont perdues. L’autorité d’un agent sur une ressource par rapport à un autre agent est caractérisée par les trois propriétés suivantes : le droit d’accès, le droit de préemption et la garantie totale. Cela à pour conséquences que l’autorité est graduelle : le contrôle d’un agent sur la ressource R est de plus en plus fort au fur et à mesure qu’il possède, dans cet ordre, les droits : accès, préemption, garantie de contrôle. 29 Figure 2.3.6 La relation d’autorité de l’agent X (Ag X) et de l’agent Y (Ag Y) sur une ressource donnée est formalisée sous la forme d’un réseau de Petri. A tout moment il est possible de déterminer l’autorité relative d’un agent par rapport à un autre sur une ressource. (Mercier et al., 2010). Le contrôleur de la dynamique de l’autorité est mis en oeuvre par l’outil MNMS (Multiple (Petri) Nets Management System), développé dans la thèse de Mercier (2010). Il permet la manipulation des ressources génériques, dépendances entre ressources et relations d’autorité, ainsi que l’intégration au sein d’une architecture robotique. L’état des ressources et l’apparition d’un conflit sur l’utilisation des ressources est établie à l’aide des algorithmes de suivi de situation, de détection de conflits et d’identification de la “tunnélisation attentionnelle”. Ainsi le contrôleur de la dynamique de l’autorité permet de visualiser les conséquences d’un conflit sur la réalisation des buts de la mission (c.f. figure 2.3.7). Ce principe a été appliqué conceptuellement à la modélisation de la mission robotique que nous avons présentée dans la section 2.2. 30 Figure 2.3.7 Logiciel MNMS (Multiple (Petri) Nets Management System) développé dans le cadre de la thèse de S. Mercier. Ce logiciel a été utilisé pour modéliser la dynamique du partage d’autorité dans l’expérimentation robotique. Les boites représentent les différentes ressources utilisées par le robot et l’opérateur pour mener à bien la mission. Cette figure illustre le conflit où l’opérateur réalise manuellement la tâche d’identification de la cible qui nécessite des ressources telles que le GPS, la conduite du robot (steering wheel)... Le suivi de situation a détecté la panne de batterie et la ressource sufficient energy apparaît en rouge. Le système d’inférence flou a également détecté que l’opérateur humain fait face à une tunnélisation attentionnelle et la ressource "operator alarms awareness" apparaît en rouge. Les conséquences de ces défaillances se propagent dans le graphe et l’ensemble des ressources deviennent indisponibles (i.e. rouges) et vont conduire au conflit entre le but de l’opérateur (rester sur zone) et le but du robot (rentrer à la base) (Mercier et al., 2010). La résolution du conflit pour le contrôleur dynamique de l’autorité consiste à redistribuer l’autorité vers l’agent humain ou artificiel le plus capable en fonction de leur état respectif. Ce changement d’autorité peut être établi par des systèmes de règles définis lors de la conception du système ou à l’aide d’un algorithme de planification qui va chercher à optimiser la mission. De fait le changement d’autorité peut consister en un changement de mode de l’agent artificiel ou à l’envoi de messages ou de contre-mesures cognitives à l’opérateur humain pour l’inciter à prendre ou à rendre l’autorité sur une ressource (c.f. figure 2.3.8). 31 Figure 2.3.8 Le contrôleur de la dynamique de l’autorité du robot modifie l’interaction en envoyant une contre-mesure à l’opérateur pour l’inciter à reprendre l’autorité de supervision. Le robot est, lui, chargé de reconduire le véhicule à la base de manière automatique, sous la forme d’une tâche spécique (ressource Return To Base Robot ) (Mercier et al., 2010). 2.4 CONCLUSION Une première expérimentation a consisté à placer des participants dans une situation de conflit avec un agent robotique où le but de l’un (identifier une cible pour réussir) était en contradiction avec le but de l’autre (rentrer à la base pour éviter la perte du robot). L’analyse des résultats a montré que la majorité des participants ont persévéré dans la réalisation de leur tâche d’identification sans comprendre le comportement du robot ni percevoir les alertes sur l’interface. Dès lors, nous avons défini des contre-mesures cognitives pour contrer les mécanismes de “tunnélisation de l’attention” induits par le conflit et lutter contre l’insensibilité des opérateurs aux alarmes. Le principe de ces contre-mesures repose sur le fait que l’attention relève de mécanismes antagonistes d’accrochage et de décrochage. En tenant compte de l’identification de ces mécanismes, il est possible de postuler que les opérateurs qui persévèrent sont incapables de décrocher volontairement leur attention de la tâche qui les accapare pour accrocher de nouveaux stimuli pertinents (ex : alarmes). Les contre-mesures cognitives consistent à retirer momentanément l’information sur laquelle l’opérateur est excessivement focalisé puis à la remplacer par l’information pertinente. Ainsi, c’est l’interface qui assure le « désengagement » (retrait ciblé d’informations) et le ré-accrochage attentionnel (envoi d’informations dans le champ visuel). Une deuxième expérimentation, utilisant le même scénario de conflit, a permis de démontrer l’efficacité de ces contre-mesures pour sortir les participants de leur obnubilation. L’apparition d’un conflit conduit à adapter l’interaction homme-machine en tenant compte de l’état cognitif de l’opérateur humain et de la capacité des automates à exécuter des tâches. Ainsi l’utilisation de techniques d’inférence permet d’estimer le degré de focalisation d’un opérateur humain en agrégeant des données comportementales oculométriques et cardiaques. Ces analyses sont pour 32 l’instant réalisées “hors-ligne” mais tout laisse à penser que leur robustesse permettra dans de prochaines expérimentations d’estimer l’état attentionnel des opérateurs humains en temps réel. Nous avons également présenté le principe d’un contrôleur de la dynamique de l’autorité, fondé sur un graphe de dépendance entre ressources contrôlables par les agents. Cet outil a pour enjeu de diagnostiquer l’état du système global et d’adapter l’interaction homme-machine. Ce travail a été réalisé dans le cadre de la thèse de S. Mercier et est en continuité avec les travaux dans le domaine formel réalisés conjointement avec l’Onera DCSD. Enfin, les problématiques qui relèvent du conflit, telle la tendance à persévérer, sont extrêmement complexes et décrites en termes comportementaux. Même si des progrès notables ont pu être faits en ergonomie sur la compréhension des facteurs influençant le processus de prise de décision, d’autres disciplines, telles la neuropsychologie et la neuroéconomie, se sont intéressées aux perturbations de la prise de décision sous l’effet du stress, de l’émotion ou de la manipulation de la récompense, et ont montré l’existence de mécanismes fondamentaux (i.e. des primitives) à la base de ces perturbations. Nous pensons que l’utilisation des résultats théoriques et pratiques de ces disciplines peut apporter de nouveaux éclairages pour comprendre les mécanismes sous-jacents aux erreurs décisionnelles rencontrées dans le domaine des interactions homme-machine. Ce point de vue ainsi que des travaux expérimentaux liant ergonomie et neurosciences cognitives sont présentés dans le chapitre 3. 33 34 Chapitre 3 Aspects neuroergonomiques du conflit et de la persistance dans l’erreur Guide de lecture. Dans ce chapitre, nous empruntons les outils des neurosciences cognitives et de la neuropsychologie pour étudier le conflit et la persistance dans l’erreur. Cette démarche de neuroergonomie est appliquée au contexte du pilotage. Trois expérimentations sont proposées et visent respectivement à évaluer les habiletés exécutives mises en œuvre pendant la phase d’atterrissage, à identifier les effets de l’émotion et de la récompense sur la prise de décision, et enfin à investiguer l’insensibilité des pilotes aux alarmes auditives. 3.1 PRÉAMBULE : LE CONTINUUM COGNITIF La neuroergonomie est l’étude du “cerveau au travail” (Parasuraman et Rizzo, 2007). Ses outils sont généralement issus des neurosciences : neuroimagerie, batteries d’évaluation neuropsychologique, neuropharmacologie etc. Un des enjeux est de permettre d’aller au-delà des approches basées seulement sur le comportement visible ou sur le ressenti subjectif des opérateurs, parfois très difficiles à obtenir (Parasuraman et al., 1996). Notre intérêt pour la neuroergonomie a pour origine la compréhension des mécanismes sous-jacents au conflit et à la persistance dans l’erreur. De plus des réflexions menées avec Josette Pastor, chercheur de l’Unité mixte 825 Inserm/UPS, ont conduit à constater que de tels comportements, où les opérateurs s’enferrent dans la résolution d’un conflit, sous l’effet par exemple d’un stresseur ou de la fatigue, s’apparentent singulièrement à des troubles neuropsychologiques habituellement rencontrés chez des patients atteints d’un syndrome dysexécutif (Dehais et al., 2010c). L’observation en ergonomie de comportements qui s’apparentent au syndrome dysexécutif, ainsi que les études en laboratoire montrant l’altération temporaire de certaines fonctions cognitives de haut niveau gérées notamment par le cortex préfrontal (CPF), sous l’effet de la fatigue, de stresseurs (Waldstein et Katzel, 2005) ou de l’anxiété (Egloff et Hock, 2001), permettent d’avancer l’hypothèse d’un continuum cognitif (Pastor, 1999), entre le sujet sain aux performances optimales et le patient (c.f. figure 3.1.1). L’opérateur stressé ou fatigué est situé entre les deux extrêmes. 35 Figure 3.1.1 Illustration du continuum cognitif du sujet sain doté de performances optimales au sujet stressé ayant des performances fortement dégradées. Le sujet âgé considéré ici ne présente aucune pathologie, son positionnement sur le continuum est bien entendu très variable (Causse, 2010). L’ensemble de ces arguments montrent que les neurosciences cognitives et la neuropsychologie representent un terrain fertile pour l’étude de nos problématiques de recherche en ergonomie. Ces considérations ont amené l’Isae à établir une collaboration avec l’U825 de l’Inserm à travers le coencadrement de deux thèses où nous nous sommes tout particulièrement intéressés aux facteurs qui pouvaient être à l’origine de prise de décisions erronées lors de la phase d’atterrissage. En effet, ce segment de vol est particulièrement critique et implique des séquences d’actions formalisées (sortir le train, sortir les volets etc.), le passage par des points géographiques bien précis (ex : balises) et des processus de prise de décision basés sur des éléments rationnels (ex : prise en compte du vent traversier maximum accepté par l’appareil). Or, l’analyse d’événements aériens révèle que 51% des accidents se produisent lors de l’arrivée alors que cette phase ne représente que 4% de la durée d’un vol moyen courrier (Boeing, 2005). Ainsi nous avons réalisé une première étude pour rechercher des facteurs cognitifs de haut niveau influant la prise de décision d’atterrir. Dans une deuxième étude, nous avons modulé ces facteurs de haut niveau par la récompense ou l’émotion. Enfin dans une troisième étude, nous avons fait interagir ces facteurs de haut niveau avec des facteurs de bas niveau (automatismes cognitifs). Les trois expérimentations réalisées dans le cadre de ces études sont présentées successivement dans ce chapitre en expliquant particulièrement l’apport potentiel des neurosciences pour améliorer la compréhension de notre problématique générale. 3.2 FONCTIONS EXÉCUTIVES ET PERSISTANCE DANS LA DÉCISION D’ATTERRIR EN AVIATION LÉGÈRE L’activité de pilotage prend place au sein d’un environnement changeant et dynamique où de nombreuses informations doivent être intégrées et mises à jour en continu. Piloter un appareil léger, dénué de tout système d’assistance (pilote automatique...), implique la surveillance des paramètres moteur, la gestion des communications avec la tour, la planification de la navigation, une bonne conscience de la situation, l’adaptation aux changements environnementaux et la prise de décisions pertinentes en inhibant les réponses désormais non valides. Toutes ces activités inhérentes au pilotage 36 impliquent nécessairement une forte sollicitation des fonctions exécutives (FE), capacités intellectuelles de haut niveau qui sous-tendent les comportements orientés vers un but et l’adaptation aux situations nouvelles et complexes (Elliott, 2003). Ces FE permettent l’inhibition de réponses automatiques en faveur d’un comportement contrôlé, lorsque les buts ou les contraintes environnementales ont changé et quand les réponses automatiques ne permettent plus d’avoir un comportement adéquat (Elliott, 2003; Royall et al., 2002). Les FE interagissent avec les processus attentionnels (Barkley, 1997; Posner et Rothbart, 2007). Cela est probablement lié au fait que le CPF joue un rôle dans une très grand nombre de compétences intellectuelles telles que le raisonnement (Decker et al., 2007), le contrôle exécutif (Posner et al., 2006), la flexibilité mentale (Spreen et al., 1995), la prise de décision (Sanfey et al., 2003), la planification (Koechlin et al., 2000), la structuration temporelle des actions (Fuster, 2000) ou encore la régulation émotionnelle (Gyurak et al., 2009). L’étude fine de ces FE constitue une approche intéressante pour comprendre et prédire la capacité des opérateurs humains à s’adapter ou au contraire à s’enferrer dans des décisions erronées. 3.2.1 Apport de la neuropsychologie : les batteries de test Bien que ne se focalisant pas spécifiquement sur les FE, l’étude des fonctions cognitives et leur mise en lien avec la performance de pilotage intéresse depuis de nombreuses années les chercheurs du domaine aéronautique. Différentes fonctions cognitives identifiées comme étant cruciales au pilotage ont été proposées. On peut citer par exemple les capacités d’allocation et de partage des ressources (Tsang, 1998), l’attention (Knapp et Johnson, 1996), la résolution de problème (O’Hare et al., 1994) ou encore le raisonnement déductif (Wiggins et O’Hare, 1995). Les différentes études réalisées ont abouti à la définition de batteries de tests évaluant un très grand panel d’habiletés cognitives, telles que Cogscreen-AE (Horst et Kay, 1991) ou Wombat. La batterie Cogscreen-AE figure parmi les plus utilisées et comporte des tests neuropsychologiques semblables à ceux employés en pratique clinique. Ainsi Yakimovich et al. (1994) ont corrélé les déviations à la trajectoire optimale (obtenues grâce aux boites noires) de pilotes de ligne russes avec certains indices mesurés par la batterie Cogscreen-AE ; (Taylor et al., 2000) ont pu prédire 45% de la variance de la performance de pilotage en simulateur avec 4 prédicteurs mesurés par cette batterie de tests. La plupart des études utilisant ce type de batterie portent plutôt sur des aspects de la sécurité tels que les communications (Morrow et al., 2003a,b), mais très peu s’intéressent au raisonnement ou à la prise de décision comme l’expérience de Wiggins et O’Hare (1995) réalisée sur une situation de pilotage très simplifiée. Au contraire, dans notre étude, nous souhaitons nous intéresser particulièrement au processus sous-jacent à la prise de décision lors de l’atterrissage et évaluer les liens entre la qualité de cette prise de décision et les habiletés exécutives. 3.2.2 Expérimentation L’expérimentation 1 que nous proposons (Causse et al., 2010, in press : 2011), réalisée dans le cadre de la thèse de Mickaël Causse, s’inspire des méthodes employées par Taylor et al. (2000) qui tentent d’établir un lien direct entre état cognitif et performance de pilotage sur avion léger. Cependant, contrairement à Taylor et al. (2000) qui emploient Cogscreen-AE, une batterie de tests généralistes en terme de fonctions cognitives explorées, nous avons utilisé la batterie EARTH de l’Inserm U825 pour nous concentrer sur les composantes exécutives du système cognitif. Dans la multitude de capacités liées aux FE, trois d’entre elles, dites de bas niveau (en comparaison à des fonctions telles que le raisonnement) sont considérées comme distinctes et modérément corrélées par 1. Cette recherche Inserm UMR 825 - Onera DCSD - ISAE a été financée par le GIS Longévité dans le cadre du projet "Intelligence Artificielle et évaluation des fonctions exécutives dans le vieillissement normal et pathologique : des pilotes d’avion aux patients Alzheimer" et par la Région Midi-Pyrénées : contrats DAERRecherche 03012000 et DAER-Recherche 05006110. 37 Miyake et al. (2000) et ont fait l’objet d’une évaluation dans notre expérimentation : le set-shifting évalué par le Wisconsin Card Sorting Test (Eling et al., 2008) ; la mise à jour et le contrôle du contenu de la mémoire de travail évalués avec le test de N-Back (Chen et al., 2008) ; et l’inhibition de réponses dominantes - mesurés par le Stroop spatial (Desoto et al., 2001). Cette expérimentation a été réalisée avec 32 pilotes qui devaient également effectuer, en plus des tests, un scénario de vol réaliste (c.f. figure 3.2.1). Ce dernier a consisté en une tâche de navigation et a été enrichi d’un certain nombre de tâches secondaires (détection de panne, calcul de vitesse etc.), cela afin de se rapprocher autant que possible de la demande mentale générée par un vol réel. En particulier, nous avons tenté d’établir un lien entre le fonctionnement exécutif et la qualité d’une prise de décision liée aux conditions météorologiques : les pilotes devaient intégrer les évolutions des conditions météorologiques durant le parcours et établir que les conditions de vent traversier n’étaient pas propices à un atterrissage. Figure 3.2.1 32 pilotes ont participé à une expérimentation où il leur était demandé de passer des tests évaluant les habiletés exécutives tels que le WCTS (c.f. image de gauche) et de réaliser une tâche de navigation en simulateur (c.f. image de droite). La difficulté du scénario de vol résidait dans la prise de décision à l’atterrissage : les pilotes devaient remettre le gaz en raison de l’évolution défavorable des conditions météorologiques (Causse, 2010). Résultats Une analyse discriminante a révélé que l’affaiblissement des capacités de mémoire de travail étaient prédictive de la décision erronée de poursuivre l’atterrissage en dépit des mauvaises conditions météorologiques. En particulier cette analyse a montré que les pilotes ayant pris la bonne décision de remettre les gaz présentaient un pourcentage de bonnes réponses au 2-back, un test qui met particulièrement en jeu les capacités de mise à jour en mémoire de travail. Müller et Dieng (2000) ont évoqué la grande difficulté rencontrée par certains pilotes à intégrer des modifications contextuelles critiques telles que la dégradation des conditions météorologiques. Le fait que la performance de la mémoire de travail soit significativement liée à la prise de décision erronée de poursuivre l’atterrissage va, selon nous, tout à fait dans le sens des propos de ces auteurs. En effet, les capacités de mise à jour en mémoire de travail peuvent conditionner la capacité à intégrer l’évolution de la météorologie, cette dernière se dégradant progressivement durant notre expérience. Par ailleurs, la spécification technique précisant la tolérance maximale de l’appareil n’a probablement pas été récupérée en mémoire de travail, et n’a donc pas été portée à la pleine conscience des pilotes ayant poursuivi l’atterrissage. Lors de l’atterrissage, les pilotes devaient, en plus de la tenue des paramètres de vol, prendre en compte les informations du bulletin météorologique de l’aérodrome, puis les mettre en regard des spécifications techniques de l’appareil. Cela consistait à réaliser un calcul mental pour déterminer la composante de vent traversier, retenir le résultat, et le comparer avec la vitesse de vent traversier maximale de l’appareil, comme spécifié dans le document technique fourni. C’est l’incapacité à récupérer des informations cruciales puis à mettre à jour le contexte météorologique qui semble avoir conduit les pilotes 38 à s’en tenir à la poursuite de l’atterrissage. Ce résultat offre un éclairage nouveau sur la fascination par l’objectif, particulièrement dangereuse en aviation commerciale Rhoda et Pawlak (1999) et en aviation générale, considérée pour cette dernière, comme responsable de plus de 41.5% des pertes humaines (Bureau Enquête Analyse, 2000). La mesure de l’intégrité de la mémoire de travail des pilotes semble être un enjeu majeur pour la sécurité aérienne puisque de nombreux travaux ont également démontré sa capacité à prédire la performance de pilotage (ex : (Orsini et al., 1986; Taylor et al., 2007, 2000; Yesavage et al., 1994; Verhaeghen et al., 1993; Grégoire et Van der Linden, 1997)) ou à effectuer des radiocommunications (Morrow et al., 2001, 2003b; Taylor et al., 2005). Enfin, le nombre total d’heures de vol était également prédictif de la qualité de la prise de décision. En effet, ce sont les pilotes les plus expérimentés qui ont posé un diagnostic juste en prenant en compte l’évolution des conditions météorologiques. Ces résultats sont tout à fait compatibles avec ceux de Wiegman (2002) qui a montré que le temps passé à voler dans des conditions météorologiques nécessitant normalement un déroutement immédiat était négativement corrélé à l’expérience des pilotes. L’explication avancée est que l’expérience permet une évaluation plus juste et plus efficace de la situation. 3.3 3.3.1 ETUDE NEUROÉCONOMIQUE DU CONFLIT LORS DE LA PRISE DE DÉCISION À L’ATTERRISSAGE Le conflit entre sécurité et désir d’atterrir Comme nous l’avons vu dans l’expérience précédente ainsi que dans la première partie de ce manuscrit (cf section 2.2.1), de nombreux travaux montrent la difficulté des opérateurs à réviser leurs objectifs (ex : plan de vol) et plusieurs explications cognitives et psychosociales ont été avancées (Causse et al., in press : 2011; Goh et Wiegmann, 2002; O’Hare et Smitheram, 1995). Récemment, afin de mieux comprendre les facteurs ayant poussé les pilotes à poursuivre un atterrissage dangereux, des chercheurs de la NASA (National Aeronautics and Space Administration) ont examiné des erreurs de décision dans un échantillon d’accidents aéronautiques sur lesquels le NTSB (National Transportation Safety Board) avait conduit des enquêtes (Orasanu et al., 2001). Parmi les facteurs susceptibles de contribuer à de telles erreurs, les pressions de la compagnie furent identifiées. En effet, une remise de gaz coûte extrêmement cher aux compagnies aériennes (kérosène et logistique notamment), surtout lorsqu’elle se poursuit par un déroutement. La culture de la compagnie pèse sur la sécurité : si cette compagnie attache une connotation négative aux remises de gaz, elle est une excellente candidate aux accidents à l’atterrissage. Même si dans l’immense majorité des cas les compagnies n’ont pas recours à des sanctions en cas de remise de gaz, dans un climat de concurrence très rude, leur marge de manoeuvre se réduit. Ces dernières semblent de moins en moins enclines à supporter ce genre de dépenses imprévues. Ainsi une compagnie aérienne, aujourd’hui disparue, proposait de dédommager les passagers d’un dollar pour chaque minute de retard, jusqu’à ce qu’un équipage ait tenté d’atterrir dans ces conditions orageuses et se soit écrasé (Nance, 1986). Selon Orasanu et al. (2001), les compagnies aériennes mettent également l’accent sur l’économie de carburant et le besoin d’amener les passagers à destination plutôt que de dérouter le vol. De tels messages ambigus créent des motifs contradictoires entre sécurité et productivité, qui peuvent affecter inconsciemment l’évaluation des risques par les pilotes. Toutes ces pressions émotionnelles pourraient modifier le raisonnement rationnel en déplaçant les critères décisionnels vers des considérations économiques au détriment de la sécurité. 39 3.3.2 Apport des neurosciences : Raisonnement “à froid” vs raisonnement “à chaud” Il est admis que l’émotion ou les stresseurs, tels ceux décrits précédemment, peuvent mettre en péril la prise de décision et le fonctionnement cognitif, en particulier dans les tâches complexes comme le pilotage (Causse et al., in press : 2011) qui impliquent le cortex préfrontal. En effet de nombreuses études ont mis en évidence le fait que l’émotion est étroitement liée à la l’évaluation rationnelle des risques lorsque l’incertitude est élevée (Damasio, 1994). Des auteurs ont postulé l’existence d’une bascule d’un raisonnement “à froid”, rationnel, à un raisonnement “à chaud”, émotionnel, assurés par des subdivisions cérébrales émotionnelles et cognitives (Mitchell et Phillips, 2007; Goel et Dolan, 2003; Drevets et Raichle, 1998). Ces types de subdivision ont pu être par exemple identifiées au sein du cortex cingulaire antérieur (CCA) dorsal “cognitif” et ventral “émotionnel” (Bush et al., 2000) ou encore entre le cortex préfrontal dorsolatéral (CPFDL) “cognitif” et le cortex préfrontal ventromédian (CPFVM) “émotionnel” (Goel et Dolan, 2003). Une telle bascule au sein de ces dernières régions frontales peut affecter la performance, la précision du raisonnement et la prise de décision (Simpson et al., 2001b). Elle peut également être exprimée par des changements dans le système nerveux autonome (Thayer et al., 2009; Buchanan et al., 2010) mesurables via la pression artérielle (Boutcher et Boutcher, 2006) ou la fréquence cardiaque et sa variabilité (Capa et al., 2008; Duschek et al., 2009). Neuroéconomie et influence de la récompense sur la prise de décision La décision du pilote au moment de l’atterrissage se rapproche de la problématique de la prise de décision sous incertitude, un courant de recherche très actif en économie et en neurosciences. Si durant le dernier siècle, la théorie des choix rationnels a beaucoup apporté au monde stratégique et économique, elle a aussi été souvent remise en question par différents courants révélant que dans bien des situations, l’être humain ne prend pas la meilleure décision attendue par les modèles d’utilité rationnelle classiques. La neuroéconomie se propose d’étudier l’influence de différents facteurs pesant sur la réalisation des prises de décisions économiques ainsi que les bases neuronales de ces processus. Les protocoles expérimentaux sont souvent complexes, étudient généralement l’influence de la récompense et de la punition, basée sur des systèmes monétaires et impliquent des moyens de neuroimagerie. Un parallèle peut-être dressé avec la situation qui nous intéresse où le pilote se retrouve pris dans un conflit lewinien (Lewin et al., 1939) entre des systèmes de punitions (économiser le carburant, éviter la fatigue engendrée par une deuxième tentative d’atterrissage...) et de récompenses (amener les passagers sans retard...) De façon générale, les études en neuroéconomie mettent en avant le fait que les processus de décision financière réalisés dans un contexte risqué mettent en jeu différentes zones cérébrales impliquées normalement lors d’expériences émotionnelles de la vie quotidienne. Les études sont conçues de façon à analyser tout le processus décisionnel, depuis la prise de décision elle-même jusqu’au traitement de ses conséquences financières (Dreher et al., 2006; Coricelli et al., 2005; Taylor et al., 2004). 3.3.3 Expérimentation Nous avons mis au point un protocole expérimental (Causse, 2010), inspiré de l’approche de la neuroéconomie, visant à moduler sous l’influence de l’argent la prise de décision de participants confrontés à une situation proche de celle de l’atterrissage (c.f. figure 3.3.1). Ainsi une matrice de paiement reproduisait les différentes pressions, en particulier financières, qui incitaient à l’atterrissage (+ 5 euros) et rendait la remise de gaz aversive même si elle était justifiée (-2 euros). Une remise de gaz inappropriée était fortement punie (-5 euros) alors que la poursuite erronée de l’atterrissage était punie modérément (-2 euros). La prise de décision s’effectuait en fonction de la configuration visuelle d’un instrument d’aide à l’atterrissage issu d’interfaces d’avions de ligne. L’incertitude était également manipulée et l’instrument d’aide à l’atterrissage affichait des informations soit certaines (0% ou 40 100% de chance réussir l’atterrissage) soit ambiguës (50% de chances de réussir l’atterrissage). Une première expérimentation a été réalisée avec 19 volontaires (élèves pilotes de l’Isae) afin d’observer les modifications du système nerveux autonome et du comportement oculaire lors de la prise de décision en condition neutre ou financière et en fonction de l’incertitude (Causse et al., in Press). Une deuxième expérimentation en IRMf a été réalisée avec 15 sujets à la Fondazione Santa Lucia à Rome, en collaboration avec l’équipe du Pr Sabatini (Causse, 2010). Figure 3.3.1 Reproduction simplifiée de la prise de décision lors de l’atterrissage. Dans la partie supérieure, l’environnement réel, de gauche à droite : le PFD (Primary Flight Display) au sein du cockpit, le PFD réel en gros plan avec les deux losanges de l’Instrument Landing System (ILS en rose), la manette des gaz. Deux expérimentations ont été réalisées : dans chacune d’elles, un PFD simplifié était présenté (uniquement l’ILS, représenté par les deux losanges blancs, était conservé) et le boîtier de commande, permettait comme la manette des gaz, de choisir d’atterrir ou de remettre les gaz (Causse, 2010). Résultats 1 : expérience physiologie et oculométrie Les données comportementales de cette première expérience (c.f. figure 3.3.2) ont montré que les participants prenaient plus souvent des décisions dangereuses d’atterrir dans la condition où la récompense était manipulée par rapport à la condition neutre où aucune récompense n’était attribuée. Ces prises de risque se manifestaient également par un raccourcissement des temps de réaction (TR). Cela était particulièrement vrai lorsque l’incertitude était la plus forte. Les données psychophysiologiques (c.f. figure 3.3.3) ont montré que ce biais dans la prise de décision s’accompagnait également d’une augmentation du rythme cardiaque, traduisant vraisemblablement une mobilisation catabolique et une réponse émotionnelle plus importante (Causse et al., 2007). Des temps de fixation plus longs ont également été observés dans la condition à forte incertitude (c.f. figure 3.3.3), ce qui peut être le reflet d’une plus grande difficulté pour extraire de 41 Figure 3.3.2 Les deux figures montrent la bascule comportementale qui s’opère lorsque les participants doivent prendre des décisions sous influence de l’argent : le "response bias" (figure de gauche) augmente (traduisant une probabilité plus importante que le sujet accepte d’atterir) et le temps de réponse diminue (figure de droite) d’autant plus fortement que l’incertitude est grande (Causse et al., in Press). l’information de l’instrument de vol (Goldberg et Kotval, 1999; Wilson et Eggemeier, 1991; Fitts et al., 1950) sinon d’un engagement attentionnel plus important (Duchowski, 2007). Figure 3.3.3 La figure de gauche montre que la bascule émotionnelle s’accompagne d’une augmentation du rythme cardiaque (figure de gauche) et de la longueur des temps de fixation (figure de droite) (Causse et al., in Press). Il est ainsi intéressant de constater que les prises de décisions risquées semblaient être réalisées en dépit d’une bonne analyse visuelle de la situation. Ce type de résultat montre que le choix conflictuel du pilote de poursuivre un atterrissage dangereux peut être réalisé en pleine conscience, confirmant ainsi les études sur le “plan continuation error” (Holbrook et al., 2003; Burian et al., 2000). Ainsi, l’ensemble de ces résultats comportementaux, physiologiques et oculométriques tendent à confirmer l’existence d’une “bascule” d’un raisonnement “à froid” à un raisonnement “à chaud” qui conduirait les pilotes à modifier leur critère de décision sous l’influence de stresseurs émotionnels. Le raisonnement “à froid” apparaitrait comme plus analytique et objectif alors que le raisonnement “à chaud” a été associé à une recherche de récompense au détriment de la sécurité. 42 Résultats 2 : expérience IRMf Les données comportementales de cette seconde expérience (TR et % de bonne réponses) étaient cohérentes avec les résultats obtenus dans l’expérimentation précédente puisque les participants ont présenté un comportement plus risqué dans la condition financière. Nos analyses de neuroimagerie, réalisées pour l’instant sur seulement 6 sujets, ont révélé des patterns d’activation cérébrale cohérents avec ceux de la littérature (Goel et Dolan, 2003; Simpson et al., 2001b,a), à savoir une activité différentielle des réseaux neuronaux selon que la décision est réalisée “à froid” ou “à chaud”. Les régions du CPFDL semble désactivées en présence de l’enjeu financier, dénotant un comportement moins “rationnel” au moment des prises de décisions. Cette diminution de la “rationalité” est à mettre en regard de la sécurité. En effet, d’un point de vue financier, ces décisions sont tout à fait cohérentes et peuvent s’expliquer par une bascule émotionnelle en faveur d’une utilité “financière”. Alors que le CPFDL est impliqué plus fortement lorsque la décision est réalisée “à froid”, le CCA ventral et l’insula semblent être recrutés lorsque la pression financière est présente (c.f. figure 3.3.4). De plus des activations du cortex orbitofrontal se manifestent en condition financière lorsque l’incertitude est importante. L’ensemble de ces activations sous enjeu financier nous confortent dans l’idée selon laquelle les motivations des participants s’orientaient différemment en présence de l’enjeu au détriment des considérations sécuritaires. Le CCA ventral est connu pour son rôle dans les processus émotionnels, y compris les réactions physiologiques telles l’activité cardiaque, comme cela a été montré dans l’expérience précédente. Enfin, l’insula est considérée comme une région fortement liée aux émotions (Bechara et al., 1995) et à la prise de conscience d’un état de conflit (pour une revue, voir Scannella (2011), p. 65 et 66). Ainsi, le conflit, dans lequel étaient placé les participants, semble agir comme un stresseur émotionnel (Mann, 1992) dont la conséquence peut être néfaste pour le respect des règles de sécurité. Figure 3.3.4 Le contraste "condition financière > condition neutre" révèle une activité accrue du CCA ventral (BA 24, p <.01 ; K=28) et de l’insula (BA13, p<.01 ; k =5) (Causse, 2010). 43 3.4 LE CONFLIT VISUO-AUDITIF OU L’INSENSIBILITÉ DES PILOTES AUX ALARMES AUDITIVES : Les expérimentations précédentes ont montré que la persistance dans l’erreur pourrait s’expliquer par des limites de capacités exécutives et des biais émotionnels. Ces explications dites de “haut niveau” semblent nécessaires mais pas suffisantes pour rendre compte d’événements aériens où les pilotes ont persisté dans des décisions erronées en dépit d’alarmes auditives (Bliss, 2003). Pourtant ces types d’alarmes sont connus pour leur efficacité à faire réagir les pilotes en situation d’urgence (Doll et Folds, 1986; Wheale, 1981; Edworthy et al., 1991). Néanmoins, leur caractère agressif, distrayant et perturbant (Doll et al., 1984; Edworthy et al., 1991), ainsi que leur rareté peuvent amener les opérateurs à les négliger (Parasuraman et al., 1997). Toutefois, il apparaît que le manque de fiabilité des alarmes est le facteur principal qui conduit les pilotes à ignorer ces signaux (Sorkin, 1988; Song et Kuchar, 2001; Bliss et Dunn, 2000; Shapiro, 1994). En aviation, ce phénomène décrit par le terme de "Cry-wolf effect" (l’effet dit de « crier au loup » en français) (Wickens et al., 2009; Breznitz, 1984) est à l’origine de nombreuses collisions en vol ou avec le relief alors que l’aéronef est en parfait état de vol. Ainsi Bliss et al. (2003) montrent qu’il existe une relation quasi-linéaire entre le taux de fiabilité d’une alarme et le taux d’absence de réponse à cette alarme. Cette dégradation du taux de réponse est d’autant plus forte que ces alarmes se déclenchent lors de périodes de fortes charges de travail (Bliss et Dunn, 2000). Un point de vue alternatif défendu dans la thèse de S. Scannella (2011) est de considérer que ces situations peuvent s’expliquer par des conflits dits de “bas niveau” entre les modalités visuelles et auditives. En particulier, le pilotage sollicite fortement l’activité oculaire et l’apparition d’alarmes sonores contradictoires avec les informations visuelles du cockpit pourraient amener les pilotes à une certaine insensibilité auditive. Cette hypothèse, appuyée par de nombreux travaux en psychologie cognitive plus fondamentaux et en neurosciences, est argumentée dans la section suivante. 3.4.1 L’apport des neurosciences pour la compréhension des conflits de bas niveau Colavita (1974) a montré que nous avons une tendance naturelle à favoriser les informations visuelles par rapport à celles issues de nos autres sens et en particulier vis-à-vis de l’audition. Cette dominance visuelle sur l’audition est démontrée dans des tâches complexes (Sinnett et al., 2007; Yuval-Greenberg et Deouell, 2009; Wang et al., 2002). S’il existe toutefois des exceptions (Guttman et al., 2005; Recanzone, 2003; Repp et Penel, 2002), il est évident que la présentation contradictoire et conflictuelle d’informations visuelles et auditives dégrade la performance (Elliott et al., 1998; Weissman et al., 2004). En neurosciences, la question du conflit entre processus cognitifs est telle que des auteurs (Allport, 1987; Mozer et Sitton, 1998; Botvinick et al., 2001) n’hésitent pas a faire valoir que ces phénomènes comportementaux, généralement attribués à l’existence et aux limites de capacité d’un processeur central unique (Baddeley, 1990), doivent être conceptualisés en terme de conflits entre processus de traitement parallèles. Des travaux récents montrent l’existence d’aires cérébrales spécialisées dans le traitement de ces conflits. (Cohen et al., 1990). Ainsi le cortex pariétal est considéré comme une voie d’entrée de l’information où ont lieu les premières étapes de la gestion du conflit (Bunge et al., 2002; Corbetta et Shulman, 2002; Wang et al., 2010), le cortex cingulaire antérieur semble jouer un rôle particulièrement actif dans la supervision du conflit (Botvinick et al., 2001) et le cortex préfrontal dorsolatéral est impliqué dans la résolution de ces conflits via des processus d’inhibition et/ou de sélection en fonction de la tâche à accomplir (Milham et al., 2001; Rubia et al., 2003). L’étude de ces régions cérébrales présente non seulement un intérêt majeur pour la compréhension de la régulation de la charge cognitive en ergonomie mais elle permettrait aussi d’avoir une compréhension plus fine du lien entre conflit et erreur humaine. Ainsi des études récentes (Fedota et Parasuraman, 2010; Holroyd et Coles, 2002) démontrent l’intérêt de mesurer des potentiels évoqués 44 dans cette région et en particulier la composante négative et précoce nommée “error-related negativity - ERN ” (négativité reliée à l’erreur). 3.4.2 Expérimentation Une expérimentation a été proposée pour tester l’existence de conflits intermodalitaires à l’origine d’une insensibilité aux alarmes visuelles (Scannella, 2011). Un scénario “écologique” a été proposé à treize participants et nous avons utilisé des outils issus des neurosciences pour mettre en évidence des corrélats électrophysiologiques. De manière à nous rapprocher des conditions qui conduisent les pilotes à négliger les alertes (c.f. figure 3.4.1), nous avons évalué l’influence de trois facteurs contextuels sur le niveau de performance et l’amplitude des composantes électrophysiologiques : – La rareté : nous avons défini un son “alarme de remise de gaz “ (bip aigu à 1250 Hz) qui était présent dans 25% des cas. Dans 75 % des cas, un son “fréquent” (bip grave à 750 Hz) était émis et signifiait qu’aucune panne n’était présente ; – La fiabilité : nous avons manipulé la fiabilité de cette “alarme de remise de gaz” et du son “fréquent” qui sont dans la moitié des cas étaient incompatibles avec les indications de l’instrument principal ; Figure 3.4.1 Les volontaires, équipés d’une bonnet EEG, regardaient des vidéos d’atterrissage durant lesquelles ils devaient prendre la décision d’interrompre ou de poursuivre cet atterrissage à l’aide d’un boitier de réponse. La vidéo, présentée au centre de l’écran, est entourée de trois instruments et correspond à une vue "cockpit" d’un atterrissage. L’instrument 1 était l’instrument de vol principal : il indiquait la piste en service par la couleur verte (ici la piste de gauche). Le réticule jaune indiquait à un instant t la piste sur laquelle se dirigeait l’avion (ici la piste de droite). La position de ce réticule devait être cohérente avec l’indication de l’instrument 1. Les deux instruments latéraux secondaires (2 et 3) donnaient une information sur des paramètres de vols génériques dont la valeur peut être dans la norme (flèche en position vert comme sur l’instrument 2) ou anormale (flèche en position rouge comme sur l’instrument 3). Un son était émis et pouvait soit être une "alarme de remise de gaz" (25 % des cas), soit un son "fréquent" indiquant qu’il n’y avait pas de problème (75 % des cas) (Scannella, 2011). 45 – La difficulté : nous avons créé trois niveaux progressifs de difficulté (D1, D2 et D3) en fonction des différentes combinaisons visuo-auditives pour évaluer l’impact de la charge de travail sur le niveau de performance (c.f. figure 3.4.2) : – Dans la difficulté D1, les informations visuelles du cockpit étaient toutes cohérentes et la décision pouvait être prise quelle que soit l’information auditive (ex : les trois instruments sont “dans le vert” et l’atterrissage doit se poursuivre même si l” ’alarme de remise de gaz” se déclenche), – Dans la difficulté D2, un des deux instruments secondaires n’était pas cohérent avec l’information de l’instrument principal. Le participant devait ignorer cet instrument secondaire défaillant et prendre la décision en fonction des indications de l’instrument principal et de l’autre instrument secondaire. Dans ce niveau de difficulté intermédiaire, l’information auditive pouvait également être ignorée (ex : l’instrument principal 1 et l’instrument 2 sont dans “le vert”, l’instrument 3 est “dans le rouge”. L’atterrissage peut se poursuivre même si l’alarme de remise de gaz se déclenche) , – Dans la difficulté D3, les deux instruments secondaires n’étaient pas cohérents avec l’information de l’instrument principal. La décision devait être prise en tenant compte des informations sonores (ex : un son “fréquent” indiquait que le vol devait se poursuivre). Figure 3.4.2 Captures d’images de situation illustrant les trois niveaux de difficulté. Pour les trois niveaux l’exemple a été choisi avec un réticule en direction de la piste d’atterrissage de droite et le son peut être un son "fréquent" ou une "alarme". Dans la difficulté 1, les trois instruments donnent la même information (dans ce cas poursuivre le vol à l’instant t quel que soit le son) : le réticule est sur la piste droite et la piste droite est "verte" ; l’instrument 2 est "vert" et l’instrument 3 est "vert". Dans la difficulté 2, l’instrument principal 1 (piste) et l’instrument 3 donnent la même information (dans ce cas ne pas poursuivre le vol à l’instant t quel que soit le son). Enfin dans la difficulté 3, l’instrument principal donne une information opposée aux instruments 2 et 3 et ce sont les informations auditives qui donnent l’information nécessaire pour la réponse (un son "fréquent" pour la poursuite du vol ou une "alarme de remise de gaz" pour l’arrêt) (Scannella, 2011). Résultats Les résultats comportementaux ont révélé un effet du niveau de difficulté sur la performance des volontaires : les TR et le taux de bonne réponses se dégradaient au fur et à mesure de l’augmentation de la difficulté (D1, D2 puis D3). Ces effets comportementaux étaient visualisables en EEG sous la 46 forme d’une augmentation de l’amplitude de la composante cognitive P300 frontale avec l’accroissement de la difficulté. Il est intéressant de noter que l’alarme induisait toujours une P300 plus ample par rapport au son fréquent et ce, quel que soit le niveau de difficulté (c.f. graphe de gauche - figure 3.4.3). Par ailleurs, lorsque les sujets devaient prendre en compte l’alarme (difficulté D3), le générateur principal de la P300 se situait dans le cortex orbito-frontal (c.f. image de droite - figure 3.4.3), une aire cérébrale impliquée dans la prise de décision sous forte incertitude (Bechara et al., 1995) et qui traduit une difficulté d’adaptation à la tâche (Wintink et al., 2001). Ainsi, les participants étaient capables de faire attention à cet événement rare mais cela se traduisait par une réponse plus tardive et moins appropriée et un recrutement du cortex préfrontal. Si l’on transfère ces observations aux cas des pilotes en situation de charge de travail importante, comme c’est le cas pendant la phase d’atterrissage, la présentation d’une alarme (i.e. un son rare à caractère négatif) nécessiterait l’utilisation de ressources cognitives déjà engagées dans la tâche courante (Bliss et Dunn, 2000). Figure 3.4.3 Effet de l’interaction entre le niveau de charge de travail et la rareté de l’alarme. La P300 est une composante positive qui apparaît avec une latence de 300 ms après la présentation d’un stimulus rare, tel que l’alarme dans notre expérimentation. Figure de gauche : l’augmentation du niveau de difficulté accroît l’amplitude de cette composante, traduisant un engagement plus important des participants. Toutefois, on remarque que l’amplitude de la P300 en présence de l’alarme de remise de gaz est toujours supérieure à celle de la P300 en présence du son fréquent. D1, D2, D3 : difficultés D1, D2 et D3. ∗ : p<0,05. ∗ ∗ ∗ p<0,001. Figure de droite : le générateur de la P300 se situerait dans le cortex orbito-frontal lorsque l’alarme se déclenche en condition D3. Cette aire cérébrale est un indicateur de la prise de décision sous incertitude (Bechara et al., 1995) et de la difficulté d’adaptation à la tâche (Wintink et al., 2001). Ces résultats électro-physiologiques semblent confirmer que la prise en compte d’un événement rare est coûteuse et peuvent expliquer en partie la dégradation de la performance comportementale des participants (Scannella, 2011). 47 Par ailleurs, le résultat le plus intéressant (c.f. figure 3.4.4) montrait un effet du conflit visuoauditif qui atténuait significativement l’amplitude de la N100 lorsqu’une “alarme de remise de gaz” était contradictoire avec les indications des instruments (i.e. se poser). Cela confirme l’existence d’un filtrage intermodal pré-attentionnel qui pourrait induire une diminution du gain sensoriel auditif (Lebib et al., 2003). Ainsi, l’information sémantique auditive d’un événement dont l’occurrence est moins fréquente et dont l’information est moins fiable que celle de ses compétiteurs est sensiblement atténuée par des mécanismes de sélectivité attentionnelle. La rareté de certaines alarmes dans le cockpit d’avion ainsi que leur fiabilité limitée pourrait induire un filtrage perceptif à un niveau précoce du traitement sensoriel. Pris ensemble, ces résultats pourraient expliquer en partie l’insensibilité aux alarmes chez les pilotes qui favoriseraient les informations visuelles au détriment d’informations sonores, considérées comme moins fiables. Figure 3.4.4 Effet du conflit visuo-auditif. La N100 est une composante négative qui survient environ 100 ms après la présentation d’un stimulus rare auditif ou visuel. Dans notre expérience, une N100 est toujours présente quelle que soit la condition. La présence de l’alarme induit toujours une amplitude plus importante par rapport à la condition avec le son fréquent. Toutefois, la N100 est significativement moins ample (traits pointillés rouges) lorsque l’"alarme de remise de gaz" est conflictuelle avec les informations visuelles en comparaison avec la condition où l’"alarme de remise de gaz" est compatible avec les informations visuelles (traits pleins rouges). La N100 est connue pour être le reflet d’un mécanisme de sélectivité attentionnelle précoce (Hillyard et al., 1998) : nos résultats semblent montrer qu’une alarme sonore non pertinente serait filtrée de manière très précoce dès les aires auditives primaires. Illustration des résultats sur l’électrode Cz représentative de la région centrale. C : Compatible , I : Incompatible. ∗ : p<0,05, pour la différence C vs. I avec l’alarme. (Scannella, 2011). 48 3.5 CONCLUSION Dans ce chapitre, nous avons utilisé l’approche de la neuroergonomie pour appréhender les mécanismes sous-jacents au conflit et à la persistance dans l’erreur. L’enjeu était de s’approprier les outils théoriques et pratiques des neurosciences cognitives et de la neuropsychologie pour les appliquer à des problématiques d’ergonomie. Dans une première étude, nous avons administré à une population de pilotes une batterie de tests en vue d’évaluer des fonctions exécutives élémentaires. Un objectif était de corréler les performances de ces tests avec la qualité de la prise de décision évaluée en simulateur de vol. Les résultats ont montré que les capacités de MDT étaient particulièrement prédictives : les pilotes présentant de faibles capacités de mémoire de travail avaient tendance à s’enfermer dans une décision erronée en persistant à atterrir. Ainsi, la compréhension des mécanismes cérébraux précis des erreurs de pilotage, et la possibilité de prédire leur occurrence chez un individu nécessite encore de nombreux progrès. Cependant, la définition de telles batteries de tests pouvant être administrées à des pilotes à l’occasion de leur contrôle médical obligatoire serait selon nous une avancée significative en terme de sécurité aéronautique, notamment lorsque de fortes lacunes exécutives sont observées. Dans une deuxième étude, inspirée de la neuroéconomie, nous avons tenté de comprendre les mécanismes neuronaux sous-jacents à la persistance dans l’erreur. Notre hypothèse était que les conséquences financières négatives liées à la décision de remettre les gaz pouvaient provoquer un recrutement de réseaux émotionnels et biaisaient la prise de décision rationnelle. Nous avons conçu un protocole d’imagerie cérébrale où l’incitation financière et l’incertitude étaient manipulées alors que les participants étaient soumis à une tâche de décision lors de l”atterrissage. Ce protocole était également réalisé hors IRMf avec des mesures psychophysiologiques et oculométriques. Les résultats démontrent l’efficacité de l’enjeu financier à générer une certaine pression émotionnelle et à inciter à atterrir lors de situations pourtant trop dangereuses. Cette bascule s’accompagnait d’un recrutement des aires émotionnelles (CPFVM) au détriment des aires plus cognitives (CPFDL) ainsi que d’une hausse de l’activité cardiaque. Enfin dans une dernière expérimentation, nous avons développé un protocole EEG pour comprendre l’insensibilité des pilotes aux alertes auditives. Notre hypothèse était que les pilotes favorisaient le canal visuel au détriment du canal auditif lorsque ceux-si sont en conflit. Là encore nous avons observé que de tels conflits dégradaient la performance des participants et que les processus visuels prenaient le pas sur les processus auditifs par des mécanismes précoces de filtrage précoce au niveau de la N100. De tels mécanismes de bas niveau pourraient également expliquer pourquoi les pilotes peuvent négliger des alarmes critiques en particulier si de tels conflits se produisent en situation de forte charge de travail. 49 50 Chapitre 4 Conclusion et perspectives Dans ce travail, nous nous sommes intéressé à l’étude du conflit en privilégiant une approche pluridisciplinaire. Notre objectif a été de montrer que ce concept jouait un rôle central dans l’étude des interactions homme-machine. En premier lieu l’approche de la psychologie cognitive et la voie de l’expérimentation semblent confirmer que la survenue d’un conflit est un précurseur remarquable de la dégradation de la performance de l’opérateur humain. En particulier, un conflit conduit à focaliser l’attention de l’opérateur sur sa résolution et à provoquer des comportements de persistance dans l’erreur. Des solutions, les contre-mesures cognitives, ont été développées et ont montré leur efficacité pour assister les opérateurs en situation de conflit. Ensuite l’approche formelle a permis de structurer ce concept en en proposant une définition générique. Une mise en oeuvre informatique a été réalisée et il semble possible de prédire l’apparition du conflit avant qu’il se manifeste. Cet enjeu est important car il s’agit d’aider l’opérateur à l’anticiper en évitant ses effets de “surprise” bien connus dans la littérature. L’utilisation de la logique floue a également permis d’estimer la “tunnélisation attentionnelle”, un état possiblement induit par la présence du conflit. L’identification du conflit et la caractérisation psycho-physiologique de l’opérateur humain constituent des éléments essentiels de diagnostic pour adapter dynamiquement l’autorité entre l’homme et la machine. Enfin, l’approche originale de la neuro-ergonomie a été proposée. Ainsi nous avons utilisé des outils issus de la neuropsychologie et des neurosciences cognitives, tels que les batteries de tests, l’IRMf et l’EEG, pour comprendre les mécanismes sous-jacents du conflit et de la persistance dans l’erreur. Ces travaux ont pu mettre en évidence que des conflits de “haut niveau” peuvent provoquer une bascule d’un raisonnement rationnel “à froid” vers un raisonnement émotionnel “à chaud” en modulant l’activité des aires cérébrales et en induisant des comportements plus risqués. L’existence de conflits de “bas niveau” peut également expliquer en partie la dégradation des capacités attentionnelles de l’opérateur humain et l’insensibilité aux alarmes auditives : il existerait des mécanismes précoces de filtrage dès les aires auditives primaires. Il apparaît enfin que les capacités de mémoire de travail sont cruciales pour mettre à jour la conscience de l’opérateur et éviter de persister dans des raisonnements erronés. L’ensemble de ces travaux ont pu se réaliser grâce à des collaborations pour expérimenter, analyser, formaliser, mettre en œuvre ou publier. Ainsi nous avons été amené à travailler principalement avec l’Onera DCSD, l’Inserm U825, la fondation Santa Lucia (Rome), le Laas, l’Université Laval (Québec) et l’Irit. Sans les chercheurs de ces différents Instituts, nous n’aurions pu avancer sur l’étude des conflits dans les interactions homme-machine. Toutefois, le travail que nous avons mené sur le conflit doit se poursuivre et de riches perspectives sont ouvertes. 51 4.1 PERSPECTIVE 1 : NEUROERGONOMIE L’Isae et l’Inserm U825 ont établi un partenariat pour développer la neuroergonomie en France. Cette approche a trouvé une reconnaissance auprès de la DGA qui a inscrit la neuroergonomie comme une orientation majeure du domaine « Homme et Système » de la Politique et Objectifs Scientifiques (POS) en 2011. Ainsi, l’objectif envisagé est de poursuivre cette démarche pour identifier les invariants responsables des comportements anormaux, invariants qui seront mis en œuvre dans des situations différentes et qui découlent des mécanismes cérébraux contraints par la neurophysiologie. Une difficulté évidente de cette proposition est de relier des mesures de neurones à des fonctions cognitives de haut niveau et de proposer une évaluation de la performance humaine en situation. Les moyens de mesure des neurosciences sont souvent intrusifs, limités à une utilisation en laboratoire et nécessitent de réaliser des protocoles simplifiés où les stimuli sont répétés de nombreuses fois et par voie de conséquence peu écologiques. Mais ce serait une vision à très court terme d’ignorer l’apport des neurosciences (Sarter et Sarter, 2003), d’autant que les techniques de capteurs progressent et se miniaturisent et que des interfaces cerveau-machine, dont il faut penser leur rapport à l’homme, commencent déjà à être commercialisées. Dès lors, un enjeu important est de consolider cette approche et de maintenir des liens forts avec l’Inserm U825. C’est également dans cette perspective que s’est porté le choix du recrutement dans l’équipe de M. Causse, maître de conférence en neurosciences et ergonome, pour asseoir cet axe de recherche. D’un point de vue scientifique, la poursuite de ces recherches va consister à reproduire le protocole IRMf que nous avons développé pour étudier la prise de décision des pilotes à l’atterrissage dans différentes situations conflictuelles. Dans un premier temps, le but est de réaliser ces expériences avec des volontaires ayant une véritable expérience de pilotage. Ensuite, ce protocole doit être amélioré pour être plus écologique en plaçant les participants dans un contexte dynamique (ex : présentation de vidéos, utilisation de simulateur..) : la maîtrise de techniques comme l’analyse en composantes indépendantes (Biswal et Ulmer, 1999) est une voie prometteuse pour envisager de telles mises en situation (Calhoun et al., 2005). Par ailleurs, l’étude de certaines structures cérébrales telles que le pulvinar (thalamus) pourrait être particulièrement intéressante pour comprendre les mécanismes sous-jacents à la persistance dans l’erreur et aux troubles attentionnels que nous avons identifiés lors de nos expérimentations (c.f. section 2.2.1) : des recherches révèlent que cette structure cérébrale est impliquée dans l’attention sélective en procédant par une inhibition des stimuli distracteurs et des lésions de cette région conduisent à une perte de capacité au décrochage attentionnel (LaBerge et al., 1992). Parallèlement, des travaux en imagerie révèlent que des sujets sains en situation de “tunnélisation de l’attention” sous les effets de stresseurs (Tracy et al., 2000) montrent des activations particulières du pulvinar. L’application de tels paradigmes expérimentaux à des situations de pilotage serait pertinente dans le cadre de nos recherches en particulier pour tester l’impact des contre-mesures sur des structures cérébrales comme le pulvinar. La reproduction de l’expérimentation en EEG sur la non-perception d’alarmes se situe également dans cette dynamique : il nous faut augmenter avant tout le nombre de participants pour aller audelà des résultats encourageants que nous avons obtenus. Un moyen de mesure complémentaire pour ce type de recherche est de considérer l’imagerie spectroscopique en proche infrarouge (NearInfrared Spectroscopy - NIRS). Cette technologie très prometteuse possède une meilleure résolution temporelle (et possiblement spatiale) que les techniques d’imagerie de type IRMf (Gratton et al., 2003). Elle offre également les avantages d’être transportable et peu coûteuse en comparaison des investissements nécessaires pour un IRMf. Des travaux précurseurs montrent son intérêt pour des problématiques de pilotage (Takeuchi, 2000) mais également pour mesurer le niveau d’engagement attentionnel (Takahashi et al., 2000), une perspective qui fait écho à la “tunnélisation attentionnelle”. Dans le cadre du projet européen D3COS, des expérimentations sur nos moyens de simulation seront réalisées en collaboration avec le Pr. Sergio Fonda (Université de Modene et Reggio Emilia) qui développe cette technologie dans son laboratoire. 52 4.2 PERSPECTIVE 2 : EXPERIMENTER DE NOUVELLES CONTRE-MESURES COGNITIVES Nous avons mis au point des contre-mesures cognitives dont l’objectif est de désengager et réorienter l’attention d’un opérateur humain lorsqu’il fait face à une situation de “tunnélisation attentionnelle”. Leur principe consiste à retirer une information d’une interface sur laquelle se focalise à tort un opérateur et à la remplacer par une information pertinente. Ces contre-mesures ont montré leur efficacité dans un contexte où les alarmes visuelles n’étaient pas perçues. Toutefois des expérimentations doivent être conduites pour prouver l’efficacité des contre-mesures dans des conditions où des alertes auditives ne seraient pas prises en considération. Un protocole, utilisant le simulateur de vol de l’Isae, a été défini où des pilotes équipés d’un oculomètre et d’un électrocardiogramme, sont placés dans différentes situations d’approche finale. Dans un des scénarios, la séquence de sortie du train d’atterrissage ne se réalise pas entièrement et doit conduire les participants à une remise de gaz. Cette défaillance est signalée dans le cockpit par le déclenchement d’une alarme sonore idoine (“triple gong”) et par l’affichage d’une icône associée (1 rond rouge et deux ronds verts). Comme cette panne se produit à un moment où l’avion subit un violent gradient de vent (risque de décrochage) alors que la piste est en vue, il est attendu que les volontaires se focalisent sur le pilotage strict de l’avion pour poursuivre l’atterrissage et ne perçoivent ni les alertes sonores ni les alertes visuelles. Dans l’état actuel des choses 14 pilotes d’aviation légère (âge moyen : 30 ans, expérience de vol moyenne : 260 heures) ont participé à l’expérimentation en condition sans contre-mesure. Les résultats comportementaux montrent que seulement six pilotes sur quatorze ont perçu immédiatement les alarmes sonores et visuelles et ont remis les gaz alors que les autres sujets ont poursuivi la phase d’atterrissage. Des contre-mesures cognitives sont en cours de développement informatique et vont consister à éteindre l’ensemble des cadrans pour une période très brève et à envoyer un message indiquant la panne dans le viseur tête haute. Figure 4.2.1 Des participants sont placés dans le simulateur de vol de l’Isae (figure de gauche). Dans un des scénarios, un des trains d’atterrissage ne se déploie pas : une alarme ("triple gong") retentit et l’afficheur de l’état du train sur l’instrument primaire de vol indique deux lumières vertes et une lumière rouge au lieu de trois lumières vertes (c.f. en bas à droite de la figure de droite). Seulement six pilotes sur quatorze ont perçu les alarmes visuelles et auditives. Des contre-mesures cognitives sont en cours de développement informatique. Le concept de contre-mesures cognitives ne doit pas se restreindre au seul principe du retrait d’information. Des pré-expérimentations ont été réalisées et explorent actuellement une approche 53 complémentaire qui consiste à suggérer le plus rapidement possible l’action à entreprendre, sans masquer pour autant une information déjà existante (Causse, 2010). Le principe fondateur consiste à exploiter les propriétés des neurones miroirs (Rizzolatti et Craighero, 2004), dont l’existence chez l’homme semble plausible. En cas d’urgence, les contre-mesures se matérialisent par l’affichage de l’action à entreprendre, sous forme d’une animation projetée au sein du cockpit, dans un écran prévu à cet effet. Le principe est de suggérer efficacement l’action à entreprendre en affichant, par exemple, une main tirant sur le manche. De nombreuses collisions avec le terrain auraient pu être évitées simplement par une action appropriée du pilote à cabrer. Il est envisageable que la perception d’une telle action pourrait suggérer très rapidement l’action à entreprendre. En effet, selon la théorie des neurones miroirs, la perception d’une action et son exécution impliquent des populations de neurones communes. L’effet de cette contre-mesure pourrait être efficace grâce à la « pré-activation » de ces neurones via la perception de l’action se déroulant sous les yeux du pilote. A notre connaissance, l’exploitation des propriétés des neurones miroirs n’a fait l’objet d’aucune étude dans le domaine des IHM. Une dernière perspective de contre-mesure relève du domaine visuo-haptique. Dans le domaine de l’aéronautique, les technologies actives à retour d’effort semblent être une voie appropriée pour augmenter le ressenti des pilotes lors de ces phases cruciales et pour les aider dans leur tâche de commande. Il n’y a que peu de recherches dans ce domaine en aéronautique, mais des travaux précurseurs (Amirabdollahian et al., 2002) démontrent que la modification en temps réel de l’impédance d’un robot haptique permet d’assister des patients atteints de troubles du contrôle moteur dans des tâches de guidage. Des travaux dans le domaine de la conduite automobile montrent également que la modification de l’impédance donne au conducteur un meilleur contrôle de son véhicule (Minin et al., 2008). Par ailleurs, des recherches originales (Lécuyer et al., 2004) suggèrent l’utilisation d’illusions pseudo-haptiques visuelles pour générer des sensations de vitesse, d’accélération ou de relief dans des tâches de guidage. Ainsi la maîtrise du couplage des modalités visuelles et haptiques est un enjeu scientifique pour améliorer la performance d’opérateurs dans des tâches de pilotage. Dans cette perspective d’étude, nous avons développé un banc de pilotage constitué d’un manche actif et d’un simulateur de vol en partenariat avec Ratier Figeac dans le cadre du projet GASVT. L’enjeu est de réaliser des expérimentations pour tester différents concepts tels que la modification dynamique du couplage visuo-haptique pour inciter ou interdire certaines manœuvres de pilotage et donner un meilleur ressenti de l’avion à l’équipage. 4.3 4.3.1 PERSPECTIVE 3 : MODÉLISATION DE L’ATTENTION Détection en temps réel de la “tunnélisation de l’attention” Les travaux de modélisation présentés dans le chapitre 2 ont montré qu’il était possible de formaliser les phénomènes de “tunnélisation attentionnelle”. Cependant, la détection de ce trouble attentionnel est actuellement réalisée “hors ligne” après un traitement et une normalisation des données. De plus, la définition des règles de type “Si/Alors” relève d’une connaissance experte a posteriori qui peutêtre critiquable. Or l’objectif des systèmes adaptatifs consiste à pouvoir inférer en temps réel l’état cognitif des opérateurs pour modifier en conséquence l’interaction. Dès lors, les enjeux de nos travaux consistent à définir des protocoles inspirés de l’approche de Liu et al. (2008) où les sujets sont soumis à différentes tâches cognitives avant de commencer l’expérience proprement dite. Cette méthode permet d’obtenir une première estimation du “domaine” psychophysiologique dans ses valeurs extrêmes pour envisager une normalisation des données en temps réel. Ensuite, des techniques formelles telles que les réseaux neurones doivent être considérées pour “apprendre” (Marshall, 2007) automatiquement ces états attentionnels. Des travaux sont actuellement en cours et montrent que des techniques d’apprentissage de type neuro-flou (ANFIS) sont particulièrement adaptées à cette problématique. Une première mise en œuvre a été réalisée à l’aide de la toolbox “Fuzzy” de Matlab et permet d’obtenir 54 un très bon taux de réponse de 94 % (Thooris, 2011). L’enjeu est également de multiplier les métriques en intégrant des données tels les clignements oculaires, les caractéristiques balistiques des saccades, la longueur des fixations (volontaires vs. involontaires) ou encore des mouvements de tête, pour faciliter la catégorisation de cet état d’engagement attentionnel (Regis, 2011). Enfin, l’utilisation de ces différentes mesures dans un contexte opérationnel nécessite de travailler autant au développement de nouveaux capteurs “embarquables” (ex : micro et nano capteurs) et peu intrusifs (Dehais et al., 2008) que sur l’aspect du traitement du signal. Des collaborations avec des spécialistes du domaine doivent être réalisées pour mener à bien de telles études. C’est l’enjeu du chantier RTRA-FH, auquel nous participons activement en collaboration avec le laboratoire CLLE de l’UTM, de réunir une communauté scientifique pluridisciplinaire autour de ces problématiques. La poursuite de ces travaux sera en partie assurée par une thèse (2012 - 2015, financement MESR) qui sera en relation avec un projet financé par le BEA. 4.3.2 Vers un modèle neuropsychologiquement plausible de l’attention visuelle et auditive Une idée pour améliorer la conception et le diagnostic d’interfaces homme-machine est de pouvoir disposer d’un modèle cognitif formel d’un opérateur humain. Un tel modèle peut également contribuer à assister en ligne un opérateur humain en anticipant l’apparition d’états tels que la “tunnélisation attentionnelle”. Dans le cadre de cette problématique, une étape consiste à définir un modèle dynamique de l’attention visuelle, dans la mesure où l’activité de traitement de l’information visuelle est particulièrement sollicitée dans les interactions homme-machine (exemple : surveillance des paramètres avion). En ce sens le modèle que nous avançons cherche à reproduire les mécanismes cognitifs mis en évidence par la psychologie cognitive et les neurosciences (ex : voies ventrales et dorsales (Goodale et Milner, 1992), cartes de saillance (Itti et al., 1998)). Ce modèle s’inscrit toutefois dans la continuité de travaux existants en intelligence artificielle (Itti et Koch, 2001), mais en les dépassant puisque nous y introduisons la dynamique temporelle, et des mécanismes plus complexes de recherche volontaire de l’information ("mécanismes top down"). Une première mise en œuvre informatique a été réalisée et confrontée à l’expérimentation (Seban et al., 2008) où les prédictions du modèle étaient comparées avec des mesures réalisées en oculométrie. Un processus de “diffusion attentionnelle” (c.f. figure 4.3.1) a par la suite été ajouté à ce modèle afin de prendre en compte l’influence “dynamique” que certains objets saillants exercent sur d’autres (Andrieu et al., 2008). Ce modèle présente également l’intérêt de pouvoir être dégradé, par exemple en créant des “lésions artificielles” entre les cartes de saillances et les cartes spatiales, pour représenter des pathologies attentionnelles telle la négligence spatiale unilatérale. Des expérimentations ont commencé en collaboration avec le Pr. P. Marque (U825, Inserm) et C. Jouffrais (IRIT), pour valider l’aptitude du modèle à prédire les performances de patients présentant des lésions pariétales. 55 Figure 4.3.1 Capture d’écran de la simulation du modèle attentionnel : un monde constitué d’objets (ex : ronds, carrés...) est présenté au modèle (à gauche). Le modèle est capable de créer des cartes de chaleur dynamiques en vue de simuler le comportement attentionnel (Andrieu et al., 2008). Cependant la nécessité de modéliser les processus Top-down (guidés par l’objectif) pour prendre en compte le concept de pertinence des informations perçues apparaît comme un enjeu majeur en vue des objectifs fixés. La piste proposée pour modéliser ces processus est de représenter les consignes (ou procédures) comme une méthode d’agrégation multicritère permettant d’évaluer la corrélation entre les caractéristiques des objets de la scène et les procédures définies par des sous-ensembles flous. Aussi, un simulateur de vol très simplifié a été développé (Fernandes, 2011) où différents cadrans de pilotage peuvent s’interfacer avec notre modèle pour pouvoir évaluer ces différentes méthodes d’agrégation (procédures de vote, moyennes, intégrales non additives...) Enfin une perspective pour ce travail de modélisation consisterait à intégrer les problématiques d’interaction entre les modalités visuelles et auditives de manière à pouvoir rendre compte de l’insensibilité des opérateurs aux alarmes. 56 4.4 PERSPECTIVE 4 : INITIATIVE MIXTE Cette dernière perspective de recherche s’inscrit dans la thématique des interactions opérateur humain-patrouille hétérogènes de robots autonomes. Une approche originale pour minimiser la survenue de conflits dans les systèmes opérateur-automatisation se situe dans le cadre des "initiatives mixtes" (Bresina et al., 2005) où les agents artificiels et humains participent conjointement à la réalisation d’une ou plusieurs tâches communes (ex : planification). Chaque agent apporte, en fonction de ses aptitudes reconnues par le groupe, des éléments pour atteindre de manière concertée un but particulier. Par exemple, l’opérateur peut donner des directives à l’engin pour imposer des limites à son comportement (Myers et Morley, 2001). Dans le même ordre d’idées, une approche originale (Schurr et al., 2003) propose d’inclure des conseils de l’opérateur directement au niveau des heuristiques utilisées par l’engin. Nous avons démarré des recherches pour appliquer ce concept d’"initiative mixte" à la planification de trajectoire et de mission et à la conception d’interfaces homme-machine. L’ensemble de ces études en cours sont financées par la DGA-MRIS depuis 2007. 4.4.1 Application à la planification mixte de trajectoire Une première interface a été prototypée pour réaliser la planification mixte de trajectoire de robots terrestres à partir d’images de type “Google Earth” ou de prises de vue aériennes réalisées par un ballon captif. Dans son principe, la planification consiste à utiliser des algorithmes de traitement d’images (i.e. détection de contours) pour transformer l’image de telle manière à ce que les obstacles apparaissent en noir et les chemins dégagés en blanc. On obtient ainsi une matrice ou chaque pixel de l’image est codé en 0 (blanc - passage libre) ou en 1 (noir-obstacle). La matrice obtenue permet d’appliquer un algorithme A* pour trouver une trajectoire possible entre un point de départ et un point d’arrivée en évitant les obstacles. Dans l’ensemble ces algorithmes de traitement d’images et de recherche de plus courts chemins sont beaucoup plus rapides qu’un opérateur humain pour déterminer des trajectoires. Cependant, ces algorithmes ne sont pas exempts de défauts et se révèlent beaucoup moins performants qu’un homme sur un plan qualitatif : les conditions de luminosité, lors de la prise d’image, peuvent augmenter ou diminuer le nombre d’obstacles détectés et il n’est pas possible de garantir systématiquement une trajectoire optimale. 57 Figure 4.4.1 Aperçu de l’application d’initiative mixte : les obstacles, détectés par des algorithmes de traitement d’image, apparaissent contourés en noir sur l’interface. Toutefois, on remarque que l’ombre du bâtiment (en bas à droite) est détectée à tort comme un obstacle par ces algorithmes (Dehais et al., 2010a). Dès lors, l’idée est de donner la possibilité à l’opérateur humain d’interagir de manière intuitive avec ces algorithmes pour optimiser le processus de planification : ainsi une interface a été développée et met à disposition des outils graphiques (ex : gomme) pour améliorer le traitement d’image et des outils d’édition pour modifier/ajouter des points de passage (c.f. figure 4.4.1). Ce démonstrateur a permis de valider la faisabilité technique du concept mais les travaux doivent se poursuivre en réalisant une évaluation ergonomique de ce type d’interaction avec de nombreux sujets dans le cadre d’une expérimentation de coopération opérateur-robot. Par ailleurs, nous envisageons de porter ce prototype sur une tablette tactile pour donner la possibilité à un opérateur humain “tactique”, présent sur le terrain, de modifier la carte de l’environnement mais également de pouvoir contrôler les robots par des ordres de haut niveau (ex : placement de waypoints par des actions de pointage...) 58 Figure 4.4.2 Aperçu de la situation tactique après l’interaction entre l’opérateur humain et les algorithmes : en 1) l’opérateur humain a effacé les zones d’ombre du bâtiment (c.f. image 4.4.1), en 2) il a ajouté un obstacle et en 3) une trajectoire planifiée automatiquement a été trouvée (Dehais et al., 2010a).. 4.4.2 Application à la planification de mission Des recherches connexes sont menées pour étendre le principe du concept de planification “mixte” de trajectoire à la planification “haut niveau” de la mission : l’enjeu est de permettre aux agents humains et artificiels de décider conjointement de la réalisation de la mission (ex : nombre et type de robots, planification des tâches, reconfiguration en cas d’aléas...) Une approche intéressante est de considérer les Processus Décisionnels de Markov Partiellement Observables (POMDP) (Kaelbling et al., 1998), qui permettent de modéliser des problèmes de planification où les effets des actions et les observations sont incertaines. L’incertitude sur les observations est particulièrement utile pour les problèmes d” ’initiative mixte”, car elle peut modéliser l’incertitude d’un agent (robot ou opérateur humain) sur les intentions et les désirs de l’autre agent (Atrash et Pineau, 2009; Thomson et al., 2008). Ainsi, chaque agent optimise une récompense globale commune en tenant compte des différentes hypothèses courantes sur les intentions et les désirs de l’autre. Chaque agent produit une stratégie d’action qui indique l’action à réaliser pour chaque hypothèse possible. Un stage de M2R (Rojas, 2011) a été réalisé l’an passé, en collaboration avec F. Teichteil, ingénieur de recherche à l’Onera DCSD, pour proposer une méthode de planification à “initiative mixte” basée sur le modèle POMDP et les travaux précédents cités. Cette recherche de M2R s’est portée sur la modélisation de la mission robotique de recherche de cibles (c.f. section 2.2.1) où des essais répétés ont permis d’obtenir des probabilités sur la survenue d’aléas : ces distributions de probabilités sont données pour une trentaine d’expérimentations réalisées avec notre environnement robotique et expriment le nombre de fois qu’un capteur fonctionne correctement (exemple : fiabilité du capteur infrarouge 27/30). Un premier modèle a été construit pour représenter toutes les actions et les transitions qui peuvent se déclencher à chaque moment de la mission (c.f. figure 4.4.3). Des simulations ont été réalisées avec différents algorithmes (LAO (Dai et Goldsmith, 2006), RFF (Teichteil-Konigsbuch et al., 2008), et FSP* (Teichteil-Konigsbuch et al., 2008)) pour trouver les plans optimaux afin de réaliser la mission. 59 Figure 4.4.3 L’ensemble des différents des états de la mission robotique de recherche de cible. EtatO : Calcul de la trajectoire - Etat1 : Aller vers zone - Etat2 : Repérer cible - Etat3 : Traitement de cible - Etat4 : Retourner base - Etat5 : Base - Etat 6 : Manuel (Contrôle Manuel opérateur) (Rojas, 2011). Algorithme Temps de calcul Pourcentage de succès Nombre moyen d’états trouvés RFF FSP LAO 50s 54min 67min 42% 62% 72% 61,35 42,47 33,44 Ainsi le tableau montre que l’algorithme RFF est le plus rapide (50 s) à trouver l’ensemble des plans, mais avec une faible probabilité de succès de 42% (i.e. pourcentage de réussite la mission) en passant en moyenne par 61,35 états. A priori le meilleur algorithme est LAO, dans la mesure où la pression temporelle n’est pas une limite, puisque les chances de succès sont de 72 % en produisant le moins d’états (i.e une complexité de l’ensemble des plans réduite). Une première perspective de ce travail est de programmer les différents plans calculés dans le calculateur du robot terrestre et de valider expérimentalement leur efficacité dans un cadre expérimental. Une deuxième perspective est de permettre à l’opérateur humain d’interagir directement avec les algorithmes de manière intuitive pour améliorer l’efficacité de ce procesus de planification : les résultats de nos simulations montrent que l’algorithme le plus performant a besoin d’une heure pour proposer une solution. Un tel temps de calcul n’est pas compatible avec les nécessités opérationnelles. Il doit être envisagé de doter les opérateurs humains de moyens graphiques pour relaxer des contraintes dans l’élaboration des buts de la mission et orienter la recherche de solution pour optimiser la planification de la mission dans une manière semblable à la recherche de trajectoires. 60 4.4.3 Vers une interface à initiative mixte Ces prototypes d’outils de planification à initiative mixte s’inscrivent dans une démarche plus large d’amélioration de la station sol développée dans le cadre de nos expérimentations (c.f. figure 4.4.4). Ainsi des travaux sont actuellement en cours afin de mettre en œuvre une nouvelle interface de pilotage et de supervision pour permettre à un opérateur humain d’interagir avec une patrouille hétérogène de robots. Cette interface intègre des concepts inspirés du contrôle aérien (ex : gestion de strips) ou de jeux vidéos de stratégie (ex : “mini carte”, synoptiques dynamiques..) qui ne sont pour le moment qu’au stade du développement informatique (Aubert et al., 2010). La plate-forme expérimentale multirobots constitue un environnement pertinent pour la conception d’une interaction coopérative et la validation expérimentale . Par ailleurs l’embauche cette année de P. Chauvin, ingénieur de laboratoire, et l’obtention de nouveaux financements MRIS-DGA vont permettre de concrétiser le développement informatique de cette interface et des différents concepts d” ’initiative mixte”. Figure 4.4.4 L’environnement robotique de l’Isae (à gauche) intègre progressivement davantage de vecteurs aéro-terrestres présentant des capacités opérationnelles différentes. La supervision de ces vecteurs nécessite de développer une IHM ergonomique (à droite) pour donner une bonne conscience de la situation à l’opérateur humain. Cette IHM intègre les concepts d’initiative mixte présentés dans cette section (Aubert et al., 2010). 4.5 SYNTHÈSE DES PERSPECTIVES Les perspectives que nous avons présentées visent à poursuivre l’étude du conflit en privilégiant une approche pluridisciplinaire. Notre première ambition est d’assurer le développement de la neuroergonomie. L’idée est de reproduire nos expérimentations IRMf et EEG avec davantage de volontaires mais surtout de définir de nouveaux protocoles permettant des mises en situation plus “écologiques” (ex : utilisation de vidéo ou de simulateurs simplifiés). De plus nous envisageons l’utilisation de nouveaux moyens de mesure telle la spectroscopie en proche infra-rouge pour disposer d’outils d’imagerie cérébrale portables. Il est attendu que ces travaux aident à mieux comprendre les effets du conflit sur l’activité cérébrale et permettent à terme d’établir des recommandations pour la conception des IHM. Nous continuons l’approche de la psychologie-ergonomie cognitive : il est nécessaire de valider expérimentalement le principe des contre-mesures et d’améliorer leur efficacité en s’inspirant du principe des “neurones miroirs” et des illusions visuo-haptiques. Ces nouvelles contre-mesures seront testées avec nos moyens de simulations (simulateurs de vol, plate-forme robotique) en plaçant des participants, équipés de capteurs, dans différentes situations de conflit. 61 Enfin, l’approche formelle doit être également poursuivie à travers plusieurs axes. En premier lieu, il nous faut concrétiser les travaux sur les systèmes adaptatifs pour assister automatiquement les opérateurs en situation de conflit et de “tunnélisation attentionnelle”. Cela suppose de mettre en œuvre des techniques d’apprentissage neuro-floues qui semblent particulièrement adaptées pour ces problématiques de diagnostic en temps réel. De plus, une perspective intéressante pour affiner un tel diagnostic serait de disposer d’un modèle dynamique des processus attentionels neuropsychologiquement plausible. Ce modèle permettrait également de simuler un opérateur humain pour tester des solutions IHM dès la phase de conception et éviter l’apparition de futurs conflits en condition opérationnelle. De même, une dernière perspective pour éviter la survenue de conflits est de considérer l’interaction à “initiative mixte” où chaque agent apporte sa contribution pour construire une représentation commune de la situation. L’ensemble de ces perspectives seront réalisées à travers des collaborations nationales et internationales et sont pour la plupart soutenues par des projets financés par des fonds européens ou en partenariat avec Airbus, la DGA, le RTRA, Thalès et le BEA. De plus, les récentes embauches de M. Causse, maître de conférence en neurosciences et ergonome, et de P. Chavin, ingénieur de laboratoire, permettront d’assurer la pérennité de ces travaux. 62 Bibliographie DA Allport : Selection for action : Some behavioral and neurophysiological considerations of attention and action. Perspectives on perception and action, 15:395–419, 1987. CM Allwood : Error detection processes in statistical problem solving. Cognitive science, 8(4):413– 437, 1984. R. Amalberti : Dysfonctionnements des systèmes et dysfonctionnements de la cognition : contribution à la compréhension de la sécurité des systèmes ultra-sûrs. Revue générale nucléaire, (1):55–62, 1998. R. Amalberti : Une réflexion sur le rôle des hommes dans les systèmes intelligents et automatisés. In Le rôle de l’être humain dans les systèmes automatisés intelligents, Varsovie, Pologne, 2002. RTO HFM. R. Amalberti et F. Deblon : A cognitive modelling of fighter aircraft process control : a step toward an intelligent on-board assistance system. International journal of man-machine studies, 36(5):639– 671, 1992. F. Amirabdollahian, R. Loureiro et W. Harwin : Minimum jerk trajectory control for rehabilitation and haptic applications. In Robotics and Automation, 2002. Proceedings. ICRA’02. IEEE International Conference on, volume 4, pages 3380–385. IEEE, 2002. Q. Andrieu, F. Dehais, A. Izaute, C. Lesire et C. Tessier : Towards a dynamic computational model of visual attention. In International Conference on Humans Operating Unmanned Systems (HUMOUS’08), Brest, France, 2008. A. Atrash et J. Pineau : A bayesian reinforcement learning approach for customizing human-robot interfaces. In Proceedings of the 13th international conference on Intelligent user interfaces, pages 355–360. ACM, 2009. T. Aubert, J. Corjon, F. Gautreault, M. Laurent, M. Causse et F. Dehais : Improving situation awareness of a single human operator interacting with multiple unmanned vehicles : first results. 2010. A. Baddeley : Human memory. Theory and Practice. Lawrence Erlbaum, Londres, 1990. HP Bahrick, PM Fitts et RE Rankin : Effect of incentives upon reactions to peripheral stimuli. Journal of Experimental Psychology, 44(6):400–406, 1952. S.P. Baker, Y. Qiang, G.W. Rebok et G. Li : Pilot error in air carrier mishaps : Longitudinal trends among 558 reports, 1983-2002. Aviation, space, and environmental medicine, 79(1):2, 2008. R.A. Barkley : Behavioral inhibition, sustained attention, and executive functions : Constructing a unifying theory of adhd. Psychological bulletin, 121(1):65, 1997. 63 JL Beauvois, M Bungert et P Mariette : Forced compliance : Commitment to compliance and commitment to activity. European Journal of Social Psychology, 25(1):17–26, 1995. A. Bechara, A. R. Damasio, H. Damasio et S. W. Anderson : Insensitivity to future consequences following damage to human prefrontal cortex. Cognition, 50:7 – 15, 1995. DB Beringer et HC Harris, Jr : Automation in general aviation : Two studies of pilot responses to autopilot malfunctions. The International Journal of Aviation Psychology, 9(2):155–174, 1999. D. Besnard, D. Greathead et G. Baxter : When mental models go wrong : co-occurrences in dynamic, critical systems. International Journal of Human-Computer Studies, 60(1):117–128, 2004. ISSN 1071-5819. EE Billings : Aviation automation : The search for a human-centered approach. Lawrence Erlbaum associates, Inc., Mahwah, NJ 07430(USA), 1996. B.B. Biswal et J.L. Ulmer : Blind source separation of multiple signal sources of fmri data sets using independent component analysis. Journal of computer assisted tomography, 23(2):265–271, 1999. J.P. Bliss : Investigation of alarm-related accidents and incidents in aviation. The International Journal of Aviation Psychology, 13(3):249–268, 2003. J.P. Bliss et M.C. Dunn : Behavioural implications of alarm mistrust as a function of task workload. Ergonomics, 43(9):1283–1300, 2000. K.O. Boley : Error-free performance. Flightfax, 14, 1986. O. Bonnet-Torrès, P. Domenech, C. Lesire et C. Tessier. : Exhost-pipe : Pipe extended for two classes of monitoring petri nets. In ICATPN’06, 27th International Conference On Application and Theory of Petri Nets and Other Models of Concurrency, Turku, Finland, 2006. M.M. Botvinick, T.S. Braver, D.M. Barch, C.S. Carter et J.D. Cohen : Conflict monitoring and cognitive control. Psychological Review, 108(3):624, 2001. ISSN 1939-1471. Y.N. Boutcher et S.H. Boutcher : Cardiovascular response to stroop : effect of verbal response and task difficulty. Biological psychology, 73(3):235–241, 2006. J.M. Bradshaw, M. Sierhuis, A. Acquisti, R. Feltovich, R. Hoffman, R. Jeffers, D. Prescott, N. Suri, A. Uszok et R. Van Hoof : Adjustable autonomy and human-agent teamwork in practice : An interim report on space application. In Agent Autonomy, chapitre 11. Kluwer Academic Publishers, 2003. J. Bresina, A. Jónsson, P. Morris et K Rajan : Mixed-initiative planning in mapgen : Capabilities and shortcomings. In International Conference on Automated Planning and Scheduling, Monterey, CA, 2005. S. Breznitz : Cry wolf : The psychology of false alarms. Lawrence Erlbaum Associates Hillsdale, NJ, 1984. T.W. Buchanan, D. Driscoll, S.M. Mowrer, J.J. Sollers III, J.F. Thayer, C. Kirschbaum et D. Tranel : Medial prefrontal cortex damage affects physiological and psychological stress responses differently in men and women. Psychoneuroendocrinology, 35(1):56–66, 2010. S.A. Bunge, E. Hazeltine, M.D. Scanlon, A.C. Rosen et JDE Gabrieli : Dissociable contributions of prefrontal and parietal cortices to response selection. Neuroimage, 17(3):1562–1571, 2002. 64 Bureau Enquête Analyse : Objectif destination. http ://www.bea-fr.org/francais/rapports/rap.htm. Rapport technique, 2000. B.K. Burian, J. Orasanu et J. Hitt : Weather-related decision errors : Differences across flight types. In Human Factors and Ergonomics Society Annual Meeting Proceedings, volume 44, pages 22–25. Human Factors and Ergonomics Society, 2000. G. Bush, P. Luu, M.I. Posner et al. : Cognitive and emotional influences in anterior cingulate cortex. Trends in cognitive sciences, 4(6):215–222, 2000. E.A. Bustamante : Implementing likelihood alarm technology in integrated aviation displays for enhancing decision making : A two-stage signal detection modeling approach. International Journal of Applied Aviation Studies, 8(2):241–262, 2008. R.W. Butler, S.P. Miller, J.N. Potts et V.A. Carreno : A formal methods approach to the analysis of mode confusion. In Digital Avionics Systems Conference, 1998. Proceedings., 17th DASC. The AIAA/IEEE/SAE, volume 1. IEEE, 1998. ISBN 0780350863. VD Calhoun, K. Carvalho, R. Astur et GD Pearlson : Using virtual reality to study alcohol intoxication effects on the neural correlates of simulated driving. Applied psychophysiology and biofeedback, 30 (3):285–306, 2005. TJ Callantine : Activity tracking for pilot error detection from flight data. In 21st European Annual Conf. On Human Decision Making and Control, Glasgow, Scotland, 2002. V. Camps : Vers une théorie de l’auto-organisation dans les systèmes multi-agents basée sur la coopération : application à la recherche d’information dans un système d’information répartie. Thèse de doctorat, IRIT, 1998. R.L. Capa, M. Audiffren et S. Ragot : The interactive effect of achievement motivation and task difficulty on mental effort. International Journal of Psychophysiology, 70(2):144–150, 2008. C. Castelfranchi : Conflict ontology. In H.-J. M’fcller Dieng et R., éditeurs : Computational conflicts : conflict modeling for distributed intelligent systems, with contributions by numerous experts. Springer Verlag, 2000. M. Causse : Influence de la récompense et de l’âge sur la performance de pilotage : une contribution de la neuroergonomie à la sécurité aérienne. Thèse de doctorat, 2010. M Causse, F Dehais et J Pastor : Executive functions and pilot characteristics predict flight simulator performance in general aviation pilots. The International Journal of Aviation Psychology, in press : 2011. M Causse, J Pastor et F Dehais : Reward and uncertainty favor risky decision-making in pilots : Evidence from cardiovascular and oculometric measurements. Applied psychophysiology and biofeedback, in Press. M. Causse, B. Pavard, J-M. Senard, J-F. Demonet et J. Pastor : Emotion induction through virtual avatars and its impact on reasoning : Evidence from autonomous nervous system measurements and cognitive assessment. In VRIC’9207, Laval, France, 2007. M Causse, JM Senard, JF Demonet et J Pastor : Monitoring cognitive and emotional processes through pupil and cardiac response during dynamic versus logical task. Applied psychophysiology and biofeedback, 35(2):115–123, 2010. 65 L. Chaudron, H. Fiorino, H-J Müller et C. Tessier : Agent’s conflict : new issues. In H.-J Müller C. Tessier, L. Chaudron, éditeur : Conflicting agents : conflict management in multi-agent systems, chapitre 1, pages 1–30. Kluwer Academic Press, 2000. Y.N. Chen, S. Mitra et F. Schlaghecken : Sub-processes of working memory in the n-back task : an investigation using erps. Clinical Neurophysiology, 119(7):1546–1559, 2008. JD Cohen, K. Dunbar et McClelland JL. : On the control of automatic processes : A parallel distributed processing account of the Stroop effect. Psychological Review, 97(3):332–361, 1990. F.B. Colavita : Human sensory dominance. Perception and Psychophysics, 16(2):409–412, 1974. C. Coombs et G. Avrunin : The structure of conflict. Lawrence Erlbaum Assoc., 1988. M. Corbetta et G.L. Shulman : Control of goal-directed and stimulus-driven attention in the brain. Nature Reviews Neuroscience, 3(3):201–215, 2002. G. Coricelli, H.D. Critchley, M. Joffily, J.P. O’Doherty, A. Sirigu et R.J. Dolan : Regret and its avoidance : a neuroimaging study of choice behavior. Nature neuroscience, 8(9):1255–1262, 2005. E. Cox : Fuzzy fundamentals. Spectrum, IEEE, 29(10):58–61, 1992. ISSN 0018-9235. J. Crow, D. Javaux et J. Rushby : Models and mechanized methods that integrate human factors into automation design. In International Conference on Human-Computer Interaction in Aeronautics : HCI-Aero, pages 163–168. Citeseer, 2000. D Crundall, G Underwood et P Chapman : Driving experience and the functional field of view. PERCEPTION-LONDON-, 28:1075–1088, 1999. P. Dai et J. Goldsmith : Lao*, rlao*, or blao*. In AAAI Workshop on Heuristic Search, pages 59–64, 2006. A. Damasio : Descartes’ Error. G.P. Putnam’s Sons, New York, 1994. S.L. Decker, S.K. Hill et R.S. Dean : Evidence of construct similarity in executive functions and fluid reasoning abilities. International Journal of Neuroscience, 117(6):735–748, 2007. A. Degani et E.L. Wiener : Procedures in complex systems : the airline cockpit. In IEEE Transactions on System, Man and cybernetics, volume 27, pages 302–312, 1997. F. Dehais : Modélisation des conflits dans l’activité de pilotage. Thèse de doctorat, ENSAE, Toulouse, mai 2004. F. Dehais : Method and Device for Detecting absences of manual and automatic piloting of an aircraft, mars 23 2009. Airbus, US Patent App. 12/934,311. F. Dehais, M. Causse et J. Pastor : Embedded eye tracker in a real aircraft : new perspectives on pilot/aircraft interaction monitoring. In International Conference on Research in Air Transportation, Fairfax, USA, march 22-25 2008. F. Dehais, M. Causse et S. Tremblay : Mitigation of Conflicts with Automation : Use of Cognitive Countermeasures. Human Factors : The Journal of the Human Factors and Ergonomics Society, 53(5):448–460, 2011a. F. Dehais, M. Causse, F. Vachon et S.. Tremblay : Cognitive conflict in human-automation interactions : A psychophysiological study. Applied Ergonomics, In press : 2011. 66 F. Dehais, T. Cong Sang et P. Chauvin : Rapport dga année 2 : Modélisation des conflits dans les interactions opérateur-robots. Rapport technique, 2010a. F. Dehais, A. Goudou, C. Lesire et C. Tessier : Towards an anticipative agey "From reactive to anticipatory cognitive embodied systems". Arlington, Viriginia, USA, 2005a. F. Dehais, A. Goudou, C. Lesire et C. Tessier : Towards an anticipatory agent to help pilots. In AAAI 2005 Fall Symposium "From Reactive to Anticipatory Cognitive Embodied Systems", Arlington, Virginia, 2005b. F Dehais, C Lesire, C Tessier et L Christophe : Method and device for detecting piloting conflicts between the crew and the autopilot of an aircraft. wo patent wo/2010/000.960. 2010b. F. Dehais et P. Pasquier : Approche générique du conflit. In ILS et ESTIA, éditeur : ErgoIHM. D.L.Scapin et E. Vergisson, octobre 2000. F Dehais, A Sisbot, R Alami et M Causse : Physiological and subjective evaluation of a human-robot object hand over task. Applied ergonomics, 42(6):785–891, 2011b. F Dehais, C Tessier et L Chaudron : Ghost : experimenting conflicts countermeasures in the pilot’s activity. Proceedings of the International Joint Conference on Artificial Intelligence (IJCAI), 18:163– 168, 2003. F Dehais, C Tessier, L Christophe et F Reuzeau : The perseveration syndrome in the pilot’s activity : guidelines and cognitive countermeasures. Human Error, Safety and Systems Development, pages 68–80, 2010c. S Dekker : Failure to adapt or adaptations that fail : contrasting models on procedures and safety. Applied Ergonomics, 34(3):233–238, 2003. M.C. Desoto, M. Fabiani, D.C. Geary et G. Gratton : When in doubt, do it both ways : Brain evidence of the simultaneous activation of conflicting motor responses in a spatial stroop task. Journal of Cognitive Neuroscience, 13(4):523–536, 2001. GR Dirkin et PA Hancock : Attentional narrowing to the visual periphery under temporal and acoustic stress. Aviation, Space and Environmental Medicine, 55:457, 1984. K. Dixon, K. Hagemann, J. Basilico, C. Forsythe, S. Rothe, M. Schrauf et W. Kincses : Improved Team Performance Using EEG-and Context-Based Cognitive-State Classifications for a Vehicle Crew. Foundations of Augmented Cognition. Neuroergonomics and Operational Neuroscience, pages 365–372, 2009. SR Dixon, CD Wickens et JS McCarley : On the independence of compliance and reliance : are automation false alarms worse than misses ? Human factors, 49(4):564, 2007. TJ Doll et DJ Folds : Auditory signals in military aircraft : ergonomics principles versus practice. Applied Ergonomics, 17(4):257–264, 1986. T.J. Doll, DJ Folds et L.A. Leiker : Auditory information systems in military aircraft : Current configurations versus the state of the art. Final Report, 1 May-30 Sep. 1983 Georgia Inst. of Tech., Atlanta. Systems Engineering Lab., 1, 1984. C. Donaldson, D. Lam et A. Mathews : Rumination and attention in major depression. Behaviour research and therapy, 45(11):2664–2678, 2007. ISSN 0005-7967. 67 G. Dorais, P. Bonasso, D. Kortenkamp, B. Pell et D. Schreckenghost : Adjustable autonomy for human-centered autonomous systems. In IJCAI’99 Workshop on Adjustable Autonomy Systems, Stockholm, Sweden, 1999. J.C. Dreher, P. Kohn et K.F. Berman : Neural coding of distinct statistical properties of reward information in humans. Cerebral Cortex, 16(4):561, 2006. W.C. Drevets et M.E. Raichle : Reciprocal suppression of regional cerebral blood flow during emotional versus higher cognitive processes : Implications for interactions between emotion and cognition. Neuropsychological perspectives on affective and anxiety disorders, pages 353–385, 1998. AT Duchowski : Eye tracking methodology : Theory and practice. Springer-Verlag New York Inc, 2007. S. Duschek, M. Muckenthaler, N. Werner et G.A. Reyes del Paso : Relationships between features of autonomic cardiovascular control and cognitive performance. Biological psychology, 81(2):110– 117, 2009. JA Easterbrook : The effect of emotion on cue utilization and the organization of behavior. Psychological review, 66(3):183–201, 1959. S. M. Easterbrook : Handling conflict between domain descriptions with computer supported negotiation. Knowledge Acquisition : An International Journal, 3(4):255–289, 1991. J. Edworthy, S. Loxley et I. Dennis : Improving auditory warning design : Relationship between warning sound parameters and perceived urgency. Human Factors : The Journal of the Human Factors and Ergonomics Society, 33(2):205–231, 1991. B. Egloff et M. Hock : Interactive effects of state anxiety and trait anxiety on emotional Stroop interference. Personality and Individual Differences, 31(6):875–882, 2001. ISSN 0191-8869. P. Eling, K. Derckx et R. Maes : On the historical and conceptual background of the wisconsin card sorting test. Brain and cognition, 67(3):247–253, 2008. E.M. Elliott, N. Cowan et F. Valle-Inclan : The nature of cross-modal color-word interference effects. Attention, Perception, & Psychophysics, 60(5):761–767, 1998. R. Elliott : Executive functions and their disorders. British Medical Bulletin, 65(1):49, 2003. H.C. Ellis et B.A. Moore : Mood and memory. Handbook of cognition and emotion, pages 193–210, 1999. B.A. Eriksen et C.W. Eriksen : Effects of noise letters upon the identification of a target letter in a nonsearch task. Perception & Psychophysics, 16(1):143–149, 1974. JR. Fedota et R. Parasuraman : Neuroergonomics and human error. Theoretical issues in Ergonomics Science, 11(5):402–421, 2010. A. Fernandes : Création d’un éditeur de scénario pour évaluer les mécanismes attentionnels, rapport de stage de m2pro. Mémoire de D.E.A., 2011. L. Festinger : A theory of cognitive dissonance. Stanford University Press, 1957. PM Fitts, RE Jones et JL Milton : Eye Movements of Aircraft Pilots During Instrument-Landing Approaches. Aeron. Aeronautical Engineering Review, 9(2):24–29, 1950. J.M. Fuster : Executive frontal functions. Experimental Brain Research, 133(1):66–70, 2000. 68 O. Giroud-Fliegner : Tout le monde peut se tromper. Essai sur l’erreur. Seuil, Paris, 2001. V. Goel et R.J. Dolan : Reciprocal neural response within lateral and ventral medial prefrontal cortex during hot and cold reasoning. Neuroimage, 20(4):2314–2321, 2003. J Goh et D Wiegmann : Human factors analysis of accidents involving visual flight rules flight into adverse weather. Aviation, space, and environmental medicine, 73(8):817–822, 2002. J.H. Goldberg et X.P. Kotval : Computer interface evaluation using eye movements : Methods and constructs. International Journal of Industrial Ergonomics, 24(6):631–645, 1999. ISSN 0169-8141. M.A. Goodale et A.D. Milner : Separate visual pathways for perception and action. Trends in neurosciences, 15(1):20–25, 1992. ISSN 0166-2236. M. Goodrich, D. Olsen, J. Crandall et T. Palmer : Experiments in adjustable autonomy. In IJCAI’01 Workshop on Autonomy, Delegation and Control : interacting with autonomous agents, Seattle, WA, 2001. Michael A. Goodrich et Alan C. Schultz : Human-robot interaction : a survey. Foundations and Trends in Human-Computer Interaction, 1(3):203–275, 2007. ISSN 1551-3955. G. Gratton, M. Fabiani, T. Elbert et B. Rockstroh : Seeing right through you : applications of optical imaging to the study of the human brain. Psychophysiology, 40(4):487–491, 2003. J. Grégoire et M. Van der Linden : Effect of age on forward and backward digit spans. Aging, Neuropsychology, and Cognition, 4(2):140–149, 1997. S.E. Guttman, L.A. Gilroy et R. Blake : Hearing what the eyes see. Psychological Science, 16(3):228, 2005. A. Gyurak, M.S. Goodkind, A. Madan, J.H. Kramer, B.L. Miller et R.W. Levenson : Do tests of executive functioning predict ability to downregulate emotions spontaneously and when instructed to suppress ? Cognitive, Affective, & Behavioral Neuroscience, 9(2):144–152, 2009. A. Haarmann, W. Boucsein et F. Schaefer : Combining electrodermal responses and cardiovascular measures for probing adaptive automation during simulated flight. Applied Ergonomics, 40(6): 1026–1040, 2009. ISSN 0003-6870. B.L. Hills : Vision, visibility, and perception in driving. Perception, 9(2):183, 1980. S.A. Hillyard, E.K. Vogel et S.J. Luck : Sensory gain control (amplification) as a mechanism of selective attention : electrophysiological and neuroimaging evidence. Philosophical Transactions of the Royal Society of London. Series B : Biological Sciences, 353(1373):1257, 1998. J.M. Hoc : Towards a cognitive approach to human-machine cooperation in dynamic situations. Internation Journal of Human-computer Studies, 54(4):509–540, 2001. J Holbrook, J Orasanu et C McCoy : Weather-related decision making by aviators in alaska. Proceedings of the 12th International Symposium on Aviation Psychology, pages 576–81, 2003. C.B. Holroyd et M.G.H. Coles : The neural basis of human error processing : reinforcement learning, dopamine, and the error-related negativity. Psychological Review, 109(4):679–708, 2002. ISSN 0033-295X. R. Horst et G. Kay : Cogscreen- personal computer-based tests of cognitive function for occupational medical certification. In International Symposium on Aviation Psychology, 6 th, Columbus, OH ; United States, pages 734–739. Columbus, OH, Ohio State University, 1991. 69 T Inagaki : Automation and the cost of authority. International Journal of Industrial Ergonomics, 31 (3):169–174, 2003. L. Itti et C. Koch : Computational modelling of visual attention. Nature reviews neuroscience, 2 (3):194–203, 2001. ISSN 1471-003X. L. Itti, C. Koch et E. Niebur : A model of saliency-based visual attention for rapid scene analysis. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 20(11):1254–1259, 1998. ISSN 0162-8828. D. Javaux et E. Olivier : Assessing and understanding pilots ? knowledge of mode transitions on the A340-200/300. In Proceedings of the International Conference on Human-Computer Interaction in Aeronautics (HCI-Aero), 2000. M.S. John, D.A. Kobus, J.G. Morrison et D. Schmorrow : Overview of the DARPA augmented cognition technical integration experiment. International Journal of Human-Computer Interaction, 17(2):131–149, 2004. ISSN 1044-7318. L.P. Kaelbling, M.L. Littman et A.R. Cassandra : Planning and acting in partially observable stochastic domains. Artificial Intelligence, 101(1-2):99–134, 1998. A. Kapoor et R.W. Picard : Multimodal affect recognition in learning environments. In Proceedings of the 13th annual ACM international conference on Multimedia, pages 677–682. ACM, 2005. ISBN 1595930442. V. De Keyser : Les erreurs temporelles et les aides techniques. In la gestion du temps dans les environnements dynamiques, pages 287–309. J.M. Cellier, V. De Keyser et C. Valot, Le Travail Humain édition, 1996. V. De Keyser et D.D. Woods : Systems Reliability Assessment, chapitre Fixation errors in dynamics and complex systems, pages 231–251. Kluwer Academic Press, 1990. C.J. Knapp et R. Johnson : F-16 class a mishaps in the us air force, 1975-93. Aviation, space, and environmental medicine, 67(8):777–783, 1996. E. Koechlin, G. Corrado, P. Pietrini et J. Grafman : Dissociating the role of the medial and lateral anterior prefrontal cortex in human planning. Proceedings of the National Academy of Sciences of the United States of America, 97(13):7651, 2000. D. Kortenkamp, P. Bonasso, D. Ryan et D. Schreckenghost : Traded control with autonomous robots as mixed initiative interaction. In AAAI-97 Spring Symposium on Mixed Initiative Interaction, Stanford University, CA, March 1997. J.K. Kuchar et L.C. Yang : A review of conflict detection and resolution modeling methods. In Proceedings of IEEE Transactions on Intelligent Transportation Systems, volume 1, 2000. D Kulic et EA Croft : Affective state estimation for human robot interaction. IEEE Transactions on Robotics, 23(5):991–1000, 2007. D. LaBerge, M. Carter et V. Brown : A network simulation of thalamic circuit operations in selective attention. Neural Computation, 4(3):318–331, 1992. ISSN 0899-7667. M. Le Marc : Psychologie sociale, chapitre Du conflit. Bréal : collection Grand Amphi, 1999. R. Lebib, D. Papo, S. de Bode et P.M. Baudonnière : Evidence of a visual-to-auditory cross-modal sensory gating phenomenon as reflected by the human p50 event-related brain potential modulation. Neuroscience letters, 341(3):185–188, 2003. 70 A. Lécuyer, J.M. Burkhardt et L. Etienne : Feeling bumps and holes without a haptic interface : the perception of pseudo-haptic textures. In Proceedings of the SIGCHI conference on Human factors in computing systems, pages 239–246. ACM, 2004. J. Leplat : Erreur humaine, fiabilité humaine dans le travail. Paris, A. Colin, 1985. M. Leroux : Erato : une aide au contrôleur aérien. Control, 85:66–79, 1997. C. Lesire : Estimation numérico-symbolique pour le suivi d’activités hybrides. Thèse de doctorat, 2006. C Lesire et C Tessier : Particle petri nets for aircraft procedure monitoring under uncertainty. Proceedings of the Applications and Theory of Petri Nets conference, pages 329–348, 2005. N.G. Leveson et E. Palmer : Designing automation to reduce operator errors. In Systems, Man, and Cybernetics, 1997.’Computational Cybernetics and Simulation’., 1997 IEEE International Conference on, volume 2, pages 1144–1150. IEEE, 1997. ISBN 0780340531. K. Lewin, R. Lippitt et R. K. White : Patterns of aggression behavior in experimentally created "social climates". Journal of Social Psychology, 10:271–299, 1939. C. Liu, K. Conn, N. Sarkar et W. Stone : Online affect detection and robot behavior adaptation for intervention of children with autism. IEEE Transactions on Robotics, 24(4):883–896, 2008. L.D. Loukopoulos, R.K. Dismukes et I. Barshi : Cockpit interruptions and distractions : a line observation study. In International symposium on aviation psychology, Colombus, USA, March 2001. RL Mandryk et MS Atkins : A fuzzy physiological approach for continuously modeling emotion during interaction with play technologies. International Journal of Human-Computer Studies, 65(4):329– 347, 2007. L. Mann : Stress, affect, and risk taking. 1992. J.G. March et H.A. Simon : Organizations. NY : Wiley, New York, 1958. S.P. Marshall : Identifying cognitive state from eye metrics. Aviation, space, and environmental medicine, 78(Supplement 1):165–175, 2007. ISSN 0095-6562. JS McCarley et AF Kramer : Eye movements as a window on perception and cognition. In Neuroergonomics : The brain at work, pages 95–112. 2006. S Mercier : Contrôle du partage de l’autorité dans un système d’agents hétérogènes. Thèse de doctorat, 2010. S. Mercier, C. Tessier et F. Dehais : Détection et résolution de conflits d’autorité dans un système homme-robot. Revue d’intelligence artificielle, 24(3):325–356, 2010. ISSN 0992-499X. C. Meredith et J. Edworthy : Are there too many alarms in the intensive care unit ? An overview of the problems. Journal of Advanced Nursing, 21(1):15–20, 1995. ISSN 1365-2648. J Meyer : Effects of warning validity and proximity on responses to warnings. Human factors, 43 (4):563, 2001. S Milgram : Obedience to authority : An experimental view. Harper & Row, New York, 1974. MP Milham, MT Banich, A. Webb, V. Barad, NJ Cohen, T. Wszalek et AF Kramer : The relative involvement of anterior cingulate and prefrontal cortex in attentional control depends on nature of conflict. Cognitive Brain Research, 12(3):467–473, 2001. 71 L. Minin, R. Montanari, C. Corbelli et C. Iani : Force feedback : new frontier as the innovative driving comfort tool. In CHI’08 extended abstracts on Human factors in computing systems, pages 2147–2150. ACM, 2008. R.L.C. Mitchell et L.H. Phillips : The psychological, neurochemical and functional neuroanatomical mediators of the effects of positive and negative mood on executive functions. Neuropsychologia, 45(4):617–629, 2007. A. Miyake, N. Friedman, M. Emerson, A. Witzki et A. Howerter : The unity and diversity of executive functions and their contribution to complex "frontal lobe" tasks : a latent variable analysis. Cognitive Psychology, 41, 2000. D.G. Morrow, W.E. Menard, H.E. Ridolfo, E.A.L. Stine-Morrow, T. Teller et D. Bryant : Expertise, cognitive ability, and age effects on pilot communication. The International Journal of Aviation Psychology, 13(4):345–371, 2003a. D.G. Morrow, W.E. Menard, E.A.L. Stine-Morrow, T. Teller et D. Bryant : The influence of expertise and task factors on age differences in pilot communication. Psychology and Aging, 16(1):31–46, 2001. D.G. Morrow, H.E. Ridolfo, W.E. Menard, A. Sanborn, E.A.L. Stine-Morrow, C. Magnor, L. Herman, T. Teller et D. Bryant : Environmental support promotes expertise-based mitigation of age differences on pilot communication tasks. Psychology and Aging, 18(2):268–284, 2003b. MC Mozer et M Sitton : Computational modeling of spatial attention. In H. Pashler, éditeur : Attention, pages 341–393. Psychology Press, Hover, UK, 1998. J.M. Müller et R. Dieng : On conflicts in general and their use in ai in particular. In H.-J.Müller et R.Dieng, éditeurs : Computational conflict, chapitre 1. Springer Verlag, April 2000. R. Mumaw, N. Sarter et C. Wickens : Analysis of pilots’ monitoring and performance on an automated flight deck,. Colombus, Ohio, 2001. K. Myers et D. Morley : Human directability of agents. In In K-CAP 2001, 1st International Conference on Knowledge Capture, Victoria, Canada, 2001. JJ Nance : Blind Trust : How Deregulation Has Jeopardised Airline Safety and what You Can Do about it. Morrow, 1986. A. Nunes et T. Laursen : Identifying the factors that contributed to the Überlingen Midair Collision. In Human Factors and Ergonomics Society Annual Meeting Proceedings, volume 48, pages 195–198. Human Factors and Ergonomics Society, 2004. D O’Hare et T Smitheram : Pressing on into deteriorating conditions : An application of behavioral decision theory to pilot decision making. The International Journal of Aviation Psychology, 5 (4):351–370, 1995. D. O’Hare, M. Wiggins, R. Batt et D. Morrison : Cognitive failure analysis for aircraft accident investigation. Ergonomics, 37(11):1855–1869, 1994. J. Orasanu et L. Martin : Errors in aviation decision making : a factor in accidents and incidents. In Proceedings of HESSD, Seattle, Washington, USA, April 1998. J. Orasanu, L. Martin et J. Davison : Cognitive and contextual factors in aviation accidents : Decision errors. Linking expertise and naturalistic decision making, pages 209–225, 2001. 72 A. Orsini, L. Chiacchio, M. Cinque, C. Cocchiaro et al. : Effects of age, education and sex on two tests of immediate memory : A study of normal subjects from 20 to 99 years of age. Perceptual and motor skills, 1986. R. Parasuraman, PA Hancock et O. Olofinboba : Alarm effectiveness in driver-centred collision-warning systems. Ergonomics, 40(3):390–399, 1997. R. Parasuraman, M. Mouloua et B. Hilburn : Adaptive aiding and adaptive task allocation enhance human-machine interaction. Automation technology and human performance : Current research and trends, pages 119–123, 1999. R. Parasuraman, M. Mouloua et R. Molloy : Effects of adaptive task allocation on monitoring of automated systems. Human factors, 38(4), 1996. R. Parasuraman et M. Rizzo : Neuroergonomics : the brain at work. Oxford University Press, 2007. R Parasuraman et CD Wickens : Humans : Still vital after all these years of automation. Human factors, 50(3):511, 2008. J. Pastor : Reasoning and the underlying cerebral mechanisms : an Artificial Intelligence Approach. Thèse de doctorat, 1999. B. Pavard et J. Dugdale : The contribution of complexity theory to the study of socio-technical cooperative systems. In Proceedings of the International Conference on Complex Systems (ICCS), Nashua, USA, 2000. C. Pecher, C. Quaireau, C. Lemercier et J.M. Cellier : The effects of inattention on selective attention : How sadness and ruminations alter attention functions evaluated with the Attention Network Test. Revue Européenne de Psychologie Appliquée/European Review of Applied Psychology, 2010. ISSN 1162-9088. P. Philippot et F. Brutoux : Induced rumination dampens executive processes in dysphoric young adults. Journal of behavior therapy and experimental psychiatry, 39(3):219–227, 2008. ISSN 0005-7916. S. Pizziol, F. Dehais et C. Tessier : Towards human operator "state" assessment. In ATACCS conference, 2011. M. I. Posner, J. A. Walker, F. J. Friedrich et R. D. Rafal : Effects of parietal lobe injury on covert orienting of visual attention. Journal of Neuroscience, 4:1863–1874, 1984. MI Posner et S Dehaene : Attentional networks. Trends in neurosciences, 17(2):75–79, 1994. M.I. Posner et M.K. Rothbart : Educating the human brain. American Psychological Association, 2007. M.I. Posner, B.E. Sheese, Y. Odludas et Y.Y. Tang : Analyzing and shaping human attentional networks. Neural Networks, 19(9):1422–1429, 2006. A.R. Pritchett et R.J. Hansman : Pilot non conformance to alerting systems commands during closely spaced parallel approaches. Rapport technique ASL-97-2, MIT Aeronautical Systems Laboratory, Cambridge, MA, 1997. L. Putnam et M. Poole : Handbook of organizational communication : an interdisciplinary perspective. pages 549–599. Sage, Beverly Hills, L. Porter édition, 1987. 73 G.H. Recanzone : Auditory influences on visual temporal rate perception. Journal of neurophysiology, 89(2):1078, 2003. N. Regis : Définition d’un vecteur d’état attentionnel, rapport de stage de m2r. Mémoire de D.E.A., 2011. B.H. Repp et A. Penel : Auditory dominance in temporal processing : New evidence from synchronization with simultaneous visual and auditory sequences. Journal of Experimental Psychology : Human Perception and Performance, 28(5):1085, 2002. D.A. Rhoda et M.L. Pawlak : An assessment of thunderstorm penetrations and deviations by commercial aircraft in the terminal area. Rapport technique, M.I.T., 1999. S Rice : Examining single-and multiple-process theories of trust in automation. The Journal of general psychology, 136(3):303–322, 2009. A. Rizzo, S. Bagnara et M. Visciola : Human error detection processes. Internation of Man-Machine studies, 36:253–259, 1987. G. Rizzolatti et L. Craighero : The mirror-neuron system. Annu. Rev. Neurosci., 27:169–192, 2004. A. Rojas : Initiative mixte pour la planification de mission, rapport de stage de m2r. Mémoire de D.E.A., 2011. D.R. Royall, E.C. Lauterbach, J.L. Cummings, A. Reeve, T.A. Rummans, D.I. Kaufer, W.C. LaFrance Jr et C.E. Coffey : Executive control function : a review of its promise and challenges for clinical research. a report from the committee on research of the american neuropsychiatric association. Journal of Neuropsychiatry and Clinical Neurosciences, 14(4):377, 2002. K. Rubia, A.B. Smith, M.J. Brammer et E. Taylor : Right inferior prefrontal cortex mediates response inhibition while mesial prefrontal cortex is responsible for error detection. Neuroimage, 20(1):351– 358, 2003. J Rushby : Using model checking to help discover mode confusions and other automation surprises. Reliability Engineering & System Safety, 75(2):167–177, 2002. J. Rushby, J. Crow et E. Palmer : An automated method to detect potential mode confusions. In Digital Avionics Systems Conference, 1999. Proceedings. 18th, volume 1. IEEE, 1999. ISBN 0780357493. A.G. Sanfey, R. Hastie, M.K. Colvin et J. Grafman : Phineas gauged : decision-making and the human prefrontal cortex. Neuropsychologia, 41(9):1218–1229, 2003. N. Sarter et M. Sarter : Neuroergonomics : opportunities and challenges of merging cognitive neuroscience with cognitive ergonomics. Theoretical issues in ergonomics science, 4:142–150, 2003. NB Sarter et DD Woods : How in the world did we ever get into that mode ? mode error and awareness in supervisory control. Human Factors : The Journal of the Human Factors and Ergonomics Society, 37(1):5–19, 1995. NB Sarter, DD Woods et CE Billings : Automation surprises. Handbook of human factors and ergonomics, 2:1926–1943, 1997. S. Scannella : Bases cérébrales du conflit visuo-auditif. Thèse de doctorat, 2011. 74 P. Scerri, D. Pynadath, L. Johnson, P. Rosenbloom, M. Si, N. Schurr et M. Tambe : A prototype infrastructure for distributed robot-agent-person teams. In AAMAS’03, pages 433–440, Melbourne, Australia, July 2003. N. Schurr, P. Scerri et M. Tambe : Impact of human advice on agent teams : a preliminary report. In AAMAS’03 Workshop on Humans and Multi-Agent Systems, Melbourne, Australia, 2003. P. Seban, F. Dehais et C. Lesire : Towards a dynamic model of human visual attention. In French Congress on Form Processing and Artificial Intelligence (RFIA’08), Amiens, France, 2008. B. Sellner, F. Heger, L. Hiatt, R. Simmons et S. Singh : Coordinated multi-agent teams and sliding autonomy for large-scale assembly. In IEEE, 94(7), 2006. N. Shapiro : Nbc dateline. New York : National Broadcasting Corporation, 1994. T.B. Sheridan et W.L. Verplank : Human and computer control of undersea teleoperators. Rapport technique, MIT Man-Machine Systems Laboratory, Cambridge, MA, 1978. M. Sherif et C.W. Sherif : Groups in harmony and tension. New York : Harper and Row, 1953. G. Simmel : Le conflit. Circé/poche, 2003. J. Simpson, W. Drevets, Z. Snyder, D. Gusnard et M. Raichle : Emotion-induced changes in human medial prefrontal cortex : I. During cognitive task performance. PNAS, 98(2), 2001a. J.R. Simpson, W.C. Drevets, A.Z. Snyder, D.A. Gusnard et M.E. Raichle : Emotion-induced changes in human medial prefrontal cortex : Ii. during anticipatory anxiety. Proceedings of the National Academy of Sciences, 98(2):688, 2001b. S. Sinnett, C. Spence et S. Soto-Faraco : Visual dominance and attention : The colavita effect revisited. Attention, Perception, & Psychophysics, 69(5):673–686, 2007. L. Song et J.K. Kuchar : Describing, predicting and mitigating dissonance between alerting systems. In International workshop on human error, safety, and system development, Sweden, 2001. R.D. Sorkin : Why are people turning off our alarms. Journal of the Acoustical Society of America, 84(3):1107–1108, 1988. O. Spreen, A.H. Risser et D. Edgell : Developmental neuropsychology. Oxford University Press, USA, 1995. A Steinfeld, T Fong, D Kaber, M Lewis, J Scholtz, A Schultz et M Goodrich : Common metrics for human-robot interaction. In 1st ACM SIGCHI/SIGART conference on Human-robot interaction, page 40, Salt Lake City, Utah, USA, 2006. ACM. J.R. Stroop : Studies of interference in serial verbal reactions. Journal of experimental psychology, 28:643–662, 1935. K. Takahashi, S. Ogata, Y. Atsumi, R. Yamamoto, S. Shiotsuka, A. Maki, Y. Yamashita, T. Yamamoto, H. Koizumi, H. Hirasawa et al. : Activation of the visual cortex imaged by 24-channel near-infrared spectroscopy. Journal of biomedical optics, 5:93, 2000. Y. Takeuchi : Change in blood volume in the brain during a simulated aircraft landing task. Journal of Occupational Health, 42(2):60–65, 2000. J. Taylor, R. O’Hara, M. Mumenthaler et J. Yesavage : Relationship of cogscreen-ae to flight simulator performance and pilot age. Aviat Space Environ Med, 71:373–80, 2000. 75 J.L. Taylor, Q. Kennedy, A. Noda et J.A. Yesavage : Pilot age and expertise predict flight simulator performance. Neurology, 68(9):648–654, 2007. J.L. Taylor, R. O’Hara, M.S. Mumenthaler, A.C. Rosen et J.A. Yesavage : Cognitive ability, expertise, and age differences in following air-traffic control instructions. Psychology and Aging, 20(1):117– 133, 2005. S.F. Taylor, R.C. Welsh, T.D. Wager, K. Luan Phan, K.D. Fitzgerald et W.J. Gehring : A functional neuroimaging study of motivation and executive function 1. NeuroImage, 21(3):1045–1054, 2004. F. Teichteil-Konigsbuch, U. Kuter et G. Infantes : Fsp* : Optimal forward stochastic planning using relaxed ppddl operators. Probabilistic track of the 6th International Planning Competition, 2008. J.F. Thayer, J.J. Sollers III, D.M. Labiner, M. Weinand, A.M. Herring, R.D. Lane et G.L. Ahern : Age-related differences in prefrontal control of heart rate in humans : a pharmacological blockade study. International Journal of Psychophysiology, 72(1):81–88, 2009. K. Thomas : Conflict and conflict management. In D. Dunnette, éditeur : Handbook of industrial and organizational psychology, pages 889–935. Rand Mc Nally College Pub, Chicago, 1976. LC Thomas et CD Wickens : Eye-tracking and individual differences in off-normal event detection when flying with a synthetic vision system display. Conference Proceedings of the Human Factors and Ergonomics Society, 48(1):223–227, 2004. B. Thomson, J. Schatzmann et S. Young : Bayesian update of dialogue state for robust dialogue systems. In Acoustics, Speech and Signal Processing, 2008. ICASSP 2008. IEEE International Conference on, pages 4937–4940. IEEE, 2008. C. Thooris : Modélisation neuro-floue de la tunnélisation attentionnelle, stage de m2r. Mémoire de D.E.A., 2011. J.I. Tracy, F. Mohamed, S. Faro, R. Tiver, A. Pinus, C. Bloomer, A. Pyrros et J. Harvan : The effect of autonomic arousal on attentional focus. Neuroreport, 11(18):4037, 2000. ISSN 0959-4965. P.S. Tsang : Age, attention, expertise, and time-sharing performance. Psychology and Aging, 13 (2):323–347, 1998. P. Van Eslande : Erreur de conduite et besoin d’aide : une approche accidentologique. In Journée d’étude en psychologie ergonomique EPIQUE, 2001. P. Van Eslande, L. Alberton, C. Nachtergaële et G. Blancher : Scénarios types de production de l’"erreur humaine" dans l’accident de la route. Rapport technique 218, Inrets, 1997. HTA Van Ginkel, MFL de Vries, JJM Koeners et E Theunissen : Flexible authority allocation in unmanned aerial vehicles. Conference Proceedings of the Human Factors and Ergonomics Society, 50:530–534, 2006. F. Vanderhaegen : Human-error-based design of barriers and analysis of their uses. Cognition, Technology & Work, 12(2):133–142, 2010. F. Vanderhaegen, S. Zieba, Enjalber S. et Polet : A Benefit/Cost/Deficit (bcd) model for learning from human errors. Reliability Engineering and System Safety, 2011. P.R. Veillette : Human error cited as major cause of U.S. commercial EMS helicopter accidents. Flight Safety Digest, 20, April-May 2001. 76 P. Verhaeghen, A. Marcoen et L. Goossens : Facts and fiction about memory aging : A quantitative integration of research findings. Journal of Gerontology, 48(4):157–171, 1993. S.R. Waldstein et L.I. Katzel : Stress-induced blood pressure reactivity and cognitive function. Neurology, 64(10):1746, 2005. L. Wang, X. Liu, K.G. Guise, R.T. Knight, J. Ghajar et J. Fan : Effective connectivity of the frontoparietal network during attentional control. Journal of Cognitive Neuroscience, 22(3):543–553, 2010. Y. Wang, H. Wang, L. Cui, S. Tian et Y. Zhang : The n270 component of the event-related potential reflects supramodal conflict processing in humans. Neuroscience letters, 332(1):25–28, 2002. J.C. Wanner et N. Wanner : Opérateur et sécurité. Rapport technique, 5/2, septembre 1999. DH Weissman, LM Warner et MG Woldorff : The neural mechanisms for minimizing cross-modal distraction. The Journal of neuroscience, 24(48):10941, 2004. G Weltman et GH Egstrom : Perceptual narrowing in novice divers. Human Factors : The Journal of the Human Factors and Ergonomics Society, 8(6):499–506, 1966. J.L. Wheale : The speed of response to synthesized voice messages. British Journal of Audiology, 15 (3):205–212, 1981. C Wickens, S Dixon, J Goh et B Hammer : Pilot dependence on imperfect diagnostic automation in simulated uav flights : An attentional visual scanning analysis. In 13th Annual International Symposium of Aviation Psychology, Oklahoma City, Oklahoma, 2005. C Wickens et SR Dixon : The benefits of imperfect diagnostic automation : A synthesis of the literature. Theoretical Issues in Ergonomics Science, 8(3):201–212, 2007. C.D. Wickens : Attentional tunneling and task management. In 13th International Symposium on Aviation Psychology, Dayton, OH, 2005. C.D. Wickens, S. Rice, D. Keller, S. Hutchins, J. Hughes et K. Clayton : False alerts in air traffic control conflict alerting system : Is there a ?cry wolf ? effect ? Human Factors : The Journal of the Human Factors and Ergonomics Society, 51(4):446, 2009. D.A. Wiegmann et S.A. Shappell : A human error approach to aviation accident analysis : The human factors analysis and classification system. Ashgate Pub Ltd, 2003. M. Wiggins et D. O’Hare : Expertise in aeronautical weather-related decision making : A crosssectional analysis of general aviation pilots. Journal of Experimental Psychology : Applied, 1(4):305– 320, 1995. LJ Williams : Cognitive load and the functional field of view. Human Factors : The Journal of the Human Factors and Ergonomics Society, 24(6):683–692, 1982. LJ Williams : Tunnel vision induced by a foveal load manipulation. Human Factors : The Journal of the Human Factors and Ergonomics Society, 27(2):221–227, 1985. LJ Williams : Peripheral target recognition and visual field narrowing in aviators and nonaviators. The International Journal of Aviation Psychology, 5(2):215–232, 1995. G.F. Wilson et F.T. Eggemeier : Psychophysiological assessment of workload in multi-task environments. Multiple-task performance, pages 329–360, 1991. 77 A.J. Wintink, S.J. Segalowitz et L.J. Cudmore : Task complexity and habituation effects on frontal p300 topography. Brain and Cognition, 46(1-2):307–311, 2001. L. Wioland : Etudes des mécanismes de protection et de détection des erreurs. Contribution à un modèle de sécurité écologique. Thèse de doctorat, Université Paris V, 1997. D.D. Woods, L.J. Johannsen, R.I. Cook et N.B. Sarter : Behind human error : cognitive systems, computers and hindsight. In CESERIAC SOAR 94-01, Wright-Patterson Air Force Base, 1994. DD Woods et NB Sarter : Learning from automation surprises and going sour accidents. In N. Sarter et R. Amalberti, éditeurs : Cognitive engineering in the aviation domain, page 327’96353. Lawrence Erlbaum, New York, 2000. NV Yakimovich, GL Strongin, VV Govorushenko, DJ Schroeder et GG Kay : Cogscreen as a predictor of flight performance in russian pilots. In 65th annual meeting of the Aerospace Medical Association, San Antonio, TX, 1994. J.A. Yesavage, N. Dolhert et J.L. Taylor : Flight simulator performance of younger and older aircraft pilots : effects of age and alcohol. Journal of the American Geriatrics Society, 42(6):577–582, 1994. S. Yuval-Greenberg et L.Y. Deouell : The dog ?s meow : asymmetrical interaction in cross-modal object recognition. Experimental brain research, 193(4):603–614, 2009. 78 View publication stats