Proposition de stage de master Modélisation de valeurs pour les agents autonomes Grégory Bonnet ([email protected]) 3 janvier 2017 Mots-clés : agents autonomes, éthique computationnelle, programmation logique Ce stage de recherche indemnisé (520 euros par mois) est nancé par le projet ANR ETHICAA. Contexte Aujourd'hui de nombreuses applications émergent comme étant ouvertes et décentralisées (véhicules autonomes, agents de nance automatisés, robotique médicale, robotique militaire). Ces systèmes suscitent des interrogations éthiques (de par leur nature ou les situations auxquelles ils sont confrontés) et nécessitent une régulation en contexte. Le projet ETHICAA 1 est un projet pluridisciplinaire qui propose, entre autres, de modéliser des comportements sous-tendus par des valeurs (subjectives) et des principes moraux. Les théories morales se décomposent en deux composantes (Timmons, 2012) : Une théorie du bien (ou morale) composée d'un ensemble de règles morales et de valeurs qui évaluent le bien ou le mal d'un comportement. Les règles morales associe des valuations morales à des comportements (i.e. Mentir est mal ou Être honnête est bien) et les valeurs leur associent des qualications abstraites (i.e. Dire ce que l'on pense comme étant vrai est honnête) qui peuvent être utilisées dans les règles morales. Une théorie du juste (ou éthique) qui utilise un ensemble de principes éthiques pour reconnaître une option juste ou aceptable parmi un ensemble d'options en fonction du contexte. De nombreux principes éthiques ont été proposés dans la tradition philosophique comme l'impératif catégorique de Kant (Johnson, 2014) ou la doctrine du double eet de Thomas d'Aquin (McIntyre, 2014). Par exemple, même si voler peut être considéré comme mal du point de vue d'une morale, il est acceptable de voler de la nourriture dans un supermarché si la nécessité nous y pousse. Les travaux s'intéressant à l'éthique du comportement d'agents autonomes se concentrent souvent sur le raisonnement moral, soit en modélisant des théories philosophiques bien connues (Berreby et al., 2015; Bringsjord & Taylors, 2012; Ganascia, 2007a,b; Saptawijaya & L. Moniz Pereira, 2014), soit en cherchant à gén¯aliser ces théories (Arkoudas et al., 2005; Lorini, 2012). Toutefois, ces travaux ne s'intéressent pas aux valeurs sous-jacentes aux théories morales. Certains travaux s'intéressent alors aux architectures d'agents, soit en implantant directement un comportement jugé comme éthique par des experts (Anderson & Anderson, 2014; Arkin, 2009), soit en proposant une représentation explicites des composants éthiques des agents (Coelho & da Rocha Costa, 2009; Coelho et al., 2010; Cointe et al., 2016a,b; Rocha-Costa, 2016). Problématique C'est dans ce dernier axe de recherche que ce sujet de stage s'inscrit : modéliser de manière explicite les valeurs sous-jacentes aux théories morales dans le cadre d'une architecture d'agent éthique. Dans le domaine de l'intelligence articielle, la notion de valeur est généralement abstraite pour être laissée à la discrétion de l'utilisateur car dépendante de l'application visée. Par exemple, dans le domaine médical, Jacobson (2009) propose une description de la valeur de dignité. De manière intéressante, 1. ethicaa.org 1 Coleman (2001) a proposé des notions de valeurs ou vertus spéciques aux agents articiels, en dehors de toute notion d'application. Cependant, ces valeurs ne sont pas formalisée. Il serait donc intéressant de formaliser ces dernières de manière à pouvoir les intégrer dans une architecture d'agent éthique. Travail envisagé L'objectif du stage est de prendre l'architecture d'agent éthique développée par Cointe et al. (2016a) et d'identier des actions génériques d'agents et leurs eets. Par exemple, l'action de délégation prend une action en paramètre et un autre agent, produit acte de communication et une réception de délégation sur cet autre agent. Un autre exemple pour être que réaliser une tâche prend des données en entrée, génère des données intermédiaire et produit des données en résultat. Partant de là, l'objectif est de proposer une description, usant de programmation logique, des valeurs identiées par Coleman (2001) et de l'intégrer au raisonnement sur les agents. Il sera possible de s'inspirer pour cela des ACL FIPA ou de ce qui se fait dans le domaine des réseaux autonomes de Nicola et al. (2014). Un cas pratique d'implantation sur un scénario sera discuté avec l'encadrant. Prol de candidature M2 Informatique (Décision et/ou Intelligence Articielle) ayant un goût pour la modélisation et les questions philosophiques. Les références principales sont indiquées en gras ci-dessous. Références Anderson, M. & Anderson, S. (2014). Toward ensuring ethical behavior from autonomous systems : a case-supported principle-based paradigm. Arkin, R. (2009). Industrial Robot, 42 (4), 324331. Governing lethal behavior in autonomous robots. CRC Press. Arkoudas, K., Bringsjord, S., & Bello, P. (2005). Toward ethical robots via mechanized deontic logic. In AAAI Fall Symposium on Machine Ethics, (pp. 1723). Berreby, F., Bourgne, G., & Ganascia, J.-G. (2015). Modelling moral reasoning and ethical responsibility with logic programming. In 20th International Conference on Logic for Programming, Articial Intelligence, and Reasoning, (pp. 532548). Bringsjord, S. & Taylors, J. (2012). Introducing divine-command robot ethics. In P. Lin, G. Bekey, & K. Abney (Eds.), Robot ethics : the ethical and social implication of robotics (pp. 85108). MIT Press. Coelho, H. & da Rocha Costa, A. (2009). On the intelligence of moral agency. Inteligência Articial, 1215. Coelho, H., Trigo, P., & da Rocha Costa, A. (2010). making. In Encontro Português de On the operationality of moral-sense decision 2nd Brazilian Workshop on Social Simulation, (pp. 1520). Cointe, N., Bonnet, G., & Boissier, O. (2016a). Ethical judgment of agents' behaviors in multi-agent systems. In 15th International Conference on Autonomous Agents & Multiagent Systems, (pp. 11061114). Cointe, N., Bonnet, G., & Boissier, O. (2016b). Multi-agent based ethical asset management. In Workshop on Ethics in the Design of Intelligent Agents, (pp. 5257). 1st Coleman, K. (2001). Android arete : Toward a virtue ethic for computational agents. Ethics and Information Technology, 3 (4), 247265. de Nicola, R., Loreti, M., Pugliese, R., & Tiezzi, F. (2014). A formal approach to autonomic systems programming : The scel language. ACM Transactions on Autononmous Adaptive Systems, 9 (2), 129. 2 Ganascia, J.-G. (2007a). Ethical system formalization using non-monotonic logics. Conference of the Cognitive Science Society, (pp. 10131018). In 29th Annual Ganascia, J.-G. (2007b). Modelling ethical rules of lying with Answer Set Programming. Ethics and Information Technology, 9 (1), 3947. Jacobson, N. (2009). A taxonomy of dignity : a grounded theory study. and Human Rights, 9 (3). Johnson, R. (2014). Philosophy Kant's moral philosophy. In E. N. Zalta (Ed.), The Stanford Encyclopedia of (Summer ed.). Lorini, E. (2012). On the logical foundations of moral agency. In Deontic Logic in Computer Science, (pp. 108122). 11th International Conference on McIntyre, A. (2014). Doctrine of double eect. In E. N. Zalta (Ed.), Philosophy BMC International Health The Stanford Encyclopedia of (Winter ed.). Rocha-Costa, A. (2016). Moral systems of agent societies : Some elements for their analysis and design. In 1st Workshop on Ethics in the Design of Intelligent Agents, (pp. 3237). Saptawijaya, A. & L. Moniz Pereira, L. M. (2014). Towards modeling morality computationally with logic programming. In Timmons, M. (2012). Practical Aspects of Declarative Languages (pp. 104119). Moral theory : an introduction. 3 Rowman & Littleeld Publishers.