Stage de Master Informatique : Algorithme distribué asynchrone dans un environnement non‐coopératif Yezekael Hayel, LIA/CERI, Université d’Avignon yezekael.hayel@univ‐avignon.fr Ce sujet de stage de Master porte sur l’étude d’algorithmes distribués asynchrones dans un environnement non‐coopératif. Des algorithmes distribués basés sur des techniques d’apprentissage par renforcement ont montrés leurs applications pour faire converger des systèmes distribués non‐ coopératifs vers des situations d’équilibre (Nash). La plupart de ces algorithmes, comme ceux proposés dans [1] et [2], se basent sur une synchronisation des actions de chacun des joueurs. Nous proposons dans ce stage d’étudier l’impact de l’asynchronisme entre les actions des joueurs sur la convergence des algorithmes distribués par renforcement. Nous tenterons de répondre à plusieurs questions fondamentales qui sont : • • • Comment l’asynchronisme impacte la convergence de l’algorithme (vitesse, divergence,…) ? Si l’algorithme converge effectivement, vers quel type d’équilibre ? Nous proposerons un contrôle de l’asynchronisme afin de forcer l’algorithme à converger vers un équilibre particulier qui peut avoir de meilleures propriétés que les autres. Ce stage de Master rentrera dans le cadre du projet ANR EcosCells. Nous appliquerons donc nos solutions à un réseau composé de petite cellules indépendantes, et nous étudierons, dans ce contexte, comment les cellules peuvent proposer des décisions optimales pour le réseau, de façon indépendantes et asynchrones. Le candidat doit être en Master d’Informatique avec de bonnes connaissances en mathématiques appliquées et réseau de télécommunication. Des compétences complémentaires en théorie des jeux et algorithmes d’apprentissages sont un plus. La rémunération nette sera de 1100 euro. Pour candidater ou pour toute information complémentaire, veuillez envoyer un mail à yezekael.hayel@univ‐avignon.fr [1] P. Sastry, V. Phansalkar, M. Thathachar, “Decentralized Learning of Nash Equilibria in Multi‐person Stochastic Games with incomplete information”, IEEE Transactions on Systems, Man and Cybernetics, vol. 24, no. 5, 1994. [2] I. Erev, A. Roth, “Predicting how people play games: Reinforcement learning in experimental games with unique, mixed strategy equilibria”, Amer. Econ. Rev., vol. 88, 1998.