Cet article des Editions Lavoisier est disponible en acces libre et gratuit sur jesa.revuesonline.com Editorial Les ingénieurs se heurtent quotidiennement à des problèmes technologiques de complexité grandissante, qui surgissent dans des domaines très divers, comme dans les transports, les télécommunications, la génomique, le traitement des images, et l’électronique. Le problème à résoudre peut fréquemment être formulé sous la forme générale d’un problème d’optimisation, dans lequel on définit une « fonction objectif », ou « fonction de coût » (voire plusieurs), que l’on cherche à optimiser par rapport à tous les paramètres concernés. Ce numéro spécial s’intéresse à un groupe de méthodes, dénommées métaheuristiques, comprenant notamment la méthode du recuit simulé, les algorithmes évolutionnaires, la méthode de recherche tabou, les algorithmes de colonies de fourmis, etc. apparues à partir des années 1980, avec une ambition commune : résoudre au mieux les problèmes dits d’optimisation difficile. Deux sortes de problèmes reçoivent, dans la littérature, cette appellation, non définie strictement (et liée, en fait, à l’état de l’art en matière d’optimisation) : – certains problèmes d’optimisation combinatoire, pour lesquels on ne connaît pas d’algorithme exact rapide (c’est le cas, en particulier, des problèmes dits « NPdifficiles ») ; – certains problèmes d’optimisation à variables continues, pour lesquels on ne connaît pas d’algorithme permettant de repérer un optimum global à coup sûr et en un nombre fini de calculs. Des efforts ont longtemps été menés, séparément, pour résoudre ces deux types de problèmes. Dans le domaine de l’optimisation continue, il existe ainsi un arsenal important de méthodes classiques dites d’optimisation globale, mais ces techniques sont souvent inefficaces si la fonction objectif ne possède pas une propriété structurelle particulière, telle que la convexité. Dans le domaine de l’optimisation combinatoire, un grand nombre d’heuristiques, qui produisent des solutions proches de l’optimum, ont été développées ; mais la plupart d’entre elles ont été conçues spécifiquement pour un problème donné. L’arrivée des métaheuristiques marque une réconciliation des deux domaines. En effet, celles-ci s’appliquent à toutes sortes de problèmes combinatoires, et elles 988 RS - JESA – 38/2004. Métaheuristiques pour l’optimisation Cet article des Editions Lavoisier est disponible en acces libre et gratuit sur jesa.revuesonline.com peuvent s’adapter aussi aux problèmes continus. Ces méthodes ont en commun, en outre, les caractéristiques suivantes : – elles sont, au moins pour partie, stochastiques : cette approche permet de faire face à l’explosion combinatoire des possibilités ; – d’origine combinatoire, elles ont l’avantage, décisif dans le cas continu, d’être directes, c’est-à-dire qu’elles ne recourent pas au calcul, souvent problématique, des gradients de la fonction objectif ; – elles sont généralement inspirées par des analogies : avec la physique (recuit simulé, diffusion simulée, etc.), avec la biologie (algorithmes évolutionnaires, recherche tabou, etc.) ou avec l’éthologie (colonies de fourmis, essaims particulaires, etc.) ; – elles partagent aussi les mêmes inconvénients : les difficultés de réglage des paramètres de la méthode, et le temps de calcul élevé. Ces méthodes ne s’excluent pas mutuellement : en effet, dans l’état actuel de la recherche, il est le plus souvent impossible de prévoir avec certitude l’efficacité d’une méthode donnée, quand elle est appliquée à un problème donné. De plus, la tendance actuelle est l’émergence de méthodes hybrides, qui s’efforcent de tirer parti des avantages spécifiques d’approches différentes en les combinant. Les métaheuristiques se prêtent à des extensions diverses, qui ont été proposées pour faire face à des particularités de l’optimisation. Pour illustrer la vitalité du domaine, nous passons en revue quelques-unes de ces extensions : – parallélisation : de multiples modes de parallélisation ont été proposés pour les différentes métaheuristiques. Certaines techniques se veulent générales ; d’autres, en revanche, tirent parti de particularités du problème. Ainsi, dans les problèmes de placement de composants, les tâches peuvent être réparties naturellement entre plusieurs processeurs : chacun d’eux est chargé d’optimiser une zone géographique donnée et des informations sont échangées périodiquement entre processeurs voisins ; – optimisation multiobjectif : de plus en plus de problèmes exigent la considération simultanée de plusieurs objectifs contradictoires. Il n’existe pas, dans ce cas, un optimum unique ; on cherche, en revanche, une gamme de solutions « optimales au sens de Pareto », qui forment la « surface de compromis » du problème considéré. Ces solutions peuvent être soumises à l’arbitrage final de l’utilisateur. Du fait de leur parallélisme implicite, les algorithmes évolutionnaires sont particulièrement exploités dans ce domaine ; – adaptation aux problèmes à variables continues : ces problèmes sont très courants en ingénierie : identification de modèles de processus, optimisation de performances de circuits électroniques, conception de systèmes mécaniques, apprentissage de réseaux de neurones ou de bases de règles floues, etc. La plupart des métaheuristiques, d’origine combinatoire, ont été adaptées au cas continu, ce qui suppose notamment le recours à une stratégie de discrétisation des variables : le Cet article des Editions Lavoisier est disponible en acces libre et gratuit sur jesa.revuesonline.com Editorial 989 pas de discrétisation doit s’adapter en cours d’optimisation, pour garantir à la fois la régularité de la progression vers l’optimum et la précision du résultat ; – optimisation multimodale : il s’agit cette fois de déterminer tout un jeu de solutions optimales, au lieu d’un optimum unique. Les algorithmes génétiques sont particulièrement bien adaptés à cette tâche, de par leur nature distribuée. Les variantes de type « multipopulation » exploitent en parallèle plusieurs populations, qui s’attachent à repérer des optimums différents ; – les méthodes hybrides : le succès rapide des métaheuristiques est dû aux difficultés rencontrées par les méthodes classiques d’optimisation dans les problèmes d’ingénierie complexes. Après le triomphalisme des débuts des tenants de telle ou telle métaheuristique, l’heure est venue de faire un bilan réaliste et d’accepter la complémentarité de ces nouvelles méthodes entre elles, ainsi qu’avec d’autres approches : d’où l’émergence actuelle de méthodes hybrides ; – nouvelles métaheuristiques : variantes ou non des plus connues, elles sont légion. Citons, à titre d’exemple, la « méthode des essaims particulaires » (« particle swarm optimization »), qui s’inspire de la dynamique de populations animales (oiseaux, poissons, etc.) se déplaçant en foules compactes. Ou encore les « systèmes immunitaires artificiels » (« artificial immune systems »), qui exploitent des mécanismes d’apprentissage et de mémoire analogues à ceux mis en jeu chez les vertébrés pour se défendre contre les agents extérieurs. Cette présentation ne doit pas éluder la principale difficulté à laquelle est confronté l’utilisateur, en présence d’un problème d’optimisation concret : celui du choix d’une méthode « efficace », capable de produire une solution « optimale » – ou de qualité acceptable – au prix d’un temps de calcul « raisonnable ». Face à ce souci pragmatique, la théorie n’est pas encore d’un grand secours, car les théorèmes de convergence sont souvent inexistants, ou applicables sous des hypothèses très restrictives. En outre, le réglage « optimal » des divers paramètres d’une métaheuristique, qui peut être préconisé par la théorie, est souvent inapplicable en pratique, car il induit un coût de calcul prohibitif. En conséquence, le choix d’une « bonne » méthode, et le réglage des paramètres de celle-ci, font généralement appel au savoir-faire et à l’« expérience » de l’utilisateur, plutôt qu’à l’application fidèle de règles bien établies. Les efforts de recherche en cours visent à remédier à cette situation, périlleuse à terme pour la crédibilité des métaheuristiques : compte tenu du foisonnement du domaine, il est devenu indispensable d’éclairer l’utilisateur dans le choix d’une métaheuristique ou d’une méthode hybride, et dans l’ajustement de ses paramètres. Nous mentionnons en particulier trois enjeux importants de ces travaux. Le premier est l’exploitation systématique d’hybridations et de coopérations entre méthodes (émergence des systèmes multi-agents, mise au point d’une taxinomie des méthodes hybrides, etc.). Le second concerne les possibilités d’analyse systématique des métaheuristiques du point de vue de la convergence, la complexité, la robustesse et les garanties de qualité ; une voie prometteuse est l’analyse des « paysages d’énergie » (rugosité, caractère fractal, etc.). Le troisième enjeu porte sur les 990 RS - JESA – 38/2004. Métaheuristiques pour l’optimisation tentatives d’unification du domaine, par exemple sous la dénomination de « programmation à mémoire adaptative ». Ce numéro spécial comporte sept articles, qui peuvent être rangés en trois groupes. Le premier groupe rassemble trois articles proposant des techniques d’aide à la décision, qui mettent toutes en œuvre un algorithme génétique. Cet article des Editions Lavoisier est disponible en acces libre et gratuit sur jesa.revuesonline.com Dans le premier article, Jean Renaud et Christian Fonteix présentent un outil décisionnel appliqué à une polymérisation en émulsion. Cet outil effectue d’abord une optimisation multicritère par algorithme génétique diploïde, en vue d’identifier un ensemble de solutions de compromis. Parmi celles-ci sont ensuite dégagées – au moyen d’une technique de modélisation des préférences du décideur – un nombre limité de recommandations à l’industriel. Dans le second article, Samuel Rochet et Claude Baron décrivent une méthode d’assistance à la conduite d’un projet. Les auteurs montrent qu’il est possible, dans le cadre d’un projet visant à la conception d’un produit industriel, de construire une représentation du projet qui fait apparaître l’ensemble des alternatives possibles. Un choix optimal peut alors être opéré parmi ces alternatives, au moyen d’un algorithme génétique. Le troisième article, de Christophe Duhamel, Bruno Garcia et Alain Quilliot, présente des métaheuristiques pour résoudre le problème de « crew scheduling » : étant donné un ensemble de tâches fixées dans le temps et un ensemble d’agents, ce problème consiste à affecter chaque tâche à un agent, en respectant les contraintes de temps de travail. Les auteurs montrent l’intérêt d’une coopération entre un algorithme génétique et une technique dédiée. Le second groupe de ce numéro spécial comprend trois articles illustrant des applications, dans le monde industriel, de trois métaheuristiques, appartenant à trois familles différentes de méthodes : un algorithme évolutionnaire, un algorithme de colonies de fourmis et un algorithme d’optimisation par essaim particulaire. La première application, de David Gianazza, porte sur la séparation en 3D des flux de trafic aérien. L’auteur décrit un algorithme A*, et un algorithme évolutionnaire hybridé avec un algorithme A*, qui permettent d’allouer, aux différents flux de trafic aérien, des trajectoires optimales, convenablement « séparées » les unes des autres. Les méthodes mises au point sont validées par des données réelles, concernant les trafics aériens français et européens. Le second article, de Guillaume Sandou, Stéphane Font, Sihem Tebbani, Arnaud Hiret et Christian Mondon, décrit l’optimisation des plannings d’un site de production d’énergie, au moyen d’un algorithme de colonie de fourmis, hybridé avec un algorithme de résolution exacte. La méthode proposée permet de prendre en compte explicitement la totalité des contraintes, et d’assurer ainsi la faisabilité des solutions. Editorial 991 Le troisième article, de Mestan Tekin, Christophe Espanet et Daniel Hissel, porte sur l’optimisation par essaim particulaire d’un groupe motocompresseur pour pile à combustible à membrane polymère. Les auteurs obtiennent une réduction significative de la consommation énergétique interne d’un groupe électrogène à base de pile à combustible, en agissant à la fois sur le dimensionnement du groupe motocompresseur d’alimentation en air, et sur sa loi de commande non linéaire. Cet article des Editions Lavoisier est disponible en acces libre et gratuit sur jesa.revuesonline.com Le dernier article de ce numéro est à part : il vise, en effet, à promouvoir une nouvelle métaheuristique. Cette méthode, proposée par Charles-Edmond Bichot, Jean-Marc Alliot, Nicolas Durand et Pascal Brisset, est inspirée par la fusion et la fission nucléaires. Chaque atome est composé de nucléons, représentant ici des composantes indivisibles du problème d’optimisation considéré ; les fusions et les fissions réalisées entre les atomes permettent d’approcher un état stable de la « matière », qui correspond à une solution optimale. La méthode est appliquée avec succès au problème du découpage aérien en Europe. Patrick SIARRY LISSI, Université de Paris XII Cet article des Editions Lavoisier est disponible en acces libre et gratuit sur jesa.revuesonline.com