Editorial - Revuesonline

publicité
Cet article des Editions Lavoisier est disponible en acces libre et gratuit sur jesa.revuesonline.com
Editorial
Les ingénieurs se heurtent quotidiennement à des problèmes technologiques de
complexité grandissante, qui surgissent dans des domaines très divers, comme dans
les transports, les télécommunications, la génomique, le traitement des images, et
l’électronique. Le problème à résoudre peut fréquemment être formulé sous la forme
générale d’un problème d’optimisation, dans lequel on définit une « fonction
objectif », ou « fonction de coût » (voire plusieurs), que l’on cherche à optimiser par
rapport à tous les paramètres concernés. Ce numéro spécial s’intéresse à un groupe
de méthodes, dénommées métaheuristiques, comprenant notamment la méthode du
recuit simulé, les algorithmes évolutionnaires, la méthode de recherche tabou, les
algorithmes de colonies de fourmis, etc. apparues à partir des années 1980, avec
une ambition commune : résoudre au mieux les problèmes dits d’optimisation
difficile.
Deux sortes de problèmes reçoivent, dans la littérature, cette appellation, non
définie strictement (et liée, en fait, à l’état de l’art en matière d’optimisation) :
– certains problèmes d’optimisation combinatoire, pour lesquels on ne connaît
pas d’algorithme exact rapide (c’est le cas, en particulier, des problèmes dits « NPdifficiles ») ;
– certains problèmes d’optimisation à variables continues, pour lesquels on ne
connaît pas d’algorithme permettant de repérer un optimum global à coup sûr et en
un nombre fini de calculs.
Des efforts ont longtemps été menés, séparément, pour résoudre ces deux types
de problèmes. Dans le domaine de l’optimisation continue, il existe ainsi un arsenal
important de méthodes classiques dites d’optimisation globale, mais ces techniques
sont souvent inefficaces si la fonction objectif ne possède pas une propriété
structurelle particulière, telle que la convexité. Dans le domaine de l’optimisation
combinatoire, un grand nombre d’heuristiques, qui produisent des solutions proches
de l’optimum, ont été développées ; mais la plupart d’entre elles ont été conçues
spécifiquement pour un problème donné.
L’arrivée des métaheuristiques marque une réconciliation des deux domaines.
En effet, celles-ci s’appliquent à toutes sortes de problèmes combinatoires, et elles
988
RS - JESA – 38/2004. Métaheuristiques pour l’optimisation
Cet article des Editions Lavoisier est disponible en acces libre et gratuit sur jesa.revuesonline.com
peuvent s’adapter aussi aux problèmes continus. Ces méthodes ont en commun, en
outre, les caractéristiques suivantes :
– elles sont, au moins pour partie, stochastiques : cette approche permet de faire
face à l’explosion combinatoire des possibilités ;
– d’origine combinatoire, elles ont l’avantage, décisif dans le cas continu, d’être
directes, c’est-à-dire qu’elles ne recourent pas au calcul, souvent problématique,
des gradients de la fonction objectif ;
– elles sont généralement inspirées par des analogies : avec la physique (recuit
simulé, diffusion simulée, etc.), avec la biologie (algorithmes évolutionnaires,
recherche tabou, etc.) ou avec l’éthologie (colonies de fourmis, essaims
particulaires, etc.) ;
– elles partagent aussi les mêmes inconvénients : les difficultés de réglage des
paramètres de la méthode, et le temps de calcul élevé.
Ces méthodes ne s’excluent pas mutuellement : en effet, dans l’état actuel de la
recherche, il est le plus souvent impossible de prévoir avec certitude l’efficacité
d’une méthode donnée, quand elle est appliquée à un problème donné. De plus, la
tendance actuelle est l’émergence de méthodes hybrides, qui s’efforcent de tirer
parti des avantages spécifiques d’approches différentes en les combinant.
Les métaheuristiques se prêtent à des extensions diverses, qui ont été proposées
pour faire face à des particularités de l’optimisation. Pour illustrer la vitalité du
domaine, nous passons en revue quelques-unes de ces extensions :
– parallélisation : de multiples modes de parallélisation ont été proposés pour
les différentes métaheuristiques. Certaines techniques se veulent générales ;
d’autres, en revanche, tirent parti de particularités du problème. Ainsi, dans les
problèmes de placement de composants, les tâches peuvent être réparties
naturellement entre plusieurs processeurs : chacun d’eux est chargé d’optimiser
une zone géographique donnée et des informations sont échangées périodiquement
entre processeurs voisins ;
– optimisation multiobjectif : de plus en plus de problèmes exigent la
considération simultanée de plusieurs objectifs contradictoires. Il n’existe pas, dans
ce cas, un optimum unique ; on cherche, en revanche, une gamme de solutions
« optimales au sens de Pareto », qui forment la « surface de compromis » du
problème considéré. Ces solutions peuvent être soumises à l’arbitrage final de
l’utilisateur. Du fait de leur parallélisme implicite, les algorithmes évolutionnaires
sont particulièrement exploités dans ce domaine ;
– adaptation aux problèmes à variables continues : ces problèmes sont très
courants en ingénierie : identification de modèles de processus, optimisation de
performances de circuits électroniques, conception de systèmes mécaniques,
apprentissage de réseaux de neurones ou de bases de règles floues, etc. La plupart
des métaheuristiques, d’origine combinatoire, ont été adaptées au cas continu, ce
qui suppose notamment le recours à une stratégie de discrétisation des variables : le
Cet article des Editions Lavoisier est disponible en acces libre et gratuit sur jesa.revuesonline.com
Editorial
989
pas de discrétisation doit s’adapter en cours d’optimisation, pour garantir à la fois
la régularité de la progression vers l’optimum et la précision du résultat ;
– optimisation multimodale : il s’agit cette fois de déterminer tout un jeu de
solutions optimales, au lieu d’un optimum unique. Les algorithmes génétiques sont
particulièrement bien adaptés à cette tâche, de par leur nature distribuée. Les
variantes de type « multipopulation » exploitent en parallèle plusieurs populations,
qui s’attachent à repérer des optimums différents ;
– les méthodes hybrides : le succès rapide des métaheuristiques est dû aux
difficultés rencontrées par les méthodes classiques d’optimisation dans les
problèmes d’ingénierie complexes. Après le triomphalisme des débuts des tenants de
telle ou telle métaheuristique, l’heure est venue de faire un bilan réaliste et
d’accepter la complémentarité de ces nouvelles méthodes entre elles, ainsi qu’avec
d’autres approches : d’où l’émergence actuelle de méthodes hybrides ;
– nouvelles métaheuristiques : variantes ou non des plus connues, elles sont
légion. Citons, à titre d’exemple, la « méthode des essaims particulaires »
(« particle swarm optimization »), qui s’inspire de la dynamique de populations
animales (oiseaux, poissons, etc.) se déplaçant en foules compactes. Ou encore les
« systèmes immunitaires artificiels » (« artificial immune systems »), qui exploitent
des mécanismes d’apprentissage et de mémoire analogues à ceux mis en jeu chez les
vertébrés pour se défendre contre les agents extérieurs.
Cette présentation ne doit pas éluder la principale difficulté à laquelle est
confronté l’utilisateur, en présence d’un problème d’optimisation concret : celui du
choix d’une méthode « efficace », capable de produire une solution « optimale » –
ou de qualité acceptable – au prix d’un temps de calcul « raisonnable ». Face à ce
souci pragmatique, la théorie n’est pas encore d’un grand secours, car les
théorèmes de convergence sont souvent inexistants, ou applicables sous des
hypothèses très restrictives. En outre, le réglage « optimal » des divers paramètres
d’une métaheuristique, qui peut être préconisé par la théorie, est souvent
inapplicable en pratique, car il induit un coût de calcul prohibitif. En conséquence,
le choix d’une « bonne » méthode, et le réglage des paramètres de celle-ci, font
généralement appel au savoir-faire et à l’« expérience » de l’utilisateur, plutôt qu’à
l’application fidèle de règles bien établies.
Les efforts de recherche en cours visent à remédier à cette situation, périlleuse à
terme pour la crédibilité des métaheuristiques : compte tenu du foisonnement du
domaine, il est devenu indispensable d’éclairer l’utilisateur dans le choix d’une
métaheuristique ou d’une méthode hybride, et dans l’ajustement de ses paramètres.
Nous mentionnons en particulier trois enjeux importants de ces travaux. Le premier
est l’exploitation systématique d’hybridations et de coopérations entre méthodes
(émergence des systèmes multi-agents, mise au point d’une taxinomie des méthodes
hybrides, etc.). Le second concerne les possibilités d’analyse systématique des
métaheuristiques du point de vue de la convergence, la complexité, la robustesse et
les garanties de qualité ; une voie prometteuse est l’analyse des « paysages
d’énergie » (rugosité, caractère fractal, etc.). Le troisième enjeu porte sur les
990
RS - JESA – 38/2004. Métaheuristiques pour l’optimisation
tentatives d’unification du domaine, par exemple sous la dénomination de
« programmation à mémoire adaptative ».
Ce numéro spécial comporte sept articles, qui peuvent être rangés en trois
groupes.
Le premier groupe rassemble trois articles proposant des techniques d’aide à la
décision, qui mettent toutes en œuvre un algorithme génétique.
Cet article des Editions Lavoisier est disponible en acces libre et gratuit sur jesa.revuesonline.com
Dans le premier article, Jean Renaud et Christian Fonteix présentent un outil
décisionnel appliqué à une polymérisation en émulsion. Cet outil effectue d’abord
une optimisation multicritère par algorithme génétique diploïde, en vue d’identifier
un ensemble de solutions de compromis. Parmi celles-ci sont ensuite dégagées – au
moyen d’une technique de modélisation des préférences du décideur – un nombre
limité de recommandations à l’industriel.
Dans le second article, Samuel Rochet et Claude Baron décrivent une méthode
d’assistance à la conduite d’un projet. Les auteurs montrent qu’il est possible, dans
le cadre d’un projet visant à la conception d’un produit industriel, de construire une
représentation du projet qui fait apparaître l’ensemble des alternatives possibles.
Un choix optimal peut alors être opéré parmi ces alternatives, au moyen d’un
algorithme génétique.
Le troisième article, de Christophe Duhamel, Bruno Garcia et Alain Quilliot,
présente des métaheuristiques pour résoudre le problème de « crew scheduling » :
étant donné un ensemble de tâches fixées dans le temps et un ensemble d’agents, ce
problème consiste à affecter chaque tâche à un agent, en respectant les contraintes
de temps de travail. Les auteurs montrent l’intérêt d’une coopération entre un
algorithme génétique et une technique dédiée.
Le second groupe de ce numéro spécial comprend trois articles illustrant des
applications, dans le monde industriel, de trois métaheuristiques, appartenant à
trois familles différentes de méthodes : un algorithme évolutionnaire, un algorithme
de colonies de fourmis et un algorithme d’optimisation par essaim particulaire.
La première application, de David Gianazza, porte sur la séparation en 3D des
flux de trafic aérien. L’auteur décrit un algorithme A*, et un algorithme
évolutionnaire hybridé avec un algorithme A*, qui permettent d’allouer, aux
différents flux de trafic aérien, des trajectoires optimales, convenablement
« séparées » les unes des autres. Les méthodes mises au point sont validées par des
données réelles, concernant les trafics aériens français et européens.
Le second article, de Guillaume Sandou, Stéphane Font, Sihem Tebbani, Arnaud
Hiret et Christian Mondon, décrit l’optimisation des plannings d’un site de
production d’énergie, au moyen d’un algorithme de colonie de fourmis, hybridé
avec un algorithme de résolution exacte. La méthode proposée permet de prendre en
compte explicitement la totalité des contraintes, et d’assurer ainsi la faisabilité des
solutions.
Editorial
991
Le troisième article, de Mestan Tekin, Christophe Espanet et Daniel Hissel,
porte sur l’optimisation par essaim particulaire d’un groupe motocompresseur pour
pile à combustible à membrane polymère. Les auteurs obtiennent une réduction
significative de la consommation énergétique interne d’un groupe électrogène à
base de pile à combustible, en agissant à la fois sur le dimensionnement du groupe
motocompresseur d’alimentation en air, et sur sa loi de commande non linéaire.
Cet article des Editions Lavoisier est disponible en acces libre et gratuit sur jesa.revuesonline.com
Le dernier article de ce numéro est à part : il vise, en effet, à promouvoir une
nouvelle métaheuristique. Cette méthode, proposée par Charles-Edmond Bichot,
Jean-Marc Alliot, Nicolas Durand et Pascal Brisset, est inspirée par la fusion et la
fission nucléaires. Chaque atome est composé de nucléons, représentant ici des
composantes indivisibles du problème d’optimisation considéré ; les fusions et les
fissions réalisées entre les atomes permettent d’approcher un état stable de la
« matière », qui correspond à une solution optimale. La méthode est appliquée avec
succès au problème du découpage aérien en Europe.
Patrick SIARRY
LISSI, Université de Paris XII
Cet article des Editions Lavoisier est disponible en acces libre et gratuit sur jesa.revuesonline.com
Téléchargement