Editorial 989
pas de discrétisation doit s’adapter en cours d’optimisation, pour garantir à la fois
la régularité de la progression vers l’optimum et la précision du résultat ;
– optimisation multimodale : il s’agit cette fois de déterminer tout un jeu de
solutions optimales, au lieu d’un optimum unique. Les algorithmes génétiques sont
particulièrement bien adaptés à cette tâche, de par leur nature distribuée. Les
variantes de type « multipopulation » exploitent en parallèle plusieurs populations,
qui s’attachent à repérer des optimums différents ;
– les méthodes hybrides : le succès rapide des métaheuristiques est dû aux
difficultés rencontrées par les méthodes classiques d’optimisation dans les
problèmes d’ingénierie complexes. Après le triomphalisme des débuts des tenants de
telle ou telle métaheuristique, l’heure est venue de faire un bilan réaliste et
d’accepter la complémentarité de ces nouvelles méthodes entre elles, ainsi qu’avec
d’autres approches : d’où l’émergence actuelle de méthodes hybrides ;
– nouvelles métaheuristiques : variantes ou non des plus connues, elles sont
légion. Citons, à titre d’exemple, la « méthode des essaims particulaires »
(« particle swarm optimization »), qui s’inspire de la dynamique de populations
animales (oiseaux, poissons, etc.) se déplaçant en foules compactes. Ou encore les
« systèmes immunitaires artificiels » (« artificial immune systems »), qui exploitent
des mécanismes d’apprentissage et de mémoire analogues à ceux mis en jeu chez les
vertébrés pour se défendre contre les agents extérieurs.
Cette présentation ne doit pas éluder la principale difficulté à laquelle est
confronté l’utilisateur, en présence d’un problème d’optimisation concret : celui du
choix d’une méthode « efficace », capable de produire une solution « optimale » –
ou de qualité acceptable – au prix d’un temps de calcul « raisonnable ». Face à ce
souci pragmatique, la théorie n’est pas encore d’un grand secours, car les
théorèmes de convergence sont souvent inexistants, ou applicables sous des
hypothèses très restrictives. En outre, le réglage « optimal » des divers paramètres
d’une métaheuristique, qui peut être préconisé par la théorie, est souvent
inapplicable en pratique, car il induit un coût de calcul prohibitif. En conséquence,
le choix d’une « bonne » méthode, et le réglage des paramètres de celle-ci, font
généralement appel au savoir-faire et à l’« expérience » de l’utilisateur, plutôt qu’à
l’application fidèle de règles bien établies.
Les efforts de recherche en cours visent à remédier à cette situation, périlleuse à
terme pour la crédibilité des métaheuristiques : compte tenu du foisonnement du
domaine, il est devenu indispensable d’éclairer l’utilisateur dans le choix d’une
métaheuristique ou d’une méthode hybride, et dans l’ajustement de ses paramètres.
Nous mentionnons en particulier trois enjeux importants de ces travaux. Le premier
est l’exploitation systématique d’hybridations et de coopérations entre méthodes
(émergence des systèmes multi-agents, mise au point d’une taxinomie des méthodes
hybrides, etc.). Le second concerne les possibilités d’analyse systématique des
métaheuristiques du point de vue de la convergence, la complexité, la robustesse et
les garanties de qualité ; une voie prometteuse est l’analyse des « paysages
d’énergie » (rugosité, caractère fractal, etc.). Le troisième enjeu porte sur les
Cet article des Editions Lavoisier est disponible en acces libre et gratuit sur jesa.revuesonline.com