Adaptation de la m´ethode des colonies de
fourmis pour l’optimisation en variables
continues. Application en g´enie biom´edical
Johann Dr´eo
R´esum´e
Bien que les probl`emes d’optimisation difficile en variables continues soient tr`es cou-
rants en ing´enierie, ils sont peu ´etudi´es en recherche op´erationnelle. La plupart des al-
gorithmes d’optimisation sont en effet propos´es dans le domaine combinatoire. D`es lors,
l’adaptation de ces m´etaheuristiques combinatoires aux probl`emes continus est profitable
`a un grand nombre de probl`emes r´eels.
Parmi ces ethodes, les algorithmes de colonies de fourmis forment une classe des
m´etaheuristiques ecemment propos´ee pour les probl`emes d’optimisation difficile. Ces al-
gorithmes s’inspirent des comportements collectifs de d´epˆot et de suivi de piste observ´es
dans les colonies de fourmis. Une colonie d’agents simples (les fourmis) communiquent
indirectement via des modifications dynamiques de leur environnement (les pistes de
ph´eromone) et construisent ainsi une solution `a un probl`eme, en s’appuyant sur leur
exp´erience collective.
Deux approches sont possibles pour concevoir des m´etaheuristiques d’optimisation
continue en suivant cette m´etaphore. La premi`ere consiste `a cr´eer un syst`eme multi-agent
o`u la communication joue un ole central, en tant que processus permettant l’´emergence
d’un comportement global coh´erent du syst`eme. Nous proposons, dans cette optique,
des algorithmes de “colonies de fourmis interagissantes” (baptis´es CIAC et HCIAC ). La
deuxi`eme approche d´ecrit les algorithmes de colonies de fourmis comme des ethodes
manipulant un ´echantillonnage d’une distribution de probabilit´e. Nous proposons ainsi
une m´etaheuristique “`a estimation de distribution” (nomm´ee CHEDA).
De plus, la conception de m´etaheuristiques peut ˆetre guid´ee par le concept de program-
mation `a m´emoire adaptative, qui met notamment l’accent sur les processus de m´emoire,
de diversification et d’intensification. Nos algorithmes font l’objet d’une hybridation avec
une recherche locale de Nelder-Mead, qui am´eliore l’intensification de la recherche.
Les algorithmes de colonies de fourmis du type “multi-agent” pr´esentent des ca-
ract´eristiques de flexibilit´e particuli`erement int´eressantes sur des probl`emes combinatoires
dynamiques. Nous avons donc adapt´e notre m´ethode hybride de colonie de fourmis in-
teragissantes `a des probl`emes continus dynamiques (algorithme DHCIAC ), pour lesquels
nous proposons ´egalement un nouveau jeu de test coh´erent.
Nos algorithmes sont enfin appliqu´es dans le cadre d’un probl`eme biom´edical concer-
nant les pathologies du vieillissement oculaire. L’automatisation du suivi des l´esions de
l’oeil n´ecessite en effet une ´etape d’optimisation, lors du recalage d’images d’une s´equence
d’angiographie r´etinienne.
Mots-clefs : Optimisation, optimisation difficile, optimisation continue, optimisation dynamique, eta-
heuristiques, algorithmes de colonies de fourmis, auto-organisation, programmation `a m´emoire adaptative,
estimation de distribution, recalage d’image, angiographie r´etinienne
- i -
Remerciements
Je remercie Armelle pour tout (et pour le reste).
Je veux remercier Patrick Siarry, pour m’avoir donn´e la possibilit´e de faire cette th`ese,
ainsi que pour son encadrement sans faille. Il a toute ma gratitude pour m’avoir laiss´e
une grande libert´e dans mes recherches et m’avoir consacr´e son temps sans compter (et
ce n’est pas rien !).
Je voudrais exprimer ma gratitude `a Daniel Jolly et `a Gilles Venturini, pour avoir ac-
cept´e d’ˆetre rapporteurs. Et ´egalement `a Florent Chavand, Guy Th´eraulaz et Ion Cristian
Tr´el´ea, qui ont bien voulu faire partie de mon jury.
Je suis tr`es reconnaissant au LERISS, notamment envers Jacques Lemoine pour m’avoir
ouvert les portes de son laboratoire, ainsi que tous les membres, pour m’avoir d’embl´ee
accueilli chaleureusement. Merci `a Patricia Jamin et Annick Joncour, toujours l`a pour
pallier ma malchance administrative.
Je remercie ´egalement mes coll`egues th´esards, pour la bonne ambiance au laboratoire
et leur amiti´e, notamment Jean-Claude Nunes, Steve Guyot, Kaouthar Hila, Jean-Michel
Glaume, Jean-Christophe Chotis, Marie-C´ecile P´eron, Walid Tfaili et Lounis Salhi. Merci
`a Oumar Niang, qui partage ma vision de la recherche. Merci aussi `a B´eatrice Renou-Dias
et Diane Bouvet, pour leur soutien moral de qualit´e.
Je tiens `a remercier tout particuli`erement Alain P´etrowski et ´
Eric Taillard pour avoir
accept´e de co-´ecrire le livre avec Patrick Siarry et moi-mˆeme ; j’ai beaucoup appris grˆace `a
eux. Merci aussi `a Amitava Chatterjee pour la traduction du livre et ses id´ees de recherche.
Merci `a Ga¨el Desbois pour ses contributions.
Un grand merci ´egalement `a tous ceux avec qui j’ai eu des discussions, toutes plus
ineressantes les unes que les autres, notamment Yann Colette, Nicolas Monmarch´e, Alain
Berro, Marc Sevaux, Krzysztof Socha et ceux que j’oublie. Un merci tout particulier
`a Jean-S´ebastien Pierre et Jean-Louis Deneubourg, qui m’ont transmis le goˆut de la
recherche.
Je n’oublie pas mes quelques stagiaires, qui m’ont fait progresser, merci Hakim Haroun,
Jos´e Oliveira, Thibault Tertois, Pierre Truchetet et Francis Djebelo.
Des remerciements sp´eciaux `a mes parents, Fabien Marty, Fed´eric Vincent, Charles
Basset, Romain Jetur et les autres, pour m’avoir forc´e `a faire autre chose de temps en
temps.
Merci `a celles et ceux qui auront lu tout ou partie de ce manuscrit et qui y auront
trouv´e quelque int´erˆet. Merci enfin `a ceux que j’aurais oubli´e, ils savent que j’ai une pi`etre
m´emoire et ne m’en voudront pas trop, j’esp`ere !
- ii -
Table des mati`eres
Introduction 1
1 Algorithmes de colonies de fourmis en optimisation : ´etat de l’art 5
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 M´etaheuristiques pour l’“optimisation difficile” . . . . . . . . . . . . . . . . 5
1.2.1 Optimisation difficile . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.1.1 Probl`eme d’optimisation . . . . . . . . . . . . . . . . . . . 5
1.2.1.2 “Optimisation difficile” . . . . . . . . . . . . . . . . . . . . 6
1.2.2 Algorithmes d’optimisation approch´ee . . . . . . . . . . . . . . . . . 7
1.2.2.1 Heuristiques . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.2.2 M´etaheuristiques . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Algorithmes de colonies de fourmis en optimisation . . . . . . . . . . . . . 8
1.3.1 Optimisation naturelle : pistes de ph´eromone . . . . . . . . . . . . . 8
1.3.2 Optimisation par colonies de fourmis et probl`eme du voyageur de
commerce . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.2.1 Algorithme de base . . . . . . . . . . . . . . . . . . . . . . 11
1.3.2.2 Variantes . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.2.3 Choix des param`etres . . . . . . . . . . . . . . . . . . . . 15
1.3.3 Autres probl`emes combinatoires . . . . . . . . . . . . . . . . . . . . 15
1.3.4 Formalisation et propri´et´es d’un algorithme de colonie de fourmis . 16
1.3.4.1 Formalisation . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3.4.2 Ph´eromones et emoire . . . . . . . . . . . . . . . . . . . 18
1.3.4.3 Intensification/diversification . . . . . . . . . . . . . . . . 18
1.3.4.4 Recherche locale et heuristiques . . . . . . . . . . . . . . . 19
1.3.4.5 Parall´elisme . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3.4.6 Convergence . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3.5 Extensions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3.5.1 Optimisation continue . . . . . . . . . . . . . . . . . . . . 21
1.3.5.2 Probl`emes dynamiques . . . . . . . . . . . . . . . . . . . . 27
I
Table des mati`eres
1.4 M´etaheuristiques et ´ethologie . . . . . . . . . . . . . . . . . . . . . . . . . 28
2 Concepts th´eoriques exploit´es dans notre travail 29
2.1 Auto-organisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.1.2 Auto-organisation . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.1.2.1 Stigmergie . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.1.2.2 Contrˆole ecentralis´e . . . . . . . . . . . . . . . . . . . . . 33
2.1.2.3 H´et´erarchie dense . . . . . . . . . . . . . . . . . . . . . . . 33
2.2 Programmation `a m´emoire adaptative (PMA) . . . . . . . . . . . . . . . . 34
2.3 Bases communes et exemples de m´etaheuristiques fond´ees sur ces principes 36
2.3.1 Optimisation par essaim particulaire . . . . . . . . . . . . . . . . . 36
2.3.2 Algorithmes ´evolutionnaires . . . . . . . . . . . . . . . . . . . . . . 40
2.3.3 Syst`emes immunitaires artificiels . . . . . . . . . . . . . . . . . . . 42
2.3.4 Algorithmes inspir´es des insectes sociaux non apparenes aux algo-
rithmes de colonies de fourmis . . . . . . . . . . . . . . . . . . . . . 44
2.3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.4 ´
Echantillonnage de distribution . . . . . . . . . . . . . . . . . . . . . . . . 45
2.4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.4.2 Fonction objectif et distribution de probabilit´e . . . . . . . . . . . . 46
2.4.3 ´
Echantillonnage et PMA . . . . . . . . . . . . . . . . . . . . . . . . 46
2.4.4 Exemples de m´etaheuristiques vues sous l’angle de l’´echantillonnage
de distribution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.4.4.1 Recuit simul´e . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.4.4.2 Algorithmes ´evolutionnaires . . . . . . . . . . . . . . . . . 48
2.4.4.3 Algorithmes `a estimation de distribution . . . . . . . . . . 48
2.4.4.4 Algorithmes de colonies de fourmis . . . . . . . . . . . . . 52
2.4.4.5 Cadres en´eraux . . . . . . . . . . . . . . . . . . . . . . . 52
2.4.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3´
Elaboration d’algorithmes de colonies de fourmis en variables continues 55
3.1 ´
Elaboration d’un algorithme exploitant la communication directe entre in-
dividus (CIAC ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.1.2 Algorithmes h´et´erarchiques . . . . . . . . . . . . . . . . . . . . . . 57
3.1.3 Les canaux de communication de CIAC . . . . . . . . . . . . . . . 58
3.1.3.1 Communication par pistes . . . . . . . . . . . . . . . . . . 58
3.1.3.2 Le canal inter-individuel . . . . . . . . . . . . . . . . . . . 59
- II -
1 / 166 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !