Page 48 / OCTOBRE 2002 LA RECHERCHE 357
B.A.-BA (pré-publication)
Optimiser au gré du hasard
Le hasard a souvent été perçu comme un fléau que l’on ne pouvait
pas maîtriser. Cependant depuis quelques décennies, il est utilisé
pour réaliser des taches où curieusement il n’intervenait pas
auparavant. C’est le cas des problèmes de décision qui nécessitent
de rechercher une combinaison optimale de facteurs au regard d’un
critère de choix. Contrairement à toute intuition, on a découvert que
pour optimiser un tel critère, il n’est pas utile d’examiner toutes les
combinaisons des facteurs, mais qu’un examen aléatoire bien mené
suffit à trouver la combinaison optimale.
Bernard Chalmond
est professeur en Sciences de
l’Information à l’université
de Cergy-Pontoise et
chercheur à l’Ecole Normale
Supérieure de Cachan.
Pour reconnaître le
chiffre 4, on déforme
aléatoirement le dessin
d’un quatre jusqu’à
optimisation d’une
fonction d’adéquation
entre le dessin et l’image
Le souci d’optimisation est devenu un
maître mot à tous les niveaux de notre
société, jusqu’à en devenir une obsession en
certains lieux. Ainsi, cherche-t-on à optimiser
l’organisation du temps de travail, la
répartition des ressources, la qualité des
produits manufacturés, le rendement des
placements boursiers, l’efficacité des
médicaments, la puissance des armes….
Cette liste pourrait se poursuivre sur de
nombreuses colonnes. L’optimisation (en
terme de minimisation ou de maximisation)
est en fait un soucis ancien inhérent à
l’intelligence humaine et que chacun d’entre
nous pratique de façon naturelle. Il est
associé à la recherche du travail ou de l’outil
bien fait, et en ce sens il remonte à l’homo-
faber qui chercha de tout temps à améliorer
ses outils de pierre jusqu’à obtenir une forme
et une utilisation parfaites.
Traditionnellement les gens de métiers ont
pratiqué l’optimisation de façon intuitive par
tâtonnements, leur savoir-faire guidant les
améliorations successives apportées à la
conception de leur ouvrage. Mais en quoi,
l’optimisation moderne se distingue-t-elle de
cette pratique ancestrale ? Hé bien, tout
d’abord par la formalisation des problèmes.
Ainsi, la version moderne de la mise au point
de la meilleure hache de pierre consisterait à
se donner un critère de qualité, par exemple
la puissance de coupe qu’on exprimerait en
fonction d’un ensemble de facteurs influents
comme des paramètres de forme de la
hache et de dureté de la pierre. Il ne
resterait alors plus qu’à trouver la
configuration optimale des facteurs, c’est-à-
dire celle qui maximise la puissance de
coupe F(X)X désigne l’ensemble des
facteurs.
Cette formalisation qui trouve ses origines
au XVIIIième siècle, est devenue pleinement
opérationnelle grâce à la puissance des
ordinateurs. En effet, jusqu’alors seules les
problèmes autorisant le calcul analytique de
la solution optimale pouvaient être
considérés comme c’est le cas de la
parabole F(X)=X2 dont le minimum est X=0.
Bien sûr, les problèmes rencontrés en
pratique conduisent en général à des
fonctions F d’une complexité
incommensurablement plus grande que
celle de la simple parabole et pour lesquels
la solution analytique n’est pas accessible.
Ces fonctions peuvent dépendre d’un très
grand nombre de facteurs, mais surtout
posséder des solutions optimales
« locales ». Pour comprendre ces solutions
particulières, risquons une analogie avec la
surface d’un paysage de montagne
représentée par la fonction d’altitude à deux
facteurs que sont les coordonnées
géographiques. La minimisation de la
fonction d’altitude, c’est-à-dire la recherche
de la vallée la plus profonde est rendue très
difficile de par l’existence de vallées
intermédiaires –les minima locaux de la
fonction– qui perturbent notre perception :
un randonneur égaré dans le brouillard ne
saura pas s’il a atteint la vallée la plus
profonde –le minimum « global » de la
fonction– ou s’il doit poursuivre sa route.
Face à ces difficultés, la pratique de
l'optimisation moderne est principalement
numérique et repose sur des algorithmes
itératifs. Le principe consiste à démarrer
l’algorithme avec une configuration
particulière de facteurs puis à modifier
progressivement les facteurs au fur et à
mesure des itérations jusqu'à obtention
d’une solution optimale. La question de fond
concerne la façon de modifier les facteurs.
Dans la seconde moitié du XXième siècle, la
recherche d’algorithmes efficaces a été un
objectif technologique de première
importance. En effet, de nombreuses
démarches scientifiques passent par
l’optimisation d’une fonction F(X) : fonction
Page 48 / OCTOBRE 2002 LA RECHERCHE 357
La minimisation du
coût de déplacement
entre les villes, est le
résultat d’une
succession de tirages
aléatoires de circuits qui
progressivement
minimise le coût.
Cette rubrique a été
élaborée en collaboration
avec la collection SCOPOS
publié par Spinger
(www. scopos.org).
énergétique en physique, fonction de coût
en économie, fonction d’adaptation en
biologie… Le problème du calcul de
solutions optimales est donc récurrent :
scientifiques et ingénieurs y sont
régulièrement confrontés, et malgré cela il
n’existe pas d’algorithme entièrement fiable,
c’est-à-dire utilisable comme une « boite
noire». Le praticien doit calibrer l’algorithme
de son choix en fonction de la situation.
Cependant, un algorithme se dégage de par
son universalité car il permet de calculer la
solution optimale dans les situations les plus
complexes au détriment néanmoins de lourd
temps de calcul: c’est l’algorithme dit du
« recuit simulé ». Cet algorithme proposé au
début des années quatre-vingt a connu un
grand retentissement . Son invention
s’inspire de la mécanique statistique qui
traite du comportement de grand système en
équilibre. Quand les atomes X d’un métal en
fusion sont lentement refroidis jusqu’à la
température zéro, ils tendent vers un état
qui minimise l’énergie F(X) du système.
L’état final correspond en fait à un minimum
local d’énergie. Le métal peut alors être
rechauffé puis refroidi lentement dans
l ‘espoir d’atteindre un minimum d’énergie
inférieur. L’algorithme du recuit simulé mime
cette mécanique. De nombreux travaux
mathématiques ont analysé son
comportement . Ils apportent la preuve de
sa convergence vers un minimum global et
donne le schéma du refroidissement
nécessaire à la convergence.
Le « problème du voyageur de commerce »
est l’un des exemples les plus connu. Il
s’agit de relier un ensemble de N villes par
un circuit qui minimise le coût de
déplacement F(X)X=(X1,…,XN)
représente l’ordre suivant lequel les villes
sont visitées. Un examen systématique de
tous les circuits n’est pas envisageable du
fait du temps de calcul gigantesque que cela
demanderait. Or, l’algorithme du recuit
simulé permet d’atteindre le circuit optimal
sans examiner tous les circuits. Tout
randonneur sait que pour atteindre le fond de
la vallée la plus profonde, une descente par
un chemin toujours descendant est une
mauvaise stratégie car on peut déboucher
dans une vallée intermédiaire d’où aucun
chemin descendant ne part. Pour continuer à
descendre, il faut donc accepter de remonter
au-dessus de cette vallée pour reprendre un
autre chemin descendant.
L’algorithme du recuit simulé reflète cette
stratégie. Il démarre avec un circuit initial
quelconque qui est progressivement
modifié, l’ordre de modification des villes
étant aléatoire. La façon la plus immédiate
de procéder consisterait à n’accepter que les
modifications qui font décroître la fonction de
coût F , et à retenir comme circuit final celui
pour lequel toutes modifications n' entraînent
pas de baisse de la fonction de coût. Mais
dans ce cas, rien ne nous assure que si
l’algorithme était parti d’un autre circuit
initial, il aurait atteint le même circuit final.
Pour ne pas rester piéger par un circuit
faussement optimal –une vallée
intermédiaire– , il faut donc pouvoir continuer
l’exploration des circuits. Pour ce faire,
l’algorithme accepte aussi des modifications
entraînant une augmentation de la fonction
de coût mais seulement dans un intervalle
aléatoire dont la largeur tend
progressivement vers zéro au fur et à
mesure des itérations (comme la
température de la mécanique statistique).
Ainsi chemin faisant, on explore de façon
aléatoire l’ensemble du « paysage » des
circuits et les mathématiques montrent que si
la décroissance de la largeur de l’intervalle
est suffisamment lente alors le circuit final
est le circuit optimal. Cet algorithme trouve
des applications en des secteurs très variés
et en particulier en reconnaissance des
formes. Pour localiser un caractère alpha
numérique dans une image, on est amené à
déformer progressivement un dessin de ce
caractère (l’équivalent du circuit précédent)
jusqu’à ce que la fonction de coût qui mesure
l’adéquation entre le dessin et l’image soit
optimale.
B.C.
1 / 2 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !