1. Introduction (les problèmes difficiles)
Une métaheuristique est un algorithme d’optimisation visant à résoudre des problèmes
d’optimisation difficile, on distingue en réalité deux types de problèmes d’optimisation les
problèmes discret ou combinatoire et les problèmes à variables contenues.
Pour fixer les idées, citons deux exemples :
Parmi les problèmes discrets, on trouve le célèbre problème de voyageur de commerce il
s’agit de minimiser la longueur de la tournée d’un voyageur de commerce qui doit visiter un
certain nombre de villes, avant de retourner à la ville de départ.
Un exemple classique de problème continu est celui de la recherche des valeurs à affecter
aux paramètres d’un modèle numérique de processus, pour que ce modèle reproduise au
mieux le comportement réel observé.
En pratique on rencontre aussi des problèmes mixtes, qui comportent à la fois des variables
discrètes et des variables continues.
La méthode l'entropie croisée utilisée pour résoudre les problèmes difficiles.
2. Définition
et historique
La méthode de l'entropie-croisée (CE) (Reuven Rubinstein 1997) est une méthode générale
d'optimisation de type Monte-Carlo, pour l'optimisation combinatoire et continue.
La méthode a été conçue à l'origine pour la simulation d'événements rares, où des densités
de probabilités très faibles doivent être estimées correctement, par exemple dans l'analyse
de la sécurité des réseaux, les modèles de file d'attente, ou l'analyse des performances des
systèmes de télécommunication.
La méthode CE peut être appliquée à tout problème d'optimisation combinatoire où les
observations sont bruitées comme le problème du voyageur de commerce, l'optimisation
quadratique, le problème d'alignement de séquences d'ADN, le problème de la coupure
maximale et les problèmes d'allocation de mémoire.
3. Principe
La méthode CE implique un processus itératif où chaque itération peut être décomposée en
deux phases :
1. Génération aléatoire d'un échantillon d'information (trajectoires, vecteurs,
etc.) selon un mécanisme bien déterminé.
2. Mise à jour de paramètres de la génération aléatoire. Cette phase implique la
minimisation selon le principe d'entropie croisée ou la divergence de Kullback
Leiber.