Exposé kangourou - reussirlem1info

publicité
UNIVERSITE DES SCIENCES ET DE LA TECHNOLOGIE D’ORAN
L’Optimisation par la méthode
Kangourou
Professeur responsable ::Mr BENYETTOU MOHAMED
Présentée par: BOUCHETARA KARIMA
Sommaire
1- Introduction.
2-Métaheurstique.
2.1 Définition.
2.2 Classification.
3-Descente stochastique
3.1 Définition.
3.2 Principe.
3.3 Schéma général de la descente stochastique
3.4 Algorithmes basés sur la descente aléatoire
4-La méthode kangourou
4-1 Définition
4-2 Notion de voisinage
4-3 Principe
4-4 Algorithme
4-5 Exemple
4-6 Avantages et inconvénients.
5- Conclusion
1-Introduction
En mathématiques, L’ optimisation combinatoire consiste à
trouver la meilleure solution entre un nombre fini de choix.
Autrement dit, à minimiser une fonction, avec ou sans
contraintes, sur un ensemble fini de possibilités.
un problème d'optimisation combinatoire se définit par l’ensemble
de ses instances, souvent nombreuses. Ces problèmes sont facile
à définir mais difficile à résoudre.
Et pour résoudre ces problèmes, plusieurs méthodes ont été
développées, on peut les classer dans deux grandes catégories:
les méthodes exacte et les méthodes approchées, mais des
problèmes ont été rencontrés au cours de ces méthodes, alors
depuis une trentaine d’années une nouvelle génération de
méthodes puissantes est apparue et qui s’intitule «
Métaheuristiques ».
2-Métaheuristique
2-1 Définition
Le mot métaheuristique est dérivé de la composition de deux mots grecs:
- heuristique qui vient du verbe heuriskein (ευρισκειν) et qui signifie
‘trouver’
-méta qui est un suffixe signifiant ‘au-delà’, ‘dans un niveau
supérieur’.
Les métaheuristiques forment un ensemble de méthodes utilisées en
recherche opérationnelle pour résoudre des problèmes d’optimisation
réputés difficiles. C’est une nouvelle génération de méthodes
approchées puissante.
En 2006, le réseau Metaheuristics définit les métaheuristiques comme
« un ensemble de concepts utilisés pour définir des méthodes
heuristiques, pouvant être appliqués à une grande variété de
problèmes. On peut voir la métaheuristiques comme une « boîte à
outils » algorithmique, utilisable pour résoudre différents problèmes
d’optimisation, et ne nécessitant que peu de modifications pour qu’elle
puisse s’adapter à un problème particulier ».
2-Métaheuristique
2-2 Classification
On peut distinguer deux grandes approches dans les
métaheuristiques:
• les approches « trajectoire »: Ces méthodes partent d’une
solution initiale (obtenue de façon exacte, ou par tirage
aléatoire) et s’en éloignent progressivement, pour réaliser une
trajectoire, un parcours progressif dans l’espace des solutions.
Dans cette catégorie, se rangent :la méthode de descente, le
recuit simulé, la méthode Tabou.
Le terme de recherche locale est de plus en plus utilisé pour
qualifier ces méthodes.
• les approches « population » (ou évolutionnaires)
Elles consistent à travailler avec un ensemble de solutions
simultanément, que l’on fait évoluer graduellement.
L’utilisation de plusieurs solutions simultanément permet
naturellement d’améliorer l’exploration de l’espace des
configurations. Dans cette seconde catégorie, on recense : les
algorithmes génétiques, les algorithmes par colonies de fourmi,
l’optimisation par essaim particulaire…
3-Descente stochastique
3-1 Définition
La recherche locale, appelée aussi la descente stochastique ou
l’amélioration itérative ou même le Hill Climbing,
représente une classe de méthodes heuristiques très
anciennes.
Les algorithmes de recherche locale sont largement utilisés
dans les problèmes d'optimisation difficiles, tels que les
problèmes informatiques (en particulier l'intelligence
artificielle),mathématiques, en recherche opérationnelle,
d'ingénierie et de bio-informatique.
3-Descente stochastique
3-2 Principe
Le principe de la méthode de descente consiste à partir d’une
solution s et à choisir une solution s’ dans un voisinage de
s, telle que s’ améliore la recherche (généralement telle que
f(s’) < f(s)).
On peut décider soit d’examiner toutes les solutions du
voisinage et prendre la meilleure de toutes (ou prendre la
première trouvée), soit d’examiner un sous-ensemble du
voisinage.
3-Descente stochastique
3-3 Schéma général de la descente stochastique :
Procédure descente_simple (solution initiale s)
Répéter :
Choisir s’ dans N(s)
Si f(s’) < f(s) alors s ← s’
Jusqu’à ce que f(s’) ≥ f(s)
Fin
3-Descente stochastique
3-4 Algorithmes basés sur la descente aléatoire
La plupart des métaheuristiques à base de solution unique
sont des améliorations de la méthode de descente aléatoire.
Les plus simples sont des variantes de la descente aléatoire
répétée, qui consiste à faire une descente aléatoire à partir de
plusieurs points choisis de façon aléatoire dans l’espace de
recherche, et à choisir le meilleur point pour démarrer
l’optimisation locale. Notre méthode Kangourou utilise en
gros ce principe.
4- La méthode Kangourou
4-1 Définition
La méthode Kangourou est une technique
d’approximation fondée sur la descente
stochastique qui consiste à faire une descente
aléatoire à partir de plusieurs points choisis de
façon aléatoire dans l’espace de recherche
Elle a été proposée par Gérard Fleury en 1993.
Inspiré par la méthode du recuit simulé, mais avec
une stratégie très différente de recherche.
4- La méthode Kangourou
4-2 Notion de voisinage
Soit S un ensemble de solutions à un problème
d’optimisation, et soit f la fonction objectif. Une
structure de voisinage (ou tout simplement un
voisinage) est une fonction N qui associe un sousensemble de S à toute solution sS. Une solution s’
N(s) est dite voisine de s.
• Une solution s  S est un minimum local
relativement à la structure de voisinage N si f(s) ≤
f(s’) s’  N(s).
4- La méthode Kangourou
4-3 Principe
La méthode Kangourou est un algorithme itératif qui minimise une
fonction objectif f(u). L’algorithme explore l'espace des solutions
dans le voisinage N(u) en choisissant à chaque fois la meilleure
solution voisine u* de la solution courante u.
Soit u0 une solution admissible du problème d'optimisation. Par
des déplacements successifs l'algorithme de Kangourou cherche
une solution qui minimise la fonction f dans un voisinage de la
solution courante.
Si la solution ui est meilleure que la solution précédente, elle est
mémorisée et une nouvelle solution est cherchée dans le même
voisinage. Si la solution ui n'est pas meilleure que la solution
précédente, l'algorithme trouve un autre voisinage par un saut.
Après un nombre d'itérations un minimum local u* est trouvé.
Ce minimum est plus ou moins proche du minimum global.
4- La méthode Kangourou
La descente pour trouver un minimum local
4- La méthode Kangourou
4-4 Algorithme:
On a les paramètres suivants:
x : état courant.
x* : meilleur état rencontré à l'itération courante.
C : compteur d'itérations entre deux améliorations de la
solution.
A : le nombre maximal d'itérations sans l'amélioration
de la solution courante
f : la fonction objectif.
4- La méthode Kangourou
Procédure de descente
Répéter ns fois :
1 : Appliquer la mutation ɳ2 à la solution courante :
x1 ← ɳ2(x) ;
2 : Si f (x1)= f (x) alors
aller en 5 ;
3 : Si f (x1) < f (x*) alors
Mettre à jour la meilleure solution rencontrée : x*← x1 ;
4 : Réinitialiser le compteur de stationnement C ← 0 ;
5 : Mettre à jour la solution courante : x ← x1 ;
6 : Incrémenter le compteur de stationnement : C ← C+1
4- La méthode Kangourou
Procédure de saut
1 : Appliquer la mutation ɳ1 à la solution courante :
x1← ɳ1(x) ;
2 : Si f (x1) > f(x) alors
aller en 5 ;
3 : Si f (x1) <f(x) alors
C← 0 ;
4 : x ← x1 ;
5 : C ← C+1 ;
4- La méthode Kangourou
• ɳ1: mutation uniforme locale. ɳ1 (xi)= xi +(2 ɣ -1)p, où p est
obtenu à partir d’une distribution uniforme sur [0,1] et p est
un nombre réel (0 < p<1), souvent appelé taille maximum du
pas.
• ɳ2: mutation uniforme globale. ɳ2(xi)= ɣ, où ɣ est
obtenu à partir d’une distribution uniforme sur [0,1]. La
mutation ɳ2 vérifie bien la propriété d’accessibilité,
puisqu’à partir d’un point quelconque de l’espace de
recherche [0,1]N, il est possible d’atteindre tout autre point
de cet espace.
4- La méthode Kangourou
L’algorithme Kangourou est défini comme suit :
1 : Initialiser la solution courante : x ← x0 ;
2 : Initialiser la meilleure solution rencontrée : x*←x0 ;
// *une meilleure solution x* est recherché afin de minimiser la fonction
objectif f *//
3 : Initialiser le compteur de stationnement : C← 1 ;
4 : Si C < A alors
// *descente stochastique *//
exécuter la procédure de descente : x ← descente (x, C) ;
Sinon
exécuter la procédure de saut : x ← saut (x) ;
5 : Si x est meilleure que x* alors
x* ← x ;
6 : Si le critère d’arrêt est atteint alors
aller en 4 ;
Sinon
fin de l’algorithme.
4- La méthode Kangourou
Explication
Après une descente aléatoire avec une mutation ɳ1 ,
si la valeur de la fonction objectif n’a pas changé
depuis A itérations, plusieurs sauts aléatoires
consécutifs sont effectués en utilisant une mutation
ɳ2.
La mutation ɳ2 n’est pas nécessairement la même
que ɳ1 , mais doit respecter la propriété
d’accessibilité, c’est-à-dire que pour tout couple de
points (x, y) de l’espace des paramètres, il doit être
possible d’atteindre y à partir de x, en utilisant une
suite finie de mutations de type ɳ2 .
4- La méthode Kangourou
Les deux mutations ɳ1 et ɳ2 sont utilisées avec des
objectifs différents. ɳ1 permet de faire un
déplacement local (c’est-à-dire, vers un point très
proche de la solution courante), alors que ɳ2 est
utilisée pour effectuer un saut vers un autre bassin
d’attraction, pour sortir d’un optimum local
La première et la deuxième mutation ne sont pas
nécessairement les mêmes, mais doivent respecter
la propriété d’accessibilité de l’algorithme.
4- La méthode Kangourou
4-5 Exemple de la méthode Kangourou
Le désassemblage d'une porte du modèle Peugeot
106 Dans sa thèse, [DUTA ,2006] a appliqué
l'algorithme du kangourou sur désassemblage d'une
porte du modèle Peugeot 106. Les composants et les
temps de désassemblage sont donnés.
4- La méthode Kangourou
Les composants d'une porte Peugeot 106
4- La méthode Kangourou
Le tableau représentant Les opérations principales de
désassemblage de la porte est comme suit :
4- La méthode Kangourou
Nous avons ignoré les opérations annexes comme la prise ou le
positionnement d'un outil.
Hypothèses :
Il s'agit d'un seul type de produit (Peugeot 106)
La période de planification est H = une semaine
Le nombre de produits de même type à désassembler est constant S=40
La fonction à optimiser est une fonction d'équilibrage F.
Les temps de désassemblage pour les autres composants sont connus.
Le temps de cycle est connu et égale à 3600 s pour le désassemblage de la
voiture entière.
Il y deux postes mixtes où le désassemblage de la porte est réalisé
L'exécution de l'algorithme du [Duta, 2006] donne la valeur minimale de
la fonction F de 260 s, ce qui est un bon résultat.
4- La méthode Kangourou
4-6 Avantages et inconvénients:
Elle présente l’avantage de ne pas perdre l’information
relative aux optimaux locaux rencontrés. Les résultats
obtenus par la méthode kangourou sont de bonnes
qualités avec un temps de calcul modéré. Le fait
d’effectuer des sauts permet à l’algorithme kangourou
de sortir d’une vallée c’est à dire d’un minimum local en
sautant les barrières de potentiel.
Il présente plusieurs inconvénients comme le nombre de
stationnements et de sauts nécessaire pour la recherche
global.
5-Conclusion
La méthode Kangourou offre une solution par une
descente stochastique et une transition dans le
voisinage de l'état actuel pour trouver une meilleure
solution de la solution courante.
L’intérêt de cette méthode est qu’elle est facile à
mettre en œuvre, elle peut être couplée sans difficulté
avec un modèle pour l’évaluation des performances et
on dispose a tout instant d’une solution réalisable.
L’algorithme du kangourou a beaucoup d’avantages
car il permet la recherche globale ainsi que le réglage
de paramètres du recuit simulé.
Références
• Luminita DUTA ; « Contribution A L'etude De La Conduite
Des Systemes De Desassemblage » ; thèse de doctorat en
Automatique et Informatique; Université Franche-Comte Du
Besancon ; soutenue le 22 septembre 2006
• Mémoire Les métaheuristiques en optimisation
combinatoire PRÉSENTÉ EN VUE D’OBTENIR L’EXAMEN PROBATOIRE EN
INFORMATIQUE PAR BAPTISTE AUTIN le 9 mai 2006.
• Jin-Kao HAO, Philippe GALINIER, Michel HABIB ; «
Méthaheuristiques pour l’optimisation combinatoire et
l’affectation sous contraintes »; Revue d’Intelligence
Artificielle ;1999
• http://fr.wikipedia.org/wiki/Recherche_locale_(optimisatio
n)
Merci pour votre
attention
Téléchargement