COURS OPTIMISATION
Cours en Master M1 SITN
Ionel Sorin CIUPERCA
1
Table des matières
1 Introduction 4
2 Quelques rappels de calcul différentiel, analyse convexe et extremum 5
2.1 Rappel calcul différentiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.1.1 QuelquesNotations........................... 5
2.1.2 Quelques rappels sur le calcul différentiel . . . . . . . . . . . . . . . 6
2.1.3 Rappel formules de Taylor . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.4 Quelque rappels sur le matrices carrées réelles . . . . . . . . . . . . 11
2.2 Convexité .................................... 11
2.2.1 Fonctions convexes, strictement convexes, fortement convexes . . . . 11
2.2.2 Exemples des fonctions convexes, strictement convexes et fortement
convexes................................. 16
2.2.3 Fonctions coercives . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3 Conditions nécéssaires et suffisantes de minimum . . . . . . . . . . . . . . 17
2.4 Existence et unicité d’un point de minimum . . . . . . . . . . . . . . . . . 21
3 Optimisation sans contraintes 23
3.1 Méthodesderelaxation............................. 24
3.1.1 Description de la méthode . . . . . . . . . . . . . . . . . . . . . . . 24
3.1.2 Cas particulier des fonctions quadratiques . . . . . . . . . . . . . . 27
3.2 Méthodesdegradient.............................. 28
3.2.1 Méthodes de gradient à pas optimal . . . . . . . . . . . . . . . . . . 29
3.2.2 Autres méthodes du type gradient . . . . . . . . . . . . . . . . . . . 30
3.3 La méthode des gradients conjugués . . . . . . . . . . . . . . . . . . . . . . 33
3.3.1 Le cas quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.3.2 Cas d’une fonction Jquelconque ................... 38
4 Optimisation avec contraintes 39
4.1 Rappel sur les multiplicateurs de Lagrange . . . . . . . . . . . . . . . . . . 40
4.2 Optimisation sous contraintes d’inégalités . . . . . . . . . . . . . . . . . . . 41
4.2.1 Conditions d’optimalité de premier ordre : multiplicateurs de Karush-
Kuhn-Tucker .............................. 41
4.2.2 Théorie générale du point selle . . . . . . . . . . . . . . . . . . . . . 49
2
4.2.3 Applications de la théorie du point selle à l’optimisation . . . . . . 51
4.2.4 Lecasconvexe ............................. 52
4.3 Algorithmes de minimisation avec contraintes . . . . . . . . . . . . . . . . 53
4.3.1 Méthodes de relaxation . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.3.2 Méthodes de projection . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.3.3 Méthodes de pénalisation exterieure . . . . . . . . . . . . . . . . . . 59
4.3.4 MéthodedUzawa............................ 61
3
Chapitre 1
Introduction
En général optimiser signifie le fait de chercher une configuration optimale d’un sys-
tème, c’est à dire, chercher la meilleure configuration parmi tous les configurations possibles
du système et ceci, par rapport à un critère donné.
Pour décrire (et éventuellement résoudre) un problème d’optimisation nous utilisons la
modélisation mathématique. La démarche de modélisation comporte 3 étapes :
Etape 1. Choisir les variables de décision, qui sont les composantes du système sur
lesquelles on peut agir. On supposera dans ce cours qu’il y a un nombre finit noté nIN
de variables de décision, chacune de ces variables étant un nombre réel. Alors les variables
de décision seront représentés par un vecteur x= (x1, x2,···xn)TIRn(vecteur colonne).
Etape 2. Décrire l’état du système, étant donnée une configuration des variables de
décision. Ceci revient mathématiquement à se donner une fonction J:IRnIR qui
s’appelle fonction objectif ou fonction coût et que nous voulons rendre la plus petite
possible ou la plus grande possible.
Etape 3. Décrire les contraintes que les variables de décision satisfont. Ceci revient à
définir un ensemble de contraintes UIRnet imposer d’avoir xU.
Pour résumer on peut dire que pour décrire un problème d’optimisation on se donne
1. Une fonction J:IRn7→ IR (fonction coût)
2. Un ensemble UIRn(ensemble des contraintes)
On cherche à minimiser Jsur U, c’est à dire, on cherche xUtel que
J(x) = min
xUJ(x)
ou équivalent
J(x)J(x),xU.
Motivation et exemples pratiques : en classe
4
Chapitre 2
Quelques rappels de calcul différentiel,
analyse convexe et extremum
2.1 Rappel calcul différentiel
2.1.1 Quelques Notations
1. Pour tout nIN,IRndésigne l’espace euclidien IR ×IR ×···IR ( “produit nfois”).
En général un vecteur xIRnsera noté x= (x1, x2,···xn)T(vecteur colonne).
2. On note e1, e2,···enles éléments de la base canonique de IRn, où eiest le vecteur
de IRndonné par :
(ei)j=δij =0si j6=i
1si j=i,i, j = 1,2···n(2.1)
(δij =symboles de Kronecker).
3. Pour tous x, y IRnon note par < x, y > IR le produit scalaire de xet y, qui
est donné par
< x, y > =
n
X
i=1
xiyi.
Deux vecteurs x, y IRnsont orthogonaux (on notera xy) si < x, y > = 0.
4. Pour tout xIRnon note par kxk ≥ 0la norme euclidienne de x, donnée par
kxk=< x, x > =v
u
u
t
n
X
i=1
x2
i.
Rappellons les propriétés d’une norme (donc aussi de la norme euclidienne) :
i)kλxk=|λ|kxk ∀λIR,xIRn
ii)kx+yk≤kxk+kyk ∀x, y IRn
iii)k0k= 0 et kxk>0si xIRn− {0}.
5
1 / 68 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !