Problèmes généraux : dualité et solvabilité (résumé de cours) M. Grabisch N.B. Pour MIAGE, seules les sections 1, 2 et 3.1 sont au programme. 1 Le théorème de la dualité Un problème sous forme générale s'écrit sous la forme suivante (P) : Maximiser n X cj xj j=1 Pn Pj=1 aij xj n sous j=1 aij xj xj ≤ bi , i ∈ I = bi , i ∈ E ≥ 0, j ∈ R. (n variables, m contraintes ; j ∈ R : variable restreinte ; F := {1, . . . , n} \ R, j ∈ F : variable libre). Une combinaison linéaire des contraintes est toute inégalité : n X m X j=1 m X aij yi xj ≤ bi y i , i=1 (1) i=1 avec yi ≥ 0 si i ∈ I (nécessaire sinon l'inégalité change de sens). Donc tout x réalisable doit satisfaire (1), pour tout y = y1 · · · ym ainsi déni. Si y est choisi de telle sorte que : m X i=1 m X aij yi ≥ cj , j∈R aij yi = cj , j∈F i=1 alors toute solution réalisable de (P) satisfait cj xj ≤ m X aij yi xj , j = 1, . . . , n i=1 (avec égalité si j ∈ F ), et donc n X cj xj ≤ n X m X j=1 j=1 aij yi xj . (2) bi y i . (3) i=1 Donc si x satisfait à la fois (1) et (2), il satisfait n X cj xj ≤ j=1 m X i=1 1 Ainsi, une borne supérieure de la valeur de la fonction objectif est obtenue. On en déduit le programme dual de (P), qui permet de trouver la borne supérieure minimale : Minimiser m X bi y i i=1 Pm Pi=1 aij yi m sous i=1 aij yi yi ≥ cj , j ∈ R = cj , j ∈ F ≥ 0, i ∈ I. Théorème 1. (Théorème de la dualité, forme génerale) Si le primal a une solution optimale, alors le dual a une solution optimale, et les valeurs des fonctions objectif sont identiques. (démonstration omise car semblable à celle du problème sous forme standard) 2 Systèmes d'inégalités et d'égalités insolubles Soit le système suivant : Pn aij xj Pj=1 n j=1 aij xj ≤ bi , = bi , i∈I i ∈ E, (4) avec x ∈ Rn . Existe-t-il une solution à ce système ? Si x est solution, alors il doit être solution de toute combinaison linéaire de ces contraintes. Exemple 1 : Le système suivant admet-il une solution ? x1 + 3x2 + 2x3 + 4x4 x4 3x1 + x2 + 2x3 + 5x1 + 3x2 + 3x3 + 3x4 −x3 −x4 En prenant y = 1 3 −2 2 ≤ ≤ = ≤ ≤ 5 4 9 0 0 1 , on trouve la combinaison linéaire 0 ≤ −1 qui est impossible. Donc le système n'a pas de solution. Un système (4) est incohérent s'il existe y ∈ Rm tel Pm Pi=1 aij yi = m < i=1 bi yi yi ≥ que 0, 0 0, j = 1, . . . , n (5) i ∈ I. L'exemple montre que incohérent implique insoluble. Théorème 2. Un système d'inégalités et d'égalités linéaires est insoluble si et seulement si il est incohérent. Démonstration. Il reste à montrer que insoluble implique incohérent. Soit le problème : Maximiser m X xn+i i=1 Pn Pj=1 aij xj + wi xn+i n sous j=1 aij xj + wi xn+i xn+i 2 ≤ bi , i ∈ I = bi , i ∈ E ≥ 0, i = 1, . . . , m avec wi = 1 si bi ≥ 0, wi = −1 si bi < 0. Il est clair que (4) est soluble si et seulement si la valeur optimale du problème est 0. En particulier, si (4) est insoluble, alors la valeur optimale est < 0. Dans ce cas, le problème dual Minimiser m X bi y i i=1 Pm i=1 aij yi wi yi sous yi = ≥ ≥ 0, j = 1, . . . , n −1, i = 1, . . . , m 0, i ∈ I a une solution optimale y∗ , et la valeur de la fonction objectif est < 0. Alors y∗ satisfait (5), i.e., le système est incohérent. Théorème 3. Tout système d'inégalités linéaires système insoluble d'au plus n+1 Ax ≤ b insoluble à n variables contient un sous- inégalités (non unique en général), correspondant aux variables yi > 0 du Th. 2. La preuve se sert du résultat suivant : Lemme 1. Si un système de plus m variables m équations lineaires a une solution ≥ 0, il exists une solution avec au > 0. (du Th. 3) Si le système est insoluble, il est incohérent par le Th. 2, et donc ∃y∗ ≥ 0 telque y A = 0 et y∗ b =: c < 0. On considère le système yA = 0 yb = c Démonstration. ∗ de n + 1 équations. y∗ est une solution ≥ 0 de ce système, donc d'après le Lemme 1, il existe une solution y ≥ 0 avec au plus n + 1 composantes > 0. Le sous-système insoluble correspond à ces composantes strictement positives, puisque les composantes nulles n'ont pas d'inuence. 3 Compléments sur les systèmes d'inégalités Il 3.1 existe 3 méthodes pour vérier qu'un système d'inégalités linéaires admet ou non une solution : La première phase de la méthode à 2 phases Le lemme de Farkas (le Th. 2) La méthode d'élimination de Fourier-Motzkin. Élimination de Fourier-Motzkin Soit le système suivant : (1) −x1 (2) −2x1 (3) x1 (4) x1 (5) 2x1 (6) −2x1 (7) −6x1 − 4x2 − x2 − 2x2 + x2 + 6x2 − x2 ≤ −9 ≤ −4 ≤ 0 ≤ 4 ≤ 11 ≤ 17 ≤ −6 Fixons x1 et regardons les valeurs possibles pour x2 . Une inégalité avec un coe. positif pour x2 donne une borne supérieure de x2 , tandis que si le coe. est négatif, on obtient une borne inférieure. En eet : (6) (1) 17 1 + x1 6 3 9 1 − x1 − 4x2 ≤ −9 ⇔ x2 ≥ − x1 . 4 4 − 2x1 + 6x2 ≤ 17 ⇔ x2 ≤ 3 Alors toutes les valeurs de x1 telles que la borne inférieure ≤ borne supérieure sont permises : 9 1 17 1 − x1 ≤ + x1 ⇔ x1 ≥ −1. 4 4 6 3 Cette nouvelle inégalité remplace (6) et (1), et x2 a été éliminé. En faisant de même avec toutes les paires d'equations ayant cette propriété, et en laissant les inéquations où x2 est absent (comme (4)), on obtient un système équivalent où x2 a été éliminé. Formellement, soit le système Ax ≤ b. Considérons xk à éliminer, et des lignes i, j telles que aik > 0 et ajk < 0. Alors ai x ≤ bi ⇔ aik xk ≤ aik xk − ai x + bi (6) aj x ≤ bj ⇔ (−ajk )xk ≥ −ajk xk + aj x − bj . (7) En multipliant (6) par (−ajk ) et (7) par aik , il vient : aik aj x − aik bj ≤ −(−ajk )ai x + (−ajk )bi équivalent à (aik aj + (−ajk )ai )x ≤ aik bj + (−ajk )bi (résumé et exemple : voir feuille annexe) 3.2 Lemmes de Farkas Le Th. 2 est en fait une des versions du Lemme de Farkas (version I), que l'on peut réécrire comme suit : (Lemme de Farkas I) Soit le système Pn aij xj ≤ bi , i ∈ I Pj=1 n = bi , i ∈ E. j=1 aij xj Ce système est insoluble si et seulement si ∃y ∈ Rm , yi ≥ 0 ∀i ∈ I , tel que m X aij yi = 0, ∀j = 1, . . . , n et i=1 m X bi yi < 0. i=1 (voir démo utilisant Fourier-Motzkin sur feuille annexe) Autre version (sans égalité pour simplier) : n m (Lemme de Farkas II) Soit le système Ax ≤ b, x ∈ R , b ∈ R , et une inégalité a0 x ≤ b0 . Alors a0 x ≤ b0 est valide ∀x solution du système si et seulement si au moins l'une des deux conditions suivantes est vériée : (i) ∃y ≥ 0 tel que yA = a0 et yb ≤ b0 (ii) ∃y ≥ 0 tel que yA = 0T et yb < 0. Ax ≤ b dénit un polyèdre P . Une inégalité est valide pour ce polyèdre si elle peut être obtenue comme une combinaison linéaire positive des inégalités dénissant P (condition (i)), ou si P est vide (condition (ii)). m (Lemme de Farkas III) Soit A une matrice m × n, b ∈ R . Alors une et une seule des 2 éventualités suivantes peut arriver : n (F1) ∃x ∈ R tel que Ax = b et x ≥ 0. m (F2) ∃y ∈ R tel que yA ≥ 0T et yb < 0. correspondent aux 2 éventualités suivantes mutuellement exclusives, en posant A = Ces 2 éventualités a1 · · · an : (F1') b est dans le cône convexe engendré par a1 , . . . , an . (F2') Il existe un hyperplan h passant par 0 de la forme h = {x ∈ Rm | yx = 0} pour un vecteur y de telle sorte que le cône convexe engendré par a1 , . . . , an soit d'un côté, et b strictement de l'autre. 4 3.3 Méthode à 2 phases La démonstration du Th. 2 est en fait une version de la méthode à 2 phases. Donc la résolution du problème auxiliaire Maximiser m X xn+i i=1 Pn Pj=1 aij xj + wi xn+i n sous j=1 aij xj + wi xn+i xn+i ≤ bi , i ∈ I = bi , i ∈ E ≥ 0, i = 1, . . . , m avec wi = 1 si bi ≥ 0, wi = −1 si bi < 0 indique si le système a une solution ou non. De plus, la solution optimale du dual est le vecteur y cherché du Lemme de Farkas. 5