Syst`emes linéaires

publicité
Agrégation interne
UFR MATHÉMATIQUES
Systèmes linéaires
1. Généralités
Soit K un corps commutatif.
1.1. Définition
Soient n et p deux nombres entiers. On appelle système linéaire de p équations (scalaires)
à n inconnues à coefficients dans K un ensemble d’équations de la forme (S) :

a1,1 x1 + · · · + a1,n xn = b1


 a2,1 x1 + · · · + a2,n xn = b2
(S)
..
..
..
.

.
.
= ..

 .
ap,1 x1 + · · · + ap,n xn = bp
où :
• les ai,j , pour 1 ≤ i ≤ p, 1 ≤ j ≤ n, sont des scalaires fixés dans K, appelés les
coefficients du système ;
• les bi , pour 1 ≤ i ≤ p, sont des scalaires fixés dans K ; le p-uplet b = (b1 , . . . , bp ) est
appelé second membre du système ;
• les xi , pour 1 ≤ i ≤ n, sont les inconnues, que l’on cherche dans K ; (x1 , x2 , . . . , xn )
est le n-uplet inconnu ;
1.2. Solutions d’un système linéaire
− Un n-uplet (x1 , x2 , · · · , xn ∈ Rn est une solution de (S) s’il vérifie les p équations du
système ;
− résoudre (S), c’est déterminer l’ensemble S des solutions de (S) ;
− le système (S) est dit compatible s’il admet au moins une solution ; il est dit incompatible
sinon ;
− le système (S) est dit homogène si le second membre b est nul ;
− le système linéaire, noté (S0 ), obtenu lorsque l’on remplace dans (S) le n-uplet b par le
n-uplet (0, · · · , 0) s’appelle le système homogène associé à (S).
1.3. Propriétés
− Un système homogène est toujours compatible puisqu’il admet le n-uplet (0, · · · , 0)
comme solution.
− L’ensemble des solutions d’un système homogène est un sous-espace vectoriel de Rn .
− Si s1 et s2 sont des solutions d’un système linéaire (S), s1 − s2 est une solution du
système homogène associé (S0 ).
− Si s est une solution d’un système linéaire (S), on obtient toutes les solutions de (S) en
ajoutant à s toutes les solutions du système linéaire homogène associé (S0 ). L’ensemble
des solutions de (S) est donc le sous-espace affine de Rn passant par s et de direction
S0 , espace vectoriel des solutions de (S0 ).
Préparation à l’agrégation interne
UFR maths, Université de Rennes I
1.4. Systèmes équivalents
Définition 1 – Deux systèmes linéaires sont équivalents s’ils ont le même ensemble de
solutions.
Pour résoudre un système linéaire (S), on va donc chercher un système (S ′ ) équivalent à
(S) et dont la résolution sera plus simple.
Définition 2 – Le système linéaire (S) est dit échelonné si aij = 0 pour j < i.
2. Différentes interprétations d’un système linéaire
Dans tout ce paragraphe, on considère le système (S) écrit plus haut.
2.1. Interprétation vectorielle
Dans l’espace vectoriel Kp , on considère les vecteurs ci = t(a1,i , a2,i , . . . , ap,i ) pour
1 ≤ i ≤ n et le vecteur b = t(b1 , . . . , bp ).
Résoudre le système (S), c’est donc chercher tous les n-uplets (x1 , . . . , xn ) de Kn tels que
x1 c1 + · · · + xn cn = b.
Proposition 3 – Le système linéaire (S) admet au moins une solution si et seulement si
b ∈ Vect(c1 , . . . , cn ).
Proposition 4 – On suppose que b ∈ Vect(c1 , . . . , cn ). Le système (S) admet une unique
solution si et seulement si la famille (c1 , . . . , cn ) est libre. Si cette famille
est liée, il y a une infinité de solutions.
On déduit de ces propositions que, si n = p et si (c1 , . . . , cn ) est une base de Kn , le système
(S) admet une unique solution.
2.2. Interprétation en terme d’application linéaire
Soit f l’application linéaire de Kn dans Kp dont la matrice relativement aux bases
canoniques de Kn et Kp est
a
1,1
 a2,1
A=
 ..
.
ap,1
a1,2
a2,2
..
.
ap,2
···
···
..
.
a1,n 
a2,n 
.. 

.
· · · ap,n
Résoudre (S), c’est alors trouver tous les antécédents du vecteur b par l’application f .
Proposition 5 – Le système linéaire (S) admet au moins une solution si et seulement si
b ∈ Im f .
Proposition 6 – On suppose que b ∈ Im f . Le système (S) admet une unique solution si
et seulement si f est injective. Si f n’est pas injective, il y a une infinité
de solutions.
On déduit de ces propositions que, si n = p et si f est bijective, le système (S) admet une
unique solution.
2.3. Interprétation matricielle
On note X = t (x1 , . . . , xn ) ∈ Mn,1 (K), B = t(b1 , . . . , bp ) ∈ Mp,1 (K) et A la matrice de
Mp,n (K) précédemment définie.
Résoudre le système (S), c’est trouver toutes les matrices X de Mn,1 (K) vérifiant AX = B.
–2–
SYST ÈMES LIN ÉAIRES
2.4. Interprétation graphique
On peut considèrer chaque équation du système comme l’équation d’un hyperplan affine de
Kn ; l’ensemble des solutions de (S) est alors l’intersection des p hyperplans affines.
2.5. Nombre de solutions
Un système linéaire de p équations à n inconnues dans K admet
− soit une unique solution ;
− soit aucune solution ;
− soit une infinité de solutions.
Plus précisément, on déduit de l’interprétation en terme d’application linéaire la
Proposition 7 – soit r le rang de l’application linéaire f .
− l’ensemble des solutions du système homogène associé à (S) est le
noyau de f : c’est donc un sous-espace vectoriel de dimension n − r ;
− le système (S) est compatible si et seulement si b ∈ Im f . S’il est compatible, l’ensemble des solutions est un sous-espace affine de l’espace
affine Kn , dont la direction est Ker f et dont la dimension est n − r.
Définition 8 – Dire qu’un système linéaire (S) est de Cramer signifie que (S) est un
système de n équations à n inconnues admettant une unique solution, donc que la matrice
du système est inversible.
Soit A une matrice carrée d’ordre n inversible. On cherche à résoudre le système AX = b
où b est un vecteur-colonne donné. Soit B la base canonique de Kn . Notons vi les vecteurscolonnes de la matrice A. On a Dét A = DétB (v1 , . . . , vn ). Remplaçons le vecteur vi par le
vecteur b. On a alors
DétB (v1 , . . . , vi−1 , b, vi+1 , . . . , vn ) = DétB (v1 , . . . , vi−1 , x1 v1 + · · · + xn vn , vi+1 , . . . , vn )
 
x1
.
car b = AX = A  .. 
xn
= DétB (v1 , . . . , vi−1 , xi vi , vi+1 , . . . , xn )
car un déterminant est une forme alternée
= xi DétB (v1 , . . . , vn ) = xi Dét A
On a donc la
Proposition 9 – soit AX = b un système de Cramer, alors les coordonnées du vecteur x
sont
DétB (v1 , . . . , vi−1 , b, vi+1 , . . . , vn )
xi =
DétB (v1 , . . . , vn )
où les vj sont les vecteurs-colonnes de la matrice A.
3. Méthode du pivot de Gauss
3.1. Transformations élémentaires
On note Li l’équation de la ième ligne du système (i.e. Li : ai,1 x1 + ai,2 x2 + · · · + ai,n xn =
bi ).
–3–
Préparation à l’agrégation interne
UFR maths, Université de Rennes I
− Transformation Li ↔ Lj : cela signifie que l’on permute les équations Li et Lj . Cette
transformation permet d’obtenir un système (T ) équivalent au système (S).
− Transformation Li ← αLi (avec α réel non nul) : le système (T ) obtenu en
remplaçant dans le système (S) l’équation Li par l’équation αLi (avec α 6= 0) est
équivalent au système (S).
− Transformation Li ← Li + αLj (avec α réel non nul et i 6= j) : le système (T )
obtenu en remplaçant dans le système (S) l’équation Li par Li + αLj (avec α 6= 0 et
i 6= j) est équivalent au système (S).
3.2. Méthode de Gauss
On considère le système linéaire (S) suivant de p équations à n inconnues x1 , x2 , . . . , xn :

a11 x1 + a12 x2 + · · · + a1n xn = b1 (L1 )




 a21 x1 + a22 x2 + · · · + a2n xn = b2 (L2 )
..


.



ap1 x1 + ap2 x2 + · · · + apn xn = bp (Lp )
ETAPE 1
Si tous les coefficients aij sont nuls, on ne fait rien. . . Sinon on considère le premier indice
j ≥ 1 dans la première ligne tel que xj apparaisse avec un coefficient non nul.
a) Si a1j 6= 0, ce scalaire est le pivot de la première équation et l’inconnue xj est dite
principale.
On effectue alors les opérations élémentaires L′i = Li − λi L1 , pour i = 2, . . . , p, le
coefficient λi étant choisi de telle sorte que l’inconnue principale xj ne figure plus dans
L′i .
b) si a1j = 0, on permute deux équations de telle sorte que, dans le nouveau système, le
coefficient a1j ne soit pas nul et on continue comme en a).
On obtient ainsi un système (S ′ ) équivalent au système (S) et de la forme

a1j xj + a1j+1 xj+1 + · · · + a1 n xn = b1 (L1 = L′1 )





a′2 j+1 xj+1 + · · · + a′2 n xn = b′2 (L′2 )
..


.



′
′
ap j+1 xj+1 + · · · + ap n xn = b′p (L′p )
ETAPE 2
Si tous les coefficients aij pour i ≥ 2 et j ≥ 2 sont nuls, on arrête.
Sinon, on considère le premier indice k > j tel que xk apparaisse avec un coefficient non
nul dans les lignes L′2 , . . . , L′p . L’inconnue xk sera la deuxième inconnue principale.
a) Si a′2k 6= 0, ce scalaire est le deuxième pivot et on procède comme à l’étape 1 pour
éliminer la variable xk .
b) Si a′2k = 0, on permute deux des équations L′2 , . . . , L′p pour amener en deuxième position une équation dans laquelle l’inconnue xk a un coefficient non nul. On continue
alors comme à l’étape 2 a).
ETAPE 3
–4–
SYST ÈMES LIN ÉAIRES
On continue ainsi jusqu’à épuisement des équations ou des inconnues.
On obtient ainsi un système équivalent (A) au système (S) mais que l’on dit échelonné. Les
inconnues non principales (s’il en existe) sont dites variables libres. Les équations comportant
une inconnue principale (s’il en existe) sont dites équations principales.
Si le système (A) comporte une équation du type
0x1 + 0x2 + · · · + 0xn = b avec b 6= 0
le système est incompatible et la résolution est terminée.
Sinon, la résolution du système (A) est simple : en partant de la dernière équation, on
peut exprimer toutes les inconnues principales en fonction des variables libres et des seconds
membres.
3.3. Exemples
Exemple de 4 équations

x1 +


3x1 +


5x1 +
⇐⇒

x1


+
−


⇐⇒

x1




⇐⇒
+
x2
x2
x2
−x2
x2
−x2
à 5 inconnues
x2
2x2
x2
4x2
+
+
+
−
x3
x3
2x3
3x3
+
+
+
+
x4
x4
2x4
3x4
+
−
+
−
+
−
+
−
x3
2x3
2x3
8x3
+
−
+
−
x4
2x4
2x4
2x4
+
−
+
−
x5
6x5
6x5
6x5
+ x3
−2 x3
+ x4
− 2x4
x5
3x5
6x5
x5
+ x5
− 6x5
0
+
x2
−x2


+ x3
− 2x3
x3
+
−
x4
2x4
+
−
L1
L2
L3
L4
=
7
= −23
= 23
= −23
=
=
=
=
x3

x1


= 7
= −2
= 23
= 12
x5
6x5
0
L1 ← L1
L2 ← L2 − 3L1
L3 ← L3
L4 ← L4 − 5L1
7
−23
0
0
=
=
=
=
L1
L2
L3 ← L3 + L2
6L4 ← −L4 + L2
7
−23
0
0
L1
L2
L3 ← L4
L4 ← L3
Les inconnues principales sont x1 , x2 et x3 ; les variables libres sont x4 et x5 . L’ensemble
des solutions de ce système est donc
{(−16 + t + 5u, 23 − 2t − 6u, 0, t, u) | (t, u) ∈ R2 }.
Exemple de 4 équations à 3

x1


x1

 2x1
2x1
⇐⇒

x1




⇐⇒

x1




+
−
−
−
+
inconnues
+
+
+
+
3x2
2x2
5x2
3x2
3x2
x2
x2
3x2
+
+
+
−
+ x3
+ 4x3
− x3
− 5x3
3x2
x2
−5x2
−3x2
+
−
−
−
x3
5x3
x3
3x3
=
=
=
=
=
=
=
=
5
−12
−8
4
x3
2x3
x3
5x3
–5–
=
=
=
=
5
−7
2
14
5
6
−8
4
L1
L2
L3
L4
L1 ← L1
L2 ← L2 − L1
L3 ← L3 − 2L1
L4 ← L4 − 2L1
L1
L2 ← −L2 /2
L3 ← L3
L4 ← L4
Préparation à l’agrégation interne
⇐⇒

x1


+
3x2
x2
UFR maths, Université de Rennes I
+
−


x3
2x3
−11x3
−11x3
= 5
= 6
= 22
= 22
L1
L2
L3 ← L3 + 5L2
L4 ← L4 + 3L2
Ce dernier système admet une solution unique dans R3 qui est le vecteur t(1, 2, −2).
Exemple de 4 équations à 4 inconnues

x

 1
x1

 x1
2x1
+
+
+
+
x2
x2
3x2
3x2
+
+
+
+
x3
2x3
x3
x3
+
+
+
+
x4
2x4
x4
x4
=
=
=
=
1
1
3
4
L1
L2
L3
L4
Les systèmes suivants sont équivalents entre eux (i.e. qu’ils ont le même ensemble de
solutions) :

x1




+

x1


+

x1


+

x1


+






x2
+
x3
x3
+
+
x4
x4
2x2
x2
x2
2x2
−
+
x3
x3
−
+
x4
x4
x3
x2 − x3
x2 + x3
x2
x3
x2 − x3
x2 + x3
x2
x3
− x3
+ x4
− x4
+ x4
+ x4
− x4
+ x4
+ x4
− x4
=
=
=
=
=
=
=
=
=
=
=
=
=
=
=
=
1
0
2
2
1
2
0
2
1
1
0
2
1
1
0
1
L1
L2 ← L2 − L1
L3 ← L3 − L1
L4 ← L4 − 2L1
L1
L2 ↔ L3
L2 ↔ L3
L4
L1
L2 ← L2 /2
L1
L2
L3
L4 ← L4 − L2
Théoriquement, il y aurait fallu rajouter un système équivalent de plus en éliminant x3
dans la dernière équation. Mais les deux dernières équations montrent que l’ensemble des
solutions est vide.
–6–
APPLICATIONS LINÉAIRES
1. Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1. Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2. Solutions d’un système linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3. Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4. Systèmes équivalents . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2. Différentes interprétations d’un système linéaire . . . . . . . . . . . . . . . . . . . . . . .
2.1. Interprétation vectorielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2. Interprétation en terme d’application linéaire . . . . . . . . . . . . . . . . . . . . .
2.3. Interprétation matricielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4. Interprétation graphique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5. Nombre de solutions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3. Méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1. Transformations élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2. Méthode de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3. Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
–i–
1
1
1
1
1
2
2
2
2
2
3
3
3
4
5
Téléchargement