1 Vocabulaire 2 Opérations élémentaires - lycée Sainte

publicité
Lycée Sainte Geneviève
BCPST 1
Chapitre 8 : Systèmes linéaires et matrices.
Première partie : Systèmes linéaires
1
Vocabulaire
Dans tout le chapitre K = R ou C.
Définition 1. Un système linéaire

a1,1 x1



 a2,1 x1
..

.



an,1 x1
est un système d’équations de la forme :
+ a1,2 x2
+ a2,2 x2
..
.
+ . . . + a1,p xp
+ . . . + a2,p xp
..
.
= b1
= b2
..
.
+ an,2 x2 + . . . + an,p xp = bn
• Les nombres a1,1 , . . . , an,p appartenant à K sont appelés les coefficients du système.
• Les x1 , . . . , xp sont les inconnues. Elles appartiennent aussi à K.
• On dit que le système est homogène lorsque les seconds membres b1 , . . . , bn sont tous nuls.
• Une solution du système est un p-uplet (x1 , . . . , xp ) vérifiant toutes les équations du système.
• Résoudre le système, c’est déterminer toutes ses solutions.
Pour tout i ∈ J1, nK, la i-ième ligne est notée Li .
Remarques
1. Pour p = 2, chacune des lignes peut-être vue comme l’équation d’une droite dans R2 . Résoudre le
système s’interprète alors comme étudier l’intersection de n droites dans le plan.
2. Pour p = 3, chacune des lignes peut-être vue comme l’équation d’un plan dans R3 . Résoudre le
système s’interprète alors comme étudier l’intersection de n plans dans l’espace.
Définition 2. Deux systèmes sont dits équivalents s’ils ont le même ensemble de solutions.
2
Opérations élémentaires
Définition 3. On définit trois types d’opération sur un système linéaire, qu’on appellera opérations
élémentaires :
• Échange des lignes Li et Lj . On note cette opération : Li ↔ Lj .
• Multiplication de la ligne Li par un nombre α non nul. On note : Li ← αLi .
• Ajout de la ligne Lj à la ligne Li . On note : Li ← Li + Lj
1
Théorème 1. Les opérations élémentaires transforment un système linéaire en un système équivalent.

Attention Les opérations élémentaires doivent être faites les unes après les autres et pas simultanément sous peine de ne plus obtenir un système équivalent.
3
La méthode du pivot de Gauss
Remarque Pour les systèmes linéaires on préfèrera la méthode suivante appelée « méthode du pivot de
Gauss » plutôt que des substitutions (qui restent utiles pour des systèmes non linéaires).
Définition 4. On dit qu’un système linéaire est échelonné si le nombre de coefficients nuls qui commencent
chaque ligne augmente strictement d’une ligne à la suivante.
L’idée principale de la méthode du pivot de Gauss est de transformer le système linéaire en un système
échelonné équivalent avec des opérations élémentaires, ce dernier système étant plus simple à résoudre.
On peut présenter la méthode sous forme d’un algorithme. On considère un système de n équations (L1 , . . . , Ln )
à p inconnues (x1 , . . . , xp ) :
Pour k allant de 1 à min(n, p) Faire
Si il existe une ligne i ≥ k où le coefficient de xk est non nul Alors
Lk ↔ Li
a ← coefficient de xk sur la ligne Lk (a est donc non nul)
Pour j variant de k + 1 à n Faire
b ← coefficient de xk sur la ligne Lj
Lj ← Lj − ab Lk
Fin Pour
Fin Si
Fin Pour
Définition 5. Dans l’algorithme précédent le coefficient non nul a choisi devant la k-ième variable est appelé
pivot.
Remarque Afin de faciliter les calculs on choisira un pivot entier naturel si possible et de plus petite
valeur absolue. Par exemple 1 et −1 sont d’excellents pivots.
2
4
Description des solutions
Définition 6. On admet que le nombre de pivots nécessaires pour échelonner un système linéaire est
indépendant de la façon de choisir ces pivots.
On appelle rang du système ce nombre de pivots.
Remarque Avec n le nombre de lignes et p le nombre d’inconnues. Le rang du système est toujours
inférieur ou égal au min(n, p).
Une fois notre système échelonné avec la méthode du pivot de Gauss on connaît son rang qu’on note r. On
a alors plusieurs cas :
1. Si r < n et r < p. Alors les n − r dernières équations du système échelonné ne font plus intervenir
les inconnues et sont de la forme 0 = bi . On les appelle conditions de compatibilité. Le système
admet des solutions si et seulement si ces n − r conditions sont satisfaites. Dans ce cas, on dit que le
système est compatible.
Si le système est compatible, on utilise les r premières équations qu’on « remonte » par substitutions
pour exprimer x1 , . . . , xr en fonction de xr+1 , . . . , xp .
Le système admet alors une infinité de solutions paramétrées par les variables xr+1 , . . . , xp .
2. Si n < p et r = n. Le système est alors toujours compatible. Il admet une infinité de solutions qu’on
obtient en remontant le système échelonné par substitutions et qui sont paramétrées par xn+1 , . . . , xp .
3. Si p < n et r = p. Les n−p dernières lignes du système échelonné sont des conditions de compatibilité.
Si le système est compatible, on détermine x1 , . . . , xp en remontant les p premières lignes par substitution.
Le système admet alors une unique solution.
4. Si r = n = p. Dans ce cas le système est dit système de Cramer. Il est toujours compatible et admet
une unique solution obtenue par remontée.
Proposition 1.
Un système linéaire admet 0, 1 ou une infinité de solutions.
Remarque Dans le cas où le système linéaire admet des solutions on remarquera que l’ensemble de ces
solutions peut toujours être décrit comme une solution particulière du système complet qu’on additionne
avec l’ensemble des solutions du système homogène associé.
3
Deuxième partie : Matrices
5
Définition et opérations
Définition 7.
• On appelle matrice de taille n × p 
à coefficients dansK toute famille de np éléments de K
a11 a12 . . . a1p
 a21 a22 . . . a2p 


présentée sous forme d’un tableau A =  .
..
..  , noté aussi (aij ) 1 ≤ i ≤ n , où aij ∈ K
 ..
1≤ j ≤p
.
. 
an1 an2 . . . anp
•
•
•
•
pour tout (i, j) ∈ J1, nK × J1, pK.
Pour tout (i, j) ∈J1, nK
 × J1, pK, le réel ou complexe aij est appelé coefficient de A de position
a1j
 
(i, j), la matrice  ...  est appelée la j-ième colonne de A et la matrice (ai1 . . . aip ) est appelée sa
anj
i-ième ligne.
L’ensemble des matrices de taille n × p à coefficients dans K est noté Mnp (K).
Pour n = p on parle de matrices carrées de tailles n et on note plutôt Mn (K) au lieu de Mnn (K).
La famille (a11 , a22 , . . . , ann ) est alors appelée la diagonale de A.
Pour p = 1, on parle de matrices colonnes de taille n et pour n = 1 de matrices lignes de taille p.
La matrice de taille n × p dont tous les coefficients sont nuls est appelée la matrice nulle et notée 0
(ou encore 0np s’il y a ambiguïté).
Remarque Dans tous les énoncés, les coefficients d’une matrice notée A (en majuscule) seront notés aij
(en minuscule).
Définition 8. Pour toutes matrices (A, B) ∈ Mnp (K)2 on définit la somme :


a11 + b11 . . . a1p + b1p


..
..
A+B =
 ∈ Mnp (K)
.
.
an1 + bn1 . . . ann + bnn
Cette addition est une loi associative, commutative. Son élément neutre est la matrice nulle. Toute matrice
A = (aij ) admet une opposée −A = (−aij ).
Définition 9. Pour toute matrice A ∈ Mnp (K) et tout λ ∈ K on définit le produit de A par le scalaire
λ par :


λa11 . . . λa1p

..  ∈ M (K)
λA =  ...
np
. 
λan1 . . . λann
Cette multiplication est dite externe. Elle est associative et commutative. Son élément neutre est le scalaire
1K .
4
Définition 10.
Soient A ∈ Mpq (K) et B ∈ Mqr (K). Le nombre de colonnes de A est alors égal au nombre de lignes de B.
Dans ce cas on peut définir le produit des deux matrices A × B comme étant la matrice appartenant à
Mpr (K) dont les coefficients sont :
∀i ∈ J1, pK, ∀j ∈ J1, rK, (AB)ij =
q
X
aik bkj
k=1

Attention Contrairement à l’addition et à la multiplication par un scalaire, le produit de 2 matrices
n’est pas toujours défini.
Proposition 2.
Propriétés du produit matriciel
• Associativité :
∀A ∈ Mnm (K), ∀B ∈ Mmq (K), ∀C ∈ Mqr (K), (AB)C = A(BC)
• Bilinéarité :
∀A ∈ Mnm (K), ∀(B, C) ∈ Mmq (K)2 , ∀(λ, µ) ∈ K2 , A(λB + µC) = λAB + µAC
∀(A, B) ∈ Mnm (K)2 , ∀C ∈ Mmq (K), ∀(λ, µ) ∈ K2 , (λA + µB)C = λAC + µBC
• Élément
 neutre : onappelle matrice identité de taille n la matrice carrée de Mn (K) définie par
1
(0)


.
..
In = 
. On a
(0)
1
∀A ∈ Mnm (K), In A = AIm = A

Attention
1. Le produit de matrices n’est pas commutatif i.e. :
• quand le produit AB existe, le produit BA peut ne pas exister,
• même si les deux produits AB et BA existent, ils ne sont pas égaux a priori. Ils peuvent même ne
pas être de même taille !
• Si par hasard AB et BA existent et sont égaux, on dit alors que les matrices A et B commutent.
2. Le produit de matrices n’est pas intègre i.e. on peut très bien avoir AB = 0 sans avoir A = 0 ni
B = 0. Cela signifie, par exemple, que AC = BC, n’implique pas du tout A = B même si C n’est pas
nulle.
5
Proposition 3. Soient A ∈ Mnp (K) et i ∈ J1, nK et j ∈ J1, pK. Si on note Cj la matrice colonne de Mp1 (K)
avec que des coefficients nuls sauf celui de la ligne j qui vaut 1 et Li la matrice ligne de M1n (K) avec que
des coefficients nuls
sauf celui de la colonne i qui vaut 1, alors on a :
 
0
 .. 
.
 

est la j-ième colonne de A.
• ACj = A 
1
 .. 
.
0
• Li A = 0 . . . 1 . . . 0 A
est la i-ième ligne de A.
6
Matrices carrées
Remarque Le produit de deux matrices carrées de Mn (K) est toujours défini et le résultat est une matrice
carrée de Mn (K).
Définition 11. Soit A ∈ Mn (K). On définit les puissances de A par :
• A0 = In
• Pour tout k ∈ N, Ak+1 = A × Ak .
C’est-à-dire que Ak = A × A × . . . × A, k fois.

1 ...
 ..
Exemple Soit J =  .
1 ...
pour tout k ∈ N∗ , J k = nk−1 J.


1
..  ∈ M (K) la matrice carrée ne contenant que des 1. On a J 2 = nJ, puis,
n
.
1
Attention
1. On peut très bien avoir An = 0 pour un certain entier n sans que A soit nulle. On dit alors que A est
nilpotente.
2. Ne pas oublier A0 = In quand on effectue des factorisations : AB + A = A(B + In ).
3. (AB)k n’est pas égale à Ak B k sauf si A et B commutent.
Théorème 2. Formules du binôme de Newton et de Bernoulli
Soient (A, B) ∈ Mn (K)2 . On suppose que A et B commutent i.e. AB = BA. On a
k
∀k ∈ N, (A + B) =
k X
k
i=0
i
i
AB
k−i
k
k
et A − B = (A − B)
k−1
X
Ai B k−i−1
i=0

Attention Sans l’hypothèse de commutation, on ne peut pas écrire par exemple (A + B)2 =
mais seulement (A+B)2 = A2 +B 2 +AB+BA. Idem pour (A+B)(A−B) = A2 −AB+BA−B 2
si on ne sait pas que AB = BA.
A2 +B 2 +2AB
6
Application La formule du binôme de Newton est très pratique pour calculer les puissances d’une matrice
A notamment si on arrive à écrire A = In + N où N est une matrice nilpotente. (In commute avec toutes
les matrices !)
Définition 12. Une matrice carrée est dite diagonale si tous ses coefficients non diagonaux sont nuls.
Exemple
scalaires.
Les matrices λIn pour tout λ ∈ K sont diagonales. Ces matrices sont même dites matrices
Proposition 4. Propriétés des matrices diagonales
La somme et le produit de deux matrices diagonales donne une matrice diagonale. La multiplication d’une
matrice diagonale par un scalaire donne une matrice diagonale.
On dit que l’ensemble des matrices diagonales est stable par somme, produit et multiplication par un scalaire.
Définition 13. Une matrice carrée est dite triangulaire supérieure (resp. inférieure) si ses coefficients
situés strictement en-dessous (resp. strictement au-dessus) de la diagonale sont nuls.




a11 a12 . . . a1n
a11

 a21 a22 (0)

a22 . . . a2n 




Triangulaire supérieure : 
Triangulaire
inférieure
:
 ..

.. 
..
..
..




.
.
(0)
.
.
.
ann
an1 an2 . . . ann
Remarques
1. On dit qu’une matrice carrée est triangulaire (inférieure ou supérieure) stricte si les coefficients
de sa diagonale sont également nuls.
2. Les matrices diagonales sont des matrices triangulaires à la fois supérieures et inférieures.
Proposition 5. Propriétés des matrices triangulaires
L’ensemble des matrices triangulaires supérieures est stable par somme, produit et multiplication par un
scalaire.
De même pour les matrices triangulaires inférieures.
Définition 14. (HP)
Soit A ∈ Mn (K) une matrice carrée. On appelle trace de A notée Tr(A) la somme des coefficients diagonaux
de A. Ce réel ou complexe vérifie les propriétés suivantes :
• ∀(A, B) ∈ Mn (K)2 , ∀(λ, µ) ∈ K2 , Tr(λA + µB) = λTr(A) + µTr(B).
• ∀(A, B) ∈ Mn (K)2 , Tr(AB) = Tr(BA).
7
7
Matrices carrées inversibles
7.1
Définition, propriétés
Définition 15. Une matrice carrée A ∈ Mn (K) est dite inversible s’il existe une matrice B ∈ Mn (K)
telle que AB = BA = In .
Si elle existe, une telle matrice B est unique et s’appelle l’inverse de A, notée A−1 .
L’ensemble des matrices inversibles de Mn (K) s’appelle le groupe linéaire de degré n sur K et est noté
GLn (K).
Remarque On démontrera plus tard qu’il suffit de trouver une matrice B telle que AB = In ou BA = In
pour que A soit inversible d’inverse B.

1
Attention Il n’existe pas de quotient de matrices. Donc on n’écrira jamais A−1 sous la forme
:
A
ça n’aurait aucun sens !
Proposition 6.
Propriétés des matrices inversibles
Soient (A, B) ∈ GLn (K)2 (donc inversibles).
• A−1 est inversible d’inverse A : (A−1 )−1 = A.
• AB est inversible et (AB)−1 = B −1 A−1 : attention à l’inversion des facteurs !
• Pour tout k ∈ Z, Ak est inversible et (Ak )−1 = (A−1 )k .
1
• Pour tout λ ∈ K∗ , λA est inversible et (λA)−1 = A−1 .
λ
7.2
7.2.1
Méthodes d’inversion
Préliminaire : écriture matricielle d’un système linéaire
Définition 16. On appelle matrice

a1,1 x1



 a2,1 x1
..

.



an,1 x1
la matrice de ses coefficients :
associée au système linéaire :
+ a1,2 x2
+ a2,2 x2
..
.
+ . . . + a1,p xp
+ . . . + a2,p xp
..
.
= y1
= y2
..
.
+ an,2 x2 + . . . + an,p xp = yn

a11
 a21

A= .
 ..
a12
a22
..
.

. . . a1p
. . . a2p 

..  ∈ Mnp (K)
. 
an1 an2 . . . anp
8
Remarque
La matrice associée à un système ne dépend pas du second membre de ce système.
Proposition 7. Écriture matricielle
 d’un système  
a11 a12 . . . a1p
x1
 a21 a22 . . . a2p 
 x2 


 
Si on pose A =  .
..
..  ∈ Mnp (K), X =  ..  ∈ Mp1 (K)
.
 .
.
.
. 
an1 an2 . . . anp
xp
le système :

a1,1 x1 + a1,2 x2 + . . . + a1,p xp =



 a2,1 x1 + a2,2 x2 + . . . + a2,p xp =
..
..
..

.
.
.



an,1 x1 + an,2 x2 + . . . + an,p xp =

y1
 y2 
 
et Y =  .  ∈ Mn1 (K), alors
 .. 

yn
y1
y2
..
.
yn
s’écrit matriciellement : AX = Y
Définition 17. Soit A ∈ Mnp (K). On appelle rang de A, noté rg(A), le rang de n’importe quel système
linéaire qui lui est associé. Ce rang est donc un entier appartenant à J0, min(n, p)K.
Remarques
1. Pour calculer le rang d’une matrice, on applique la méthode du pivot de Gauss directement à la
matrice sans passer par un système associé. Une fois la matrice échelonnée, on compte le nombre de
pivots, ce qui donne le rang.
2. On verra un peu plus tard une autre définition plus pratique du rang d’une matrice.
7.2.2
Inversion par résolution d’un système
Théorème 3. Soit A ∈ Mn (K). La matrice A est inversible si et seulement si, pour tout second membre
Y ∈ Mn1 (K), le système linéaire AX = Y d’inconnue X ∈ Mn1 (K) possède une unique solution.
Si ce système possède une unique solution, on peut alors exprimer X en fonction de Y sous la forme X = BY
avec B ∈ Mn (K). Alors B = A−1 .
Remarque
On cherche à résoudre ce système en utilisant, bien sûr, la méthode du pivot de Gauss.
Proposition 8. Caractérisation de l’inversibilité par le rang
Soit A ∈ Mn (K).
A est inversible si et seulement si rg(A) = n
Proposition 9. Systèmes de Cramer
Soient A ∈ Mn (K) et (X, Y ) ∈ Mn1 (K)2 .
• Le système AX = Y est de Cramer si et seulement si A est inversible.
• Un système de Cramer admet une unique solution : X = A−1 Y .
9
7.2.3
Inversion par la méthode de Gauss-Jordan
On peut définir les mêmes opérations élémentaires sur les matrices que celles qu’on a déjà définies sur les
systèmes linéaires.
Proposition 10. Opérations élémentaires matricielles
Soit A ∈ Mnp (K).

1
 ..

.


1


0
...
1


1


..
..
..
• Multiplier A, à gauche, par la matrice 
.
.
.


1


1
.
.
.
0


1


..

.











 ∈ Mn (K)









1
(les 0 sur la diagonale sont sur les lignes i et j) équivaut à effectuer l’opération élémentaire Li ↔ Lj
sur A.


1

 ..


.




1


 ∈ Mn (K)
λ
• Multiplier A, à gauche, par la matrice 




1




..

. 
1
(le λ sur la diagonale est sur la ligne i) 
équivaut à effectuer l’opération
 élémentaire Li ← λLi (λ 6= 0).
1

 ..


.




1




.. . .
• Multiplier A, à gauche, par la matrice 
 ∈ Mn (K)
.
.




1 ... 1




..

. 
1
(le coefficient 1 hors de la diagonale est en position (i, j)) équivaut à effectuer l’opération élémentaire
Li ← Li + Lj .
• On obtient les opérations élémentaires sur les colonnes en multipliant A, à droite, par des matrices
de la même forme mais prises dans Mp (K).
• Ces matrices, dites élémentaires, sont toutes inversibles.
10
Proposition 11. Méthode de Gauss-Jordan
Soit A ∈ Mn (K).
On part de A et on utilise la méthode du pivot de Gauss en ne se servant d’opérations élémentaires
que sur les lignes (ou que sur les colonnes) pour essayer d’obtenir la matrice In .
Si on arrive à obtenir In , alors A est inversible. De plus en effectuant exactement les mêmes opérations
élémentaires en partant cette fois de la matrice In , on obtient A−1 .
7.2.4
Inversion par obtention d’un polynôme annulateur
Proposition 12. Soit A ∈ Mn (K).
S’il existe k ∈ N∗ , et (λk , . . . , λ1 , λ0 ) ∈ Kk+1 tels que λ0 6= 0 et
λk Ak + λk−1 Ak−1 + . . . + λ1 A + λ0 In = 0
Alors A est inversible et son inverse est :
A−1 = −
7.3
1
(λk Ak−1 + λk−1 Ak−2 + . . . + λ1 In )
λ0
Inversion de certaines matrices particulières
Proposition 13.
Inversibilité des matrices diagonales et triangulaires
• Toute matrice diagonale ou triangulaire est inversible si et seulement si aucun de ses coefficients
diagonaux est nul.
• Si une matrice A diagonale ou triangulaire est inversible alors son inverse est diagonale ou triangulaire
de même nature et ses coefficients diagonaux sont les inverses des coefficients diagonaux de A.
Étudions un peu plus précisément les matrices carrées de taille 2.
a b
Définition 18. Soit A =
∈ M2 (K). On appelle déterminant de A, noté det(A) ou |A|, défini
c d
par :
a b = ad − bc
det(A) = c d Remarques
a
b
1. On retrouve le déterminant géométrique des deux vecteurs du plan
et
c
d
2. On peut définir un déterminant pour des matrices carrées plus grandes mais ce n’est pas à notre
programme.
11
Proposition
14.
Déterminant et inversibilité
a b
Soit A =
∈ M2 (K). A est inversible si et seulement si det(A) 6= 0 et dans ce cas :
c d
A
−1
1
=
det(A)
d −b
−c a
Systèmes
2×2
ax + by = α
Un système de la forme
est de Cramer et donc possède une unique solution si et seulement
cx + dy = β
si ad − bc 6= 0 et dans ce cas la solution est donnée par les formules dites « de Cramer » :
a α α b c β β d et y = x= a b a b c d c d Proposition 15.
8
Transposition
Définition 19. Soit A = (aij )
1≤i≤n
1≤ j ≤p
∈ Mnp (K). On appelle transposée de A la matrice de Mpn (K),
notée t A, dont le coefficient de position (i, j) est égal à aji . Les lignes de t A sont les colonnes de A et
inversement.
Remarque
diagonale.
Pour une matrice carrée, la transposition est une symétrie des coefficients par rapport à la
Proposition 16.
•
•
•
•
Propriétés de la transposition
∀A ∈ Mnp (K), t (t A) = A
∀(A, B) ∈ Mnp (K)2 , ∀λ ∈ K, t (λA + B) = λt A + t B
∀A ∈ Mnp (K), ∀B ∈ Mpq (K), t (AB) = t B t A
Attention à l’inversion des facteurs.
A ∈ Mn (K) est inversible si et seulement si t A l’est et dans ce cas (t A)−1 = t (A−1 ).
Proposition 17.
Pour toute A ∈ Mnp (K), rg(A) = rg(t A).
Remarque Cela justifie que dans la méthode du pivot on peut travailler indifféremment sur les lignes ou
les colonnes de la matrice.
12
Définition 20. On dit qu’une matrice carrée A ∈ Mn (K) est :
• symétrique si t A = A
• antisymétrique si t A = −A.
On note Sn (K) l’ensemble des matrices symétriques de taille n et An (K) l’ensemble des matrices antisymétriques.
Remarque
• Pour une matrice symétrique, les coefficients de la diagonale sont quelconques et les autres sont
symétriques par rapport à la diagonale.
• Pour une matrice antisymétrique, les coefficients diagonaux sont nuls et deux coefficients en positions
symétriques par rapport à la diagonale sont opposés.
13
Téléchargement