162. Systèmes d`équations linéaires…

publicité
162. Systèmes d’équations linéaires…
2 Opérations élémentaires et algorithme de Gauss
…opérations élémentaires, aspects algorithmiques et conséquences théoriques.
Le but de cette section est d’obtenir un algorithme de résolution exacte
efficace
en pratique (l’intérêt de la règle de Cramer étant surtout théorique).
Dans toute cette leçon, K désigne un corps, dont les éléments sont appelés
scalaires, et m, n ∈ N∗ . On note Mm,n (K) l’ensemble des matrices à m lignes Définition 6. A est une matrice échelonnée quand min{j | a ̸= 0} croît
ij
et n colonnes à coefficients dans K, et Mn (K) = Mm,n (K).
strictement en fonction de i. On dit alors que Ax = b est un système échelonné.
1
Premières considérations théoriques
Soient A = (aij ) ∈ Mm,n (K) et b = (bi ) ∈
x ∈ K n vérifiant Ax = b, ce qui s’écrit aussi
K m.
Proposition 7. Un système échelonné de taille m × n peut être résolu en
O(mn)
opérations sur des scalaires.
On cherche à trouver
Définition 8. Soit λ ∈ K ∗ . Une dilatation est une matrice de la forme
Diag(1, . . . , 1, λ, 1 . . . , 1). Une transvection est une matrice de la forme
Im + λEij . Une transposition (dans ce contexte) est une matrice de permutation associée à une transposition de Sm . Toutes ces matrices sont appelées
matrices élémentaires.
a11 x1 + · · · + a1n xn = b1
..
.
am1 x1 + · · · + amn xn = bm
Proposition 9. Les matrices élémentaires sont dans GLm (K).
Définition 1. Un système d’équations de cette forme est appelé système Définition 10. On appelle opération élémentaire sur les lignes la multilinéaire. On dit que le système est homogène si b = 0.
plication d’une matrice A où des deux côtés d’une égalité Ax = b par une
Proposition 2. L’ensemble des solutions du système linéaire homogène dilatation, une transvection ou une transposition, à gauche. Ce qui s’interAx = 0 est l’espace vectoriel Ker(A), qui contient toujours 0. L’ensemble prète respectivement comme multiplier une ligne par un scalaire, ajouter un
des solutions du système linéaire inhomogène Ax = b est soit vide, soit un multiple d’une ligne à une autre, ou échanger deux lignes.
espace affine dirigé par Ker(A). Il est non vide si et seulement si b ∈ Im(A). Remarque 11. On définit de même les opérations élémentaires sur les coThéorème 3 (Règle de Cramer). Si m = n et det A ̸= 0, la solution est lonnes par multiplication à droite.
unique et donnée par
Proposition 12. L’ensemble des solutions d’un système linéaire est invadet(c1 , . . . , cj−1 , b, cj+1 , . . . cn )
riant par opérations élémentaires.
∀j ∈ {1, . . . , n}, xj =
det A
Algorithme 13 (Pivot de Gauss). En appliquant successivement des opéoù les (cj ) sont les colonnes de A.
rations élémentaires à un système linéaire, on peut se ramener à un système
2
Corollaire 4. Si m = n, det A ̸= 0 ⇔ A ∈ GLn (K), et dans ce cas, on a échelonné équivalent, en O(m n) opérations sur des scalaires.
A−1 = (det A)−1 Com(A)T .
Corollaire 14. Toute matrice s’écrit comme le produit d’une matrice carrée
Remarque 5. On peut traiter le cas d’une matrice rectangulaire en regar- inversible, elle-même produit de matrices élémentaires, avec une matrice
dant les mineurs de A.
échelonnée.
1
4 Méthodes itératives de résolution
Application 15. L’algorithme de Gauss permet également de calculer le
rang d’une matrice, le déterminant d’une matrice carrée, et son inverse si
elle existe.
On cherche maintenant à calculer une solution approchée rapidement. On
suppose ici A ∈ GLn (R).
Proposition 16. Les dilatations et les transvections engendrent GLn (K).
Définition 24. Une méthode itérative construit à partir de A, b, et de
Proposition 17 (Opérations élémentaires par blocs). Pour A ∈ GLp (K), x0 ∈ Rn quelconque, une suite (xk ) ∈ (Rn )N . Elle est convergente si pour
B ∈ Mp,q (K), C ∈ Mq,p (K), D ∈ Mq (K),
tous b et x0 , xk −→ A−1 b quand k → +∞.
[
] [
] [
]
Ip
0
A B
A
B
×
=
.
−1
4.1 Méthodes de Jacobi et de Gauss-Seidel
−CA
Iq
C D
0 D − CA−1 B
D − CA−1 B est appelé complément de Schur. On a une identité analogue Algorithme 25. On choisit M ∈ GLn (R) et N ∈ Mn (R) telles que A =
M −N , puis on construit par récurrence xk+1 (k ∈ N) comme unique solution
pour les opérations sur les colonnes.
de M xk+1 = N xk + b.
[
]
A B
Corollaire 18. det
= det(A) det(D − CA−1 B).
Théorème 26. Cette méthode converge si et seulement si le rayon spectral
C D
de M −1 N est strictement inférieur à 1.
3
Factorisations de matrices
Algorithme 27 (Méthode de Jacobi). On prend M = Diag(a11 , . . . , ann ),
N = M − A.
Théorème 19 (Factorisation LU). Si A ∈ GLn (K), alors il existe L triangulaire inférieure avec des 1 sur la diagonale et U triangulaire supérieure Algorithme 28 (Méthode de Gauss–Seidel). On prend M triangulaire intelles que A = LU si et seulement si les mineurs principaux de A sont non férieure et N triangulaire supérieure stricte.
nuls. Dans ce cas, L et U sont uniques.
Remarque 29. Ces choix pour M permettent de résoudre rapidement le
Théorème 20 (Factorisation de Cholesky). Si A ∈ Mn (R) est symétrique
système linéaire à chaque itération (O(n2 ) opérations pour une matrice
définie positive, alors il existe une unique matrice triangulaire inférieure à
dense, éventuellement moins pour une matrice creuse).
coefficients diagonaux strictement positifs telle que A = LT L.
Proposition 21. Ces factorisations peuvent être calculées par une variante Proposition 30. Ces deux méthodes convergent quand A est à diagonale
strictement dominante.
du pivot de Gauss en O(n3 ) opérations.
Théorème 22 (Factorisation QR). Si A ∈ GLn (R) est symétrique définie 4.2 Autres méthodes
positive, alors il existe une unique matrice unitaire et une unique matrice
triangulaire supérieure à coefficients diagonaux positifs telles que A = QR. Algorithme 31 (Méthode de Kaczmarz). Soient (l1 , . . . , ln ) les lignes de
A, et pi le projecteur orthogonal sur l’hyperplan d’équation li x = bi . On
k
Remarque 23. Ces factorisations de matrices permettent de résoudre de construit par récurrence xk+1 = p
(k+1 mod n) (x ).
nombreux systèmes linéaires avec la même matrice de façon peu coûteuse.
Ceci est généralement préférable au calcul de l’inverse de la matrice.
Développement 1. La méthode de Kaczmarz converge quelle que soit A.
2
Développements
Proposition 32. Si A est symétrique définie positive, l’unique solution de
Ax = b est exactement l’unique point minimisant la fonction strictement
convexe J : x 7→ 12 ⟨Ax|x⟩ − ⟨b|x⟩.
1. Méthode de Kaczmarz
2. Forme normale de Smith
Corollaire 33. On peut approcher la solution dans ce cas par une descente
de gradient.
Références
5
Pivot de Gauss sur un anneau principal
— Les Matrices : théorie et pratique, Denis Serre
Dans cette section, R est un anneau principal. On suppose maintenant
A ∈ Mm,n (R).
Proposition 34. Si m = n, A ∈ GLn (R) ⇔ det A inversible dans R. Dans
ce cas, la règle de Cramer s’applique.
Proposition 35. Mis à part les dilatations de facteur non inversible, les
matrices élémentaires sont dans GLn (R).
Développement 2 (Forme normale de Smith). Il existe P ∈ GLm (R),
Q ∈ GLn (R), ainsi que D ∈ Mm,n (R) quasi-diagonale dont les coefficients
diagonaux (d1 , d2 , . . .) vérifient d1 | d2 | . . ., telles que M = P DQ. Cette
décomposition peut être calculée par une variante de l’algorithme de Gauss.
Proposition 36. Les scalaires (d1 , d2 , . . .) sont uniquement déterminés par
A aux inversibles près, et sont appelés les facteurs invariants de A.
Remarque 37. Si R est un corps, les facteurs invariants peuvent être pris
dans {0, 1} et la multiplicité de 1 est alors le rang de A.
Proposition 38. Si R est un anneau euclidien, GLn (R) est engendré par
les matrices élémentaires.
Définition 39. Les invariants de similitude d’une matrice A ∈ Mn (K) sont
les facteurs invariants de XIn − A sur l’anneau K[X].
Théorème 40 (Th. des facteurs invariants). Deux matrices sont semblables
si et seulement si elles ont les mêmes invariants de similitude.
Remarque 41. On dispose donc d’un algorithme pour déterminer si deux
matrices sont semblables sur un corps.
Remarque 42. Ce théorème permet de démontrer les réductions de Frobenius et de Jordan d’un endomorphisme.
3
Téléchargement