162. Systèmes d’équations linéaires…
…opérations élémentaires, aspects algorithmiques et conséquences théoriques.
Dans toute cette leçon, Kdésigne un corps, dont les éléments sont appelés
scalaires, et m, n N. On note Mm,n(K)l’ensemble des matrices à mlignes
et ncolonnes à coecients dans K, et Mn(K) = Mm,n(K).
1 Premières considérations théoriques
Soient A= (aij )∈ Mm,n(K)et b= (bi)Km. On cherche à trouver
xKnvériant Ax =b, ce qui s’écrit aussi
a11x1+· · · +a1nxn=b1
.
.
.
am1x1+· · · +amnxn=bm
Dénition 1. Un système d’équations de cette forme est appelé système
linéaire. On dit que le système est homogène si b= 0.
Proposition 2. L’ensemble des solutions du système linéaire homogène
Ax = 0 est l’espace vectoriel Ker(A), qui contient toujours 0. L’ensemble
des solutions du système linéaire inhomogène Ax =best soit vide, soit un
espace ane dirigé par Ker(A). Il est non vide si et seulement si bIm(A).
Théorème 3 (Règle de Cramer).Si m=net det A̸= 0, la solution est
unique et donnée par
j∈ {1, . . . , n}, xj=det(c1, . . . , cj1, b, cj+1, . . . cn)
det A
où les (cj)sont les colonnes de A.
Corollaire 4. Si m=n, det A̸= 0 AGLn(K), et dans ce cas, on a
A1= (det A)1Com(A)T.
Remarque 5. On peut traiter le cas d’une matrice rectangulaire en regar-
dant les mineurs de A.
2 Opérations élémentaires et algorithme de Gauss
Le but de cette section est d’obtenir un algorithme de résolution exacte
ecace en pratique (l’intérêt de la règle de Cramer étant surtout théorique).
Dénition 6. Aest une matrice échelonnée quand min{j|aij ̸= 0}croît
strictement en fonction de i. On dit alors que Ax =best un système éche-
lonné.
Proposition 7. Un système échelonné de taille m×npeut être résolu en
O(mn)opérations sur des scalaires.
Dénition 8. Soit λK. Une dilatation est une matrice de la forme
Diag(1, . . . , 1, λ, 1. . . , 1). Une transvection est une matrice de la forme
Im+λEij . Une transposition (dans ce contexte) est une matrice de permuta-
tion associée à une transposition de Sm. Toutes ces matrices sont appelées
matrices élémentaires.
Proposition 9. Les matrices élémentaires sont dans GLm(K).
Dénition 10. On appelle opération élémentaire sur les lignes la multi-
plication d’une matrice Aoù des deux côtés d’une égalité Ax =bpar une
dilatation, une transvection ou une transposition, à gauche. Ce qui s’inter-
prète respectivement comme multiplier une ligne par un scalaire, ajouter un
multiple d’une ligne à une autre, ou échanger deux lignes.
Remarque 11. On dénit de même les opérations élémentaires sur les co-
lonnes par multiplication à droite.
Proposition 12. L’ensemble des solutions d’un système linéaire est inva-
riant par opérations élémentaires.
Algorithme 13 (Pivot de Gauss).En appliquant successivement des opé-
rations élémentaires à un système linéaire, on peut se ramener à un système
échelonné équivalent, en O(m2n)opérations sur des scalaires.
Corollaire 14. Toute matrice s’écrit comme le produit d’une matrice carrée
inversible, elle-même produit de matrices élémentaires, avec une matrice
échelonnée.
1
Application 15. L’algorithme de Gauss permet également de calculer le
rang d’une matrice, le déterminant d’une matrice carrée, et son inverse si
elle existe.
Proposition 16. Les dilatations et les transvections engendrent GLn(K).
Proposition 17 (Opérations élémentaires par blocs).Pour AGLp(K),
B∈ Mp,q(K),C∈ Mq,p(K),DMq(K),
[Ip0
CA1Iq]×[A B
C D]=[A B
0DCA1B].
DCA1Best appelé complément de Schur. On a une identité analogue
pour les opérations sur les colonnes.
Corollaire 18. det [A B
C D]=det(A)det(DCA1B).
3 Factorisations de matrices
Théorème 19 (Factorisation LU).Si AGLn(K), alors il existe Ltri-
angulaire inférieure avec des 1 sur la diagonale et Utriangulaire supérieure
telles que A=LU si et seulement si les mineurs principaux de Asont non
nuls. Dans ce cas, Let Usont uniques.
Théorème 20 (Factorisation de Cholesky).Si A∈ Mn(R)est symétrique
dénie positive, alors il existe une unique matrice triangulaire inférieure à
coecients diagonaux strictement positifs telle que A=LTL.
Proposition 21. Ces factorisations peuvent être calculées par une variante
du pivot de Gauss en O(n3)opérations.
Théorème 22 (Factorisation QR).Si AGLn(R)est symétrique dénie
positive, alors il existe une unique matrice unitaire et une unique matrice
triangulaire supérieure à coecients diagonaux positifs telles que A=QR.
Remarque 23. Ces factorisations de matrices permettent de résoudre de
nombreux systèmes linéaires avec la même matrice de façon peu coûteuse.
Ceci est généralement préférable au calcul de l’inverse de la matrice.
4 Méthodes itératives de résolution
On cherche maintenant à calculer une solution approchée rapidement. On
suppose ici AGLn(R).
Dénition 24. Une méthode itérative construit à partir de A,b, et de
x0Rnquelconque, une suite (xk)(Rn)N. Elle est convergente si pour
tous bet x0,xkA1bquand k+.
4.1 Méthodes de Jacobi et de Gauss-Seidel
Algorithme 25. On choisit MGLn(R)et NMn(R)telles que A=
MN, puis on construit par récurrence xk+1 (kN) comme unique solution
de Mxk+1 =Nxk+b.
Théorème 26. Cette méthode converge si et seulement si le rayon spectral
de M1Nest strictement inférieur à 1.
Algorithme 27 (Méthode de Jacobi).On prend M=Diag(a11, . . . , ann),
N=MA.
Algorithme 28 (Méthode de Gauss–Seidel).On prend Mtriangulaire in-
férieure et Ntriangulaire supérieure stricte.
Remarque 29. Ces choix pour Mpermettent de résoudre rapidement le
système linéaire à chaque itération (O(n2)opérations pour une matrice
dense, éventuellement moins pour une matrice creuse).
Proposition 30. Ces deux méthodes convergent quand Aest à diagonale
strictement dominante.
4.2 Autres méthodes
Algorithme 31 (Méthode de Kaczmarz).Soient (l1, . . . , ln)les lignes de
A, et pile projecteur orthogonal sur l’hyperplan d’équation lix=bi. On
construit par récurrence xk+1 =p(k+1 mod n)(xk).
Développement 1. La méthode de Kaczmarz converge quelle que soit A.
2
Proposition 32. Si Aest symétrique dénie positive, l’unique solution de
Ax =best exactement l’unique point minimisant la fonction strictement
convexe J:x7→ 1
2Ax|x⟩−⟨b|x.
Corollaire 33. On peut approcher la solution dans ce cas par une descente
de gradient.
5 Pivot de Gauss sur un anneau principal
Dans cette section, Rest un anneau principal. On suppose maintenant
A∈ Mm,n(R).
Proposition 34. Si m=n,AGLn(R)det Ainversible dans R. Dans
ce cas, la règle de Cramer s’applique.
Proposition 35. Mis à part les dilatations de facteur non inversible, les
matrices élémentaires sont dans GLn(R).
Développement 2 (Forme normale de Smith).Il existe PGLm(R),
QGLn(R), ainsi que DMm,n(R)quasi-diagonale dont les coecients
diagonaux (d1, d2, . . .)vérient d1|d2|..., telles que M=P DQ. Cette
décomposition peut être calculée par une variante de l’algorithme de Gauss.
Proposition 36. Les scalaires (d1, d2, . . .)sont uniquement déterminés par
Aaux inversibles près, et sont appelés les facteurs invariants de A.
Remarque 37. Si Rest un corps, les facteurs invariants peuvent être pris
dans {0,1}et la multiplicité de 1est alors le rang de A.
Proposition 38. Si Rest un anneau euclidien, GLn(R)est engendré par
les matrices élémentaires.
Dénition 39. Les invariants de similitude d’une matrice A∈ Mn(K)sont
les facteurs invariants de XInAsur l’anneau K[X].
Théorème 40 (Th. des facteurs invariants).Deux matrices sont semblables
si et seulement si elles ont les mêmes invariants de similitude.
Remarque 41. On dispose donc d’un algorithme pour déterminer si deux
matrices sont semblables sur un corps.
Remarque 42. Ce théorème permet de démontrer les réductions de Frobe-
nius et de Jordan d’un endomorphisme.
Développements
1. Méthode de Kaczmarz
2. Forme normale de Smith
Références
Les Matrices : théorie et pratique, Denis Serre
3
1 / 3 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !