Résumés du cours d`alg`ebre linéaire - ANMC

publicité
Algèbre linéaire pour GM
Prof. A. Abdulle
Automne 2014
EPFL
Résumés du cours d’algèbre linéaire
1
Introduction
1.1
Introduction aux systèmes d’équations linéaires
(cf. Section 1.1 de [1])
Systèmes d’équations, interprétation géométrique de systèmes linéaires (plan, espace à
trois dimensions), notation matricielle d’un système linéaire, matrice augmentée d’un
système linéaire.
1.2
Résolution dun systme déquations linéaires
(cf. Section 1.2 de [1])
Systèmes linéaires équivalents, opérations sur un système linéaire qui ne modifient pas
l’ensemble de solutions (permutation, addition d’un multiple d’une autre équation,
multiplication d’une équation par une constante non nulle).
Théorème 1. Les opérations de type 1, 2, 3 transforment un système linéaire en un
système équivalent.
Algorithme de réduction, forme échelonnée, forme échelonnée réduite, position
pivot, variables de base et variables libres.
Théorème 2. Un système linéaire est
compatible si et seulement si la matrice augmentée n’a pas de ligne de la forme 0 0 · · · c avec c non nul. Pour un système
linéaire compatible, on a une solution unique s’il n’y a pas de variables libres et une
infinité de solutions sinon.
1.3
Vecteurs et équations vectorielles
(cf. Section 1.3 de [1])
Notion de vecteur, l’espace Rn . Combinaisons linéaires de vecteurs, équivalence entre
solutions de systèmes linéaires et solutions d’équations vectorielles associées (cf. résultat
fondamental à la page 34 dans [1]), ensemble des combinaisons linéaires de v1 , v2 , . . . , vp
vecteurs de Rn , la notion de span d’une collection de vecteurs et sous-ensembles de Rn .
1.4
Équations matricielles et systèmes linéaires
Produit matrice vecteur.
Théorème 1. Soit A une matrice m × n. Alors
1. A(u + v) = Au + Av pour tout u, v ∈ Rm ,
2. A(αu) = αA(u) pour tout u ∈ Rm et tout α ∈ R.
1
(cf. Section 1.4 de [1])
Théorème 2. Soit A une matrice m × n; Ax = b a le même ensemble de solutions que
l’équation vectorielle x1 a1 + · · · + xn an = b, où ai est
la i-ième colonne de la matrice
A, ou que le système linéaire de matrice augmentée a1 a2 · · · an b .
Théorème 3. Soit A une matrice m × n, alors les énoncés suivants sont équivalents:
• pour chaque b de Rm , Ax = b admet une solution,
• tout b de Rm est une combinaison linéaire des colonnes de A,
• les colonnes de A engendrent Rm ,
• A a une position pivot dans chaque ligne.
1.5
Ensembles de solutions des systèmes linéaires
(cf. Section 1.5 de [1])
Notion de système homogène Ax = 0, où A est une matrice m × n.
Théorème 1. Ax = 0 admet une solution non triviale si et seulement si l’équation a
au moins une variable libre.
Systèmes non homogènes Ax = b.
Théorème 2. Supposons que Ax = b est compatible et soit p une solution du système.
Alors l’ensemble des solutions de Ax = b est l’ensemble des vecteurs x = p + v où v est
une solution de l’équation homogène Ax = 0.
1.6
Indépendance linéaire
(cf. Section 1.7 de [1])
Définition d’(in)dépendance linéaire d’un ensemble de vecteurs (v1 , v2 , . . . , vp ) de Rn .
Théorème 1. Soit A une matrice m × n. Les colonnes de A sont linéairement
indépendantes si et seulement si l’équation Ax = 0 n’admet que la solution triviale.
Théorème 2. Un ensemble indicé S = (v1 , v2 , . . . , vp ), où vi sont des vecteurs de Rn
avec p ≥ 2, est linéairement dépendant si et seulement si au moins l’un des vecteurs de
S est une combinaison linéaires des autres.
Notion de base de Rn et base canonique de Rn .
1.7
Introduction aux transformations linéaires
(cf. Section 1.8 de [1])
Notion de transformation T : Rn → Rm , domaine de définition, ensemble d’arrivée,
image d’un vecteur x, image de l’application T .
Définition d’une transformation linéaire, exemples de transformations linéaires (symétrie,
projection, etc.).
1.8
La matrice d’une transformation linéaire
(cf. Section 1.9 de [1])
Matrice d’une transformation linéaire, matrice canonique d’une transformation linéaire.
Théorème 1. Soit T : Rn → Rm une transformation linéaire. Alors il existe une
unique matrice A de dimension m × n, telle que T (x) = Ax, où x est un vecteur de Rn .
2
Applications injectives, surjectives et bijectives.
Théorème 2. Soit T : Rn → Rm une transformation linéaire. Alors T est injective si
et seulement si T (x) = 0 n’admet que la solution triviale, où x est un vecteur de Rn .
Théorème 3. Soit T : Rn → Rm une transformation linéaire et soit A sa matrice
canonique. Les énoncés suivants sont équivalents:
• T est surjective,
• tout b de Rm est une combinaison linéaire des colonnes de A,
• les colonnes de A engendrent Rm ,
• A a une position pivot dans chaque ligne.
Notion de noyau et d’image d’une transformation linéaire.
2
L’algèbre matricielle
2.1
Opération sur les matrices
(cf. Section 2.1 de [1])
Définition de l’addition de deux matrices m × n, multiplication d’une matrice par un
scalaire.
Théorème 1. Soit A, B, C des matrices m × n. Alors
1. A + B = B + A,
2. (A + B) + C = A + (B + C),
3. A + 0 = A.
Théorème 2. Soit A, B des matrices m × n et α, β ∈ R. Alors
1. α(A + B) = αA + βB,
2. (α + β)A = αA + βA,
3. α(βA) = (αβ)A,
4. 1 · A = A,
5. 0 · A = 0 (scalaire 0 · matrice A = matrice 0).
Définition du produit matriciel.
Théorème 3. Soit A matrice m × n et B matrice n × p. Alors (AB)x = A(Bx) pour
tout x ∈ Rp .
Produit matriciel (exemple), règle ligne colonne pour le calcul de AB.
Théorème 4. Propriétés du produit matriciel, symétrie, associativité, distributivité
par rapport à l’addition, etc.
Transposée d’une matrice et propriétés (cf. p.115 dans [1]).
3
2.2
L’inverse d’une matrice
(cf. Section 2.2 de [1])
Définition de l’inverse, lemme 1 (unicité de l’inverse).
Proposition 1. Soit A une matrice n × n. S’il existe une matrice C de taille n × n
telle que AC = In ou CA = In alors A est inversible et A−1 = C.
a b
Théorème 2. Soit A =
une matrice 2×2. Alors A est inversible si et seulement
c d
1
d −b
−1
si ad − bc est différent de zéro. Si A est inversible, alors A =
.
−c a
ad − bc
Théorème 3. Si A est une matrice n × n inversible, alors pour chaque b de Rn ,
l’équation Ax = b admet la solution unique x = A−1 b.
Théorème 4. Soient A et B deux matrices inversibles. Alors,
• A−1 est inversible et (A−1 )−1 = A,
• AB est inversible et (AB)−1 = B −1 A−1 ,
• AT est inversible et (AT )
−1
= (A−1 )T .
Matrices symétriques et antisymétriques.
Matrices élémentaires.
Théorème 5. Effet du produit par une matrice élémentaire.
Théorème 6. Inversibilité des matrices élémentaires.
Théorème 7. Soit A une matrice de taille n × n. Alors les énoncés suivants sont
équivalents:
• A est inversible,
• pour chaque b de Rn Ax = b admet une solution unique,
• Ax = 0 n’a que la solution triviale x = 0,
• les colonnes de A sont linéairement indépendantes,
• les colonnes de A engendrent Rn ,
• A a une position pivot dans chaque ligne,
• A est équivalente à la matrice In ,
• A est un produit de matrice élémentaires.
4
2.3
Factorisation des matrices
(cf. Section 2.2 et Section 2.5 de [1])
Calcul de l’inverse d’une matrice A | I → I | A−1 , factorisation des matrices,
matrices triangulaires supérieures et inférieures, la décomposition A = LU .
La décomposition A = LU , résolution d’un système linéaire Ax = b à l’aide de la
décomposition LU , où
(i) Ly = b,
(ii) U x = y,
calcul de la décomposition, matrice Li et son inverse, compte d’opérations :
la décomposition, n2 pour la résolution.
2.4
Matrices partitionnées
n3
pour
3
(cf. Section 2.4 de [1])
Décomposition d’une matrice par blocs. Addition et multiplication de matrices avec
partitions par blocs compatibles
Règle colonne/ligne pour le produit de deux matrices. Inverse de matrices (triangulaires) partitionnées.
3
Les déterminants
3.1
Introduction aux déterminants
(cf. Section 3.1 de [1])
Définition du déterminant d’ordre n (par récurrence sur n), cofacteurs.
Théorème 1. Le déterminant de A d’ordre n peut être calculé par un développement
selon n’importe quelle ligne ou colonne.
Théorème 2. Le déterminant d’une matrice triangulaire (supérieure ou inférieure) est
le produit des éléments de sa diagonale.
3.2
Propiétés des déterminants
(cf. Section 3.2 et Section 3.3 de [1])
Théorème 1. Soit A une matrice n × n. Son déterminant a les propriétés suivantes:
• si B est une matrice obtenue en ajoutant à une ligne de la matrice A un multiple
d’une autre de ses lignes, alors det B = det A,
• si B est une matrice obtenue en intervertissant deux lignes de A, alors det B =
− det A,
• si B est obtenue en multipliant une ligne de A par α, alors det B = α det A.
Calcul d’un déterminant, remarque sur la complexité du calcul d’un déterminant par
la méthode du développement en cofacteur (complexité n!), calcul du déterminant par
transformation de la matrice sous forme échelonnée.
Théorème 2. Une matrice A n × n est inversible si et seulement si det A 6= 0.
Théorème 3. Soit A une matrice n × n, alors det A = det AT .
5
Déterminant du produit de matrices.
Théorème 4. Soit A et B des matrices n × n, alors det AB = det A det B.
Théorème 5 (Règle de Cramer). Soit A une matrice n×n inversible, alors les solutions
du système linéaire Ax = b, où x et b sont des vecteurs de Rn , sont données par
xi = detdetAiA(b) pour i = 1, 2, . .. , n, où (en notant par ai les vecteurs
colonnes de la
matrice A) on définit Ai (b) = a1 a2 · · · ai−1 b ai+1 · · · an .
Théorème 6 (Formule de l’inverse). Soit A une matrice n × n inversible. Alors A−1 =
1
det A adjA, où adjA est la matrice des cofacteurs, i.e. (adjA)ij = Cji avec Cji un
cofacteur de A.
4
Les espaces vectoriels
4.1
Espaces et sous-espaces vectoriels
(cf. Section 4.1 de [1])
Définition d’un espace vectoriel, premières conséquences. Soit V un espace vectoriel et
soit u ∈ V . Alors,
(a) le vecteur 0 est unique,
(b) l’opposé de u est unique,
(c) 0u = 0,
(d) r0 = 0, où r est un scalaire,
(e) (−1)u = −u.
Exemples d’espace vectoriels (Rn , fonctions, polynômes, matrices, signaux discrets).
Sous-espaces vectoriels, sous-espace engendré par un ensemble.
Théorème 1. Soient v1 , v2 , . . . , vp des éléments d’un espace vectoriel V . Alors span{v1 , v2 , . . . , vp }
est un sous-espace vectoriel de V .
4.2
Espaces vectoriels et transformations linéaires
(cf. Section 4.2 de [1])
Transformation linéaires de V → W où V et W sont des espaces vectoriels, définition
de KerT et ImT .
Théorème 1. KerT est un sous espace vectoriel de V .
Théorème 2. ImT est un sous-espace vectoriel de W .
Application des théorèmes 1 et 2.
Théorème 3. Soit A une matrice de taille m × n. Alors l’ensemble des solutions
homogènes Ax = 0 est un sous-espace vectoriel de Rn . ImA est un sous-espace vectoriel
de Rm .
L’espace des colonnes d’une matrice A, noté ColA, est l’ensemble de toutes les combinaisons linéaires des colonnes de A.
6
4.3
Bases d’un espace vectoriel
(cf. Section 4.3 de [1])
Définition de vecteurs linéairement indépendants de V , un espace vectoriel.
Théorème 1. Un ensemble {v1 , v2 , . . . , vp } de deux vecteurs ou plus est linéairement
dépendant si et seulement si au moins l’un des vecteurs {v1 , v2 , . . . , vp } est combinaison
linéaire des autres.
Définition 2. Soit V un espace vectoriel et S = {v1 , v2 , . . . , vp } un sous-ensemble de
V . Alors S est une base de V si et seulement si
(i) l’ensemble S est linéairement indépendant,
(ii) l’ensemble S engendre V , c.-à.-d. span{v1 , v2 , . . . , vp } = V .
Théorème 3. Soit V un espace vectoriel et S = {v1 , v2 , . . . , vp } un ensemble d’éléments
de V et soit W = span{v1 , v2 , . . . , vp }. Alors,
(i) si l’un des vecteurs de S, disons vk , est une combinaison linéaire des autres
vecteurs de S, alors l’ensemble {v1 , v2 , . . . , vk−1 , vk+1 , . . . , vp } est encore un ensemble générateur de W ,
(ii) si W 6= 0 alors un sous-ensemble extrait de S constitue une base de W .
Base de KerA et ColA pour une matrice A m × n (mise sous forme échelonnée en une
matrice B, alors KerA = KerB mais ColA 6= ColB en général).
Théorème 4. Les colonnes d’une matrice A ayant une position pivot forment une base
de ColA.
4.4
Coordonnées dans Rn et changement de bases
(cf. Section 4.4 et Section
4.7 de [1])
Théorème 1. Soit B = {b1 , b2 , . . . , bp } une base d’un espace vectoriel V . Alors pour
tout vecteur v de V il existe un ensemble unique de scalaires c1 , c2 , . . . , cp tel que v =
c1 b1 + c2 b2 + . . . + cp bp .
Définition de coordonnées de v par rapport à B. Définition de [v]B vecteur des coordonnées de v par rapport a B. Changement de coordonnées de la base canonique à
une base quelconque B. Définition de PB matrice de passage entre la base B et la base
canonique. Application coordonnées [ ]B : V → Rn .
Théorème 2. L’application [
espaces vectoriels.
]B est une transformation linéaire et bijective entre
Isomorphisme d’espace vectoriels, changement de base.
Théorème 3. Soient B = {b1 , b2 , . . . , bn } et C = {c1 , c2 , . . . , cn } deux bases d’un espace
vectoriel. Alors il existe une unique matrice PCB n × n telle que [v]C = PCB [v]B .
7
4.5
Dimension d’un espace vectoriel et théorème du rang
(cf. Section 4.5
et Section 4.6 de [1])
Théorème 1. Si B = {b1 , b2 , . . . , bn } est une base d’un espace vectoriel V , alors tout
ensemble de V de plus de n vecteurs est linéairement dépendent.
Théorème 2. Soit B = {b1 , b2 , . . . , bn } une base d’un espace vectoriel V . Alors toute
autre base de V comporte exactement n vecteurs.
Définition de dimension d’un espace vectoriel.
Théorème 3. Soit W un sous-espace vectoriel d’un espace vectoriel de dimension finie
V . Alors tout ensemble linéairement indépendant de W peut être élargi en une base de
W . De plus W est de dimension finie et dimW ≤ dimV .
Théorème 4. Soit V un espace vectoriel de dimension p où p ≤ 1. Alors,
(i) toute famille linéairement indépendante d’exactement p vecteurs de V est automatiquement une base,
(ii) toute famille d’exactement p vecteurs qui engendre V est automatiquement une
base.
Définition de rang d’une matrice.
Théorème 5. Soit A une matrice n × n. Alors n =rgA+dim(KerA).
Théorème 6. Soit A une matrice de taille n × n. Alors les énonces suivants sont
équivalents
(i) A est inversible,
(ii) rg A = n,
(iii) dim(KerA)=0.
Définition de LigA, l’espace des lignes de A.
Théorème 7. Soit A une matrice m × n, alors dim(ColA) = dim(LigA).
Rang de la matrice transposée. Soit A une matrice m × n, alors rgA = rgAT .
5
Les valeurs et les vecteurs propres
(cf. Section 5.1 et Section 5.2 de
[1])
5.1
Introduction aux valeurs et vecteurs propres
(cf. Section 5.1 et Section
5.2 de [1])
Exemple.
Définition 1. Soit A une matrice n × n. On dit que v ∈ Rn , v 6= 0, est un vecteur
propre de A s’il existe λ ∈ R tel que Av = λv.
Théorème 2. Soit A une matrice n × n. Alors λ ∈ R est une valeur propre de A si et
seulement si det(A − λI) = 0.
8
Définition 3. L’équation scalaire det(A−λI) = 0 est appelée l’équation caractéristique
de A.
Développement det(A − tI) = (−1)n tn + (−1)n−1 trace(A)tn−1 + · · · + det A.
Théorème 4. Une matrice A de taille n × n a au plus n valeurs propres distinctes.
Théorème 5. Soit A une matrice n × n et supposons que A possède λ1 , λ2 , . . . , λr
valeurs propres distinctes (avec r ≤ n). Soit v1 , v2 , . . . , vr des vecteurs propres associés
à λ1 , λ2 , . . . , λr . Alors {v1 , v2 , . . . , vr } est linéairement indépendant.
Valeur propre et inversibilité.
Théorème 6. Une matrice A de taille n × n est inversible si et seulement si 0 n’est
pas valeur propre de A.
Valeur propre et matrice triangulaire.
Théorème 7. Soit A une matrice triangulaire. Alors les valeurs propres de A sont les
éléments de la diagonale de A.
Matrices semblables.
Définition 8. Soit A une matrice de taille n × n. On dit que A est semblable à une
matrice B de taille n × n s’il existe une matrice inversible P de taille n × n telle que
B = P −1 AP .
Théorème 9. Deux matrices A et B de taille n×n et semblables ont le même polynôme
caractéristique.
5.2
Diagonalisation
(cf. Section 5.3 de [1])
Soit A une matrice de taille n × n et soit λ une valeur propre de A. Le sous-espace
vectoriel de Rn Ker(A − λI), noté Eλ , est appelé l’espace propre de A correspondant à
la valeur propre λ.
Note 1. La dimension de Eλ correspond au nombre de vecteurs propres linéairement
indépendants associés à λ.
Définition de multiplicité algébrique de λ, dimension de Eλ : multiplicité géométrique
de λ.
Théorème 2. Soit une matrice A de taille n × n et λ une valeur propre de A. Alors
multiplicité géométrique de λ ≤ multiplicité algébrique de λ.
Théorème 3. Soit A une matrice symétrique. Alors A possède n vecteurs propres
linéairement indépendants. Ces vecteurs peuvent être choisis de façon à former une
base orthogonale.
5.3
Valeurs propres complexes
(cf. Section 5.5 de [1])
Exemple de calcul de valeurs propres et vecteurs propres complexes. Espace propre
associeé.
9
6
Produit scalaire, longueur et orthogonalité
6.1
Introduction au produit scalaire, à la longueur et à l’orthogonalité
(cf. Section 6.1 de [1])
Définition 1. Soient u, v ∈ Rn . Alors, le produit scalaire dans Rn est définie par
u · v = u1 v1 + u2 v2 + · · · + un vn .
Théorème 2. Soient u et v vecteurs de Rn et α ∈ R. Alors,
(i) u · v = v · u,
(ii) (u + v) · w = u · w + v · w,
(iii) (αu) · v = α(u · v) = u · (αv),
(iv) u · u = 0 si et seulement si u = 0.
Norme d’un vecteur.
Définition 3 (Norme euclidienne). Soit v ∈ Rn , alors la norme euclidienne de v est
définie par
q
√
kvk = v · v = v12 + v22 + · · · + vn2 .
Vecteur unitaire, distance dans Rn .
Définition 4. Soient u et v dans Rn . La distance entre u et v, notée dist(u, v) est
définie par
dist(u, v) = ku − vk.
Théorème 5 (Propriétés de la norme). Soient u et v dans Rn et soit α ∈ R. Alors les
propriétés suivantes sont satisfaites:
(i) kuk ≥ 0,
(ii) kuk = 0 si et seulement si u = 0,
(iii) kαuk = |α|kuk,
(iv) ku + vk ≤ kuk + kvk.
Inégalité de Cauchy-Schwarz (|u · v| ≤ kukkvk).
Théorème 6. Soient u, v, w ∈ Rn . Alors,
(i) dist(u, v) ≥ 0,
(ii) dist(u, v) = 0 si et seulement si u = v,
(iii) dist(u, v) =dist(v, u),
(iv) dist(u, v) ≤dist(u, w)+dist(w, v).
Définition 7. Deux vecteurs u, v dans Rn sont dits orthogonaux si et seulement si
u · v = 0.
10
Théorème 8 (Pythagore). Deux vecteurs u, v dans Rn sont orthogonaux si et seulement si
ku + vk2 = kuk2 + kvk2 .
Définition 9. L’orthogonal d’un sous-espace vectoriel W de Rn , noté W ⊥ , est donné
par
W ⊥ = {z ∈ Rn |z est orthogonal à W }.
Exemples.
Théorème 10. Soit W un sous-espace vectoriel de Rn . Alors,
(i) W ⊥ est un sous-espace vectoriel de Rn ,
(ii) W ⊥ ∩ W = {0}.
Théorème 11. Soit A une matrice m × n. Alors,
(i) l’orthogonal de l’espace des lignes de A est l’espace nul de A, c.-à.-d.
(LigA)⊥ = KerA,
(ii) l’orthogonal de l’espace des colonnes de A est l’espace nul de AT , c.-à.-d.
(ColA)⊥ = KerAT .
6.2
Les ensembles orthogonaux
(cf. Section 6.2 de [1])
Définition 1. Une base d’un sous-espace vectoriel W de Rn qui est un ensemble orthogonal est appelée une base orthogonale.
Définition 2. Un ensemble de vecteurs {u1 , . . . , up } ∈ Rn est dit orthogonal si ui · uj =
0 pour tout i, j = 1, . . . , n, i 6= j.
Théorème 3. Soit S = {u1 , . . . , up } un ensemble orthogonal de vecteurs ui ∈ Rn , ui 6=
0 pour tout i = 1, . . . , p. Alors S est linéairement indépendant.
Théorème 4. Soit S = {u1 , u2 , . . . , up } une base orthogonale d’un sous-espace vectoriel
W de Rn . Alors pour tout v ∈ W on a
v = a1 u1 + a2 u2 + · · · + ap up ,
où aj =
v·uj
uj ·uj
pour j ∈ {1, 2, . . . , p}.
Exemple, projection orthogonale.
Théorème 5. Soit W un sous-espace vectoriel de Rn . Alors tout vecteur v ∈ Rn peut
être écrit de façon unique v = u + z, où u ∈ W et z ∈ W ⊥ .
Définition 6. Le vecteur u du Théorème 5 est appelé la projection orthogonale de v
sur W .
Théorème 7. Soit W un sous-espace vectoriel de Rn et v un vecteur quelconque de
Rn et soit u la projection orthogonale de v sur W . Alors kv − uk ≤ kv − yk pour tout
y ∈ W.
11
6.3
La méthode de Gram-Schmidt et la factorisation QR
(cf. Section 6.4
de [1])
Méthode de Gram-Schmidt (algorithme pour construire une base orthogonale (ou orthonormée) d’un sous-espace vectoriel non nul quelconques de Rn ), exemples.
Théorème 1. Soit {v1 , v2 , . . . , vp } une base sous-espace vectoriel W de Rn . On définit
u1 = v1
u2 = v2 −
..
.
up = vp −
v2 ·u1
u1 ·u1 u1
vp ·u1
u1 ·u1 u1
−
vp ·u2
u2 ·u2 u2
− ··· −
vp ·up−1
up−1 ·up−1 up−1 .
Alors {u1 , u2 , . . . , up } est une base orthogonale de W . De plus,
span{v1 , v2 , . . . , vk } = span{u1 , u2 , . . . , uk }
pour 1 ≤ k ≤ p.
Définition 2. Soit Q une matrice n × n. Si les colonnes de Q forment une base
orthonormale de Rn , on dit que Q est orthogonale et on a donc QT Q = I.
Factorisation QR d’une matrice.
Théorème 3. Soit A une matrice m×n dont les colonnes sont linéairement indépendantes.
Alors A peut être factorisée en A = QR, où Q est une matrice m × n dont les colonnes
forment une base orthonormée de ColA et oú R est une matrice n × n triangulaire
supérieure inversible avec des éléments diagonaux positifs.
Exemples.
6.4
Les problèmes de moindres carrés
Soit A une matrice m × n. Si m > n on dit que le systéme linéaire Ax = b avec x ∈ Rn ,
b ∈ Rm est surdéterminé (le système d’équations est en général incompatible). Idée
des moindres carrés (penser Ax comme une approximation de b et chercher x tel que
l’approximation dans la norme euclidienne sur Rn soit la meilleure, c.-à.-d. x tel que
la distance soit minimale).
Définition 1. Le système d’équations AT Ax = AT b est appelé équations normales de
Ax = b.
Théorème 2. L’ensemble des solutions des moindres carrés de Ax = b coı̈ncide avec
l’ensemble des solutions des équations normales AT Ax = AT b. Cet ensemble est non
vide.
Théorème 3. Soit A une matrice m × n. Alors la matrice AT A est inversible si et
seulement si les colonnes de A sont linéairement indépendantes.
Conséquence: le système linéaire Ax = b possède une solution unique au sens des
moindres carrés si et seulement si les colonnes de A sont linéairement indépendantes.
Solution des moindres carrés à l’aide de la factorisation QR.
Théorème 4. Soit A une matrice m×n dont les colonnes sont linéairement indépendantes
et soit A = QR une factorisation QR de A. Alors la solution unique du système linéaire
Ax = b est donnée par x = R−1 QT b.
Application: calcul de la trajectoire d’une planète.
12
6.5
Les espaces euclidiens
(cf. Section 6.7 de [1])
But: généraliser les notions de produit scalaire, norme et orthogonalité à des espaces
vectoriels autres que Rn .
Définition 1. Soit V un espace vectoriel. Un produit scalaire sur V est une fonction
qui associe à chaque paire de vecteurs u, v ∈ V un nombre réel noté (u|v) satisfaisant
aux axiomes suivants pour tout u, v, w ∈ V et tout α ∈ R:
(i) (u|v) = (v|u),
(ii) (u + v|w) = (u|w) + (v|w),
(iii) (αu|v) = α(u|v),
(iv) (u|u) ≥ 0 et (u|u) = 0 si et seulement si u = 0.
Définition 2. Un espace vectoriel de dimension finie muni d’un tel produit scalaire est
appelé un espace euclidien.
Exemples : fonctions polynomiales, produit scalaire défini à l’aide de l’intégrale, produit
scalaire basé sur une forme quadratique définie positive.
7
7.1
Les matrices symétriques et les formes quadratiques
Retour sur les matrices symétriques
(cf. Section 7.1 de [1])
On a vu que si A est une matrice n × n symétrique, il existe une matrice orthogonale Q
telle que QT AQ = D, où D est la matrice diagonale formée par les n valeurs propres.
Définition 1. Une matrice A de taille n × n admet une décomposition de Schur s’il
existe une matrice orthogonale U de taille n × n et une matrice triangulaire supérieure
R de taille n × n telles que R = U T AU .
Théorème 2. Une matrice A de taille n × n qui admet une décomposition de Schur
A = U RU T a n valeurs propres réelles (pas nécéssairement distinctes).
Théorème 3. Soit A une matrice de taille n × n avec n valeurs propres réelles. Alors,
A admet une décomposition de Schur.
Théorème 4. Soit A une matrice symétrique de taille n × n. Soient v1 et v2 deux
vecteurs propres associés à des valeurs propres distinctes de A λ1 , λ2 . Alors v1 · v2 = 0.
Exemples, rappel sur les nombres complexes.
Théorème 5. Soit A une matrice n×n. Si A est symétrique alors A possède n valeurs
propres réelles λ1 , λ2 , . . . , λn .
Théorème 6 (Théorème spectral). Soit A une matrice symétrique n × n. Alors A est
diagonalisable, c.-à.-d. il existe une matrice P n × n inversible telle que P −1 AP est
diagonale avec une diagonale composée des valeurs propres λ1 , λ2 , . . . , λn de la matrice
A. De plus la matrice P peut être choisie orthogonale.
Définition 7. Soit A n × n symétrique, Q = (u1 . . . un ) la matrice orthogonale donnée
par le théorème spectral et λ1 , . . . , λn les n valeurs propres de A. Alors A = λ1 u1 uT1 +
... + λn un uTn et cette expression est appelée décomposition spectrale.
13
7.2
Les formes quadratiques
(cf. Section 7.2 et Section 7.3 de [1])
Définition 1. Une forme quadratique de Rn est une fonction Q : Rn → R, telle que
Q(x) = xT Ax, où A est une matrice symétrique de taille n × n.
Exemple (interprétation géométrique de Q(x) = cst, x ∈ R2 , cercle, ellipse, hyperbole),
changement de variables dans une forme quadratique.
Théorème 2. Soit Q(x) = xT Ax une forme quadratique, où A est une matrice
symétrique. Alors il existe un changement de variables x = U y, où U est une matrice
n × n orthogonale, qui transforme la forme quadratique Q(x) en une forme quadratique
Q̃(y) de la forme λ1 y12 + λ2 y22 + · · · + λn yn2 , où λ1 , λ2 , . . . , λn sont les valeurs propres
de A.
Exemple (interprétation géométrique).
Note 3. Le changement de variables x =
U y exprime le vecteurs x dans la base orthogonale composée des colonnes de U = u1 u2 · · · un .
Définition 4. Une forme quadratique Q : Rn → R, Q(x) = xT Ax, où A est une
matrice symétrique de taille n × n, est
(i) définie positive si Q(x) > 0 pour tout x 6= 0 (semi-finie positive si Q(x) ≥ 0 pour
tout x ∈ Rn ),
(ii) définie négative si Q(x) < 0 pour tout x 6= 0 (semi-finie positive si Q(x) ≤ 0 pour
tout x ∈ Rn ),
(iii) indéfinie si Q(x) prend des valeurs positives et négatives.
Théorème 5. Soit Q(x) = xT Ax une forme quadratique, où A est une matrice
symétrique de taille n × n. Alors la forme est
(i) définie positive si et seulement si les valeurs propres de A sont toutes strictement
positives (semi-définie positive si et seulement si les valeurs propres de A sont
toutes positives ou nulles),
(ii) définie négative si et seulement si les valeurs propres de A sont toutes strictement
négatives (semi-définie négative si et seulement si les valeurs propres de A sont
toutes négatives ou nulles),
(iii) indéfinie si et seulement si A a des valeurs propres négatives et positives.
Note 6. Pour une matrice symétrique A, on dit aussi que A est (semi-)définie positive
ou (semi-)définie négative ou indéfinie quand Q(x) = xT Ax est respectivement (semi)définie positive ou (semi-)définie négative ou indéfinie.
Théorème 7. Le produit (x|z) défini par (x|z) = xT Az, où A est une matrice n × n
symétrique est un produit scalaire si et seulement si A est définie positive.
Théorème 8. Soit A une matrice n × n symétrique. Notons λ1 ≥ λ2 ≥ · · · ≥ λn les n
valeurs propres réelles de A (non nécéssairement distinctes). Alors
max{xT Ax; kxk = 1} = λ1 ,
min{xT Ax; kxk = 1} = λn .
14
Références
[1] David C. Lay. Algbre linaire : thorie, exercices et applications, volume 3. De Boeck,
Bruxelles, 2005.
Informations générales, séries et corrigés: cf. http://anmc.epfl.ch/Algebre.html.
15
Téléchargement