Compléments d`algèbre linéaire

publicité
Lycée Jules Ferry, Cannes
Année 2016-2017
Classe préparatoire TSI 2e année
Mathématiques - D. Broizat
Chapitre 2
Compléments d’algèbre linéaire
Table des matières
I
Familles de vecteurs dans un espace vectoriel
1) Définition générale d’une famille . . . . . . . .
2) Familles génératrices d’un espace vectoriel . .
3) Familles liées, familles libres . . . . . . . . . .
4) Bases . . . . . . . . . . . . . . . . . . . . . . .
5) Critère d’indépendance dans K[X] . . . . . . .
.
.
.
.
.
1
1
5
12
17
19
II Somme de sous-espaces vectoriels
1) Définition et structure . . . . . . . . . . . . . . . . . . . . . . . . . . .
2) Somme directe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3) Sous-espaces supplémentaires . . . . . . . . . . . . . . . . . . . . . . .
24
24
27
32
III Compléments sur les applications linéaires
1) Action d’une appl. linéaire sur les familles de vecteurs . . . . . . . . . .
2) Projecteurs et symétries . . . . . . . . . . . . . . . . . . . . . . . . . .
3) Formes linéaires et hyperplans . . . . . . . . . . . . . . . . . . . . . . .
36
36
43
50
IV Changements de base
1) Rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2) Matrices semblables . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
54
54
60
V Compléments sur les matrices
1) Base des matrices élémentaires . . . . . . . . . . . . .
2) Transposition, matrices symétriques, antisymétriques
3) Trace d’une matrice . . . . . . . . . . . . . . . . . . .
4) Trace d’un endomorphisme . . . . . . . . . . . . . . .
65
65
67
72
75
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1/78
I
Familles de vecteurs dans un espace vectoriel
On pose K = R ou C et on considère un K-espace vectoriel, noté E.
1)
Définition générale d’une famille
Définition 1 (Famille de vecteurs)
Une famille de vecteurs de E indexée par un ensemble non vide I
.......................................................................
est une application x : I → E (à chaque i ∈ I, on associe un vecteur xi ∈ E).
...............................................................................
On la note (xi )i∈I , et I est appelé ensemble des indices .
.........................................................
Attention : A la différence d’un ensemble, une famille peut contenir plusieurs fois
le même vecteur (c’est le cas si l’application x n’est pas injective).
Exemple (p-uplet)
Pour p ∈ N∗ fixé, un p-uplet (x1 , x2 , · · · , xp ) (on dit aussi une "liste") est une famille
de vecteurs indexée par l’ensemble I = {1, 2, · · · , p}. Indexer par un ensemble fini I
revient à numéroter.
Exemple (Suite)
Une suite de vecteurs de E, notée (xn )n∈N , est une famille de vecteurs indexée par
I = N (ou une partie infinie de N).
2/78
Exemple (Une famille de fonctions)
On peut indexer une famille par un ensemble d’indices aussi gros que l’on veut :
par exemple, si on pose, pour tout λ ∈ R, fλ : x 7→ eλx , on peut envisager la famille
(fλ )λ∈R (ici I = R). C’est une famille de vecteurs de l’espace vectoriel E = F(R, R)
(un espace de fonctions, donc).
Convention : Il existe une seule famille indexée par I = ∅. On l’appelle famille vide.
Définition 2 (Sous-famille d’une famille de vecteurs)
Soit F = (xi )i∈I une famille de vecteurs de E. On appelle sous-famille de F
...................................
toute famille F 0 de la forme F 0 = (xj )j∈J , où J ⊂ I .
......................................................
Remarque
La famille vide est une sous-famille de n’importe quelle famille de vecteurs de E.
Définition 3 (Sur-famille)
Si F et F 0 sont deux familles de vecteurs de E, alors
on dit que F est
.....................
une sur-famille de F 0 si F 0 est une sous-famille de F .
...........................................................
3/78
Rappel : Un ensemble I est dit fini si
il est vide ou s’il existe n ∈ N∗ et une
.........................................
bijection entre {1, 2, · · · , n} et I .
....................................
Cet entier n est unique et s’appelle le cardinal de I ; on le note Card(I)
..........................................
ou ]I ou encore |I| , c’est le "nombre d’éléments" de I.
.......................
Définition 4 (Famille finie, cardinal d’une famille)
Une famille (xi )i∈I de E est dite finie si l’ensemble des indices I est fini .
............................................................................
Dans ce cas, le cardinal de I est appelé cardinal de la famille (xi )i∈I .
..........................................................................
Remarque
La famille vide est finie, elle est de cardinal 0 (et c’est la seule).
Une famille finie de cardinal n ∈ N∗ peut toujours se réindexer par I = {1, · · · , n}
(ou I = {0, · · · , n − 1}, etc.).
Attention : Le cardinal d’une famille finie n’est pas le nombre d’éléments distincts de cette famille (à la différence d’un ensemble). Par exemple, l’ensemble
{x, x, x} = {x} est de cardinal 1, mais la famille (x, x, x) est de cardinal 3.
4/78
Remarque
Une famille, même finie, n’est pas nécessairement indexée par des entiers. Par exemple :
(Ra , Rb , Rc , Rd ) ∈ E 4 est une famille de E de cardinal 4, indexée par l’ensemble I =
{a, b, c, d}.
Exemple
Si on considère x, y, z ∈ E, et F = (x, y, y), alors F 0 = (x, y) est une sous-famille de
F, et F 00 = (x, y, x, y, z) est une sur-famille de F.
En effet, si on pose F 00 = (a1 , a2 , a3 , a4 , a5 ), on a
F 00 = (ai )i∈I ,
F = (a1 , a2 , a4 ) = (ai )i∈J ,
F 0 = (a1 , a2 ) = (ai )i∈K ,
avec I = {1, 2, 3, 4, 5}, J = {1, 2, 4} et K = {1, 2} (on a bien K ⊂ J ⊂ I).
5/78
2)
Familles génératrices d’un espace vectoriel
Définition 5 (Combinaison linéaire d’une famille de vecteurs)
Soit (xi )i∈I une famille de vecteurs de E.
Une combinaison linéaire de la famille (xi )i∈I est un vecteur x ∈ E
..................X
.........................................................
de la forme x =
λj xj , où J est un sous-ensemble fini de I
j∈J
................................................................
et (λj )j∈J est une famille finie de "scalaires" de K (réels ou complexes) .
.........................................................................
Convention : Une somme indexée par I = ∅ vaut 0E .
Donc, la seule combinaison linéaire de la famille vide est le vecteur nul 0E .
Attention : Une combinaison linéaire est toujours une somme finie : même si
la famille de vecteurs est infinie, on ne les utilise pas tous dans la combinaison !
Définition 6 (Ensemble des combinaisons linéaires d’une famille)
Soit (xi )i∈I une famille de vecteurs de E.
On note V ect((xi )i∈I ) l’ensemble
....................................
des vecteurs qui sont combinaisons linéaires de la famille (xi )i∈I .
..................................................................
6/78
Remarque
On a V ect(∅) = {0E } . Si x ∈ E, alors V ect(x) = {λx, λ ∈ K} = Kx.
.........
........................
Proposition 7 (Engendrement d’un espace vectoriel à l’aide des C.L.)
Soit (xi )i∈I une famille de vecteurs de E. Alors, :
(i)
V ect((xi )i∈I ) est un sous-espace vectoriel de E ;
.................................................
(ii) V ect((xi )i∈I ) est le plus petit sous-espace vectoriel de E contenant
..........................................................................
tous les vecteurs xi .
.......................
On dit que V ect((xi )i∈I ) est le sous-espace engendré par (xi )i∈I .
......................................................
Preuve : Notons V = V ect((xi )i∈I ).
(i) Montrons que V est un sev de E :
• le vecteur nul 0E est combinaison linéaire des (xi )i∈I (prendre tous les coefficients nuls), donc 0E ∈ V .
• soit x, y ∈ V et λ ∈ K. Par définition de V , il existe deux sous-ensembles
finis de I, notés J et K, et des familles finies de scalaires (αi )i∈J , (βi )i∈K tels
que
X
X
x=
αi xi ,
y=
βi xi .
i∈J
i∈K
7/78
On en déduit que
λx + y =
X
i∈J
λαi xi +
X
βi xi .
i∈K
Posons alors L = J ∪K (c’est un sous-ensemble fini de I), et pour tout i ∈ L,

si i ∈ J \ K
 λαi
βi
si i ∈ K \ J .
γi =

λαi + βi si i ∈ J ∩ K
X
On a λx + y =
γi xi , ce qui montre que λx + y ∈ V .
i∈L
(ii) Il est clair que ∀i ∈ I, xi = 1xi ∈ V . Le sous-espace V contient donc tous les xi .
Montrons enfin que V est le plus petit sev de E contenant tous les xi : si W est un
autre sev de E contenant tous les xi , alors W contient toute combinaison linéaire
X
αi xi puisque W est stable par somme et multiplication externe.
i∈J
Donc V ⊂ W , ce qu’il fallait montrer.
Définition 8 (Famille génératrice)
Soit (xi )i∈I une famille de vecteurs de E.
On dit que (xi )i∈I est
.........................
une famille génératrice de E (ou "engendre E") si E = V ect((xi )i∈I ) .
...........................................................................
8/78
Remarque
• Toute sur-famille d’une famille génératrice de E est une famille génératrice de E.
• Le fait que (xi )i∈I engendre E revient à dire que E ⊂ V ect((xi )i∈I ), c’est-à-dire
que tout élément de E s’écrit comme combinaison linéaire des vecteurs xi (l’autre
inclusion V ect((xi )i∈I ) ⊂ E est triviale).
     
1
0
0
Exemple
La famille  0  ,  1  ,  0  (finie, de cardinal 3) est génératrice de R3 .
0
0
1
En effet, tout triplet (x, y, z) ∈ R3 se décompose sous la forme :
 
 
 
 
x
1
0
0
 y  = x 0  + y 1  + z 0 .
z
0
0
1
Exemple
La famille (X k )k∈N = (1, X, X 2 , · · · ) (infinie) est génératrice de R[X].
En effet, tout polynôme P ∈ R[X] s’écrit sous la forme :
P = a0 + a1 X + · · · + ad X d ,
avec a0 , · · · , ad ∈ R et d ∈ N.
9/78
Attention : Lorsqu’on veut montrer qu’une famille (xi )i∈I est génératrice d’un sousespace vectoriel F de E, il faut vérifier deux choses :
i) Que tous les vecteurs xi sont dans F , ce qui n’est pas automatique
..........................................
(ça l’est seulement si F = E). Cela assure que V ect((xi )i∈I ) ⊂ F .
ii) Que tout vecteur x ∈ F est combinaison linéaire de la famille (xi )i∈I ,
........................................................................
ce qui assure que F ⊂ V ect((xi )i∈I ).
Exemple
Dans l’espace vectoriel E = R4 , on considère le sous-espace vectoriel



La famille G1 = 

En effet, on a

x
 y

 z
t

F = {(x, y, z, t) ∈ R4 , x + 2t = 0, y = z}.
  
−2
0
 1 
0 
 ,   est génératrice de F :
0   1 
1
0

 
x
−2t

 y   z
 ∈ F ⇐⇒   = 

 z   z
t
t




0
−2

 1 
 0
 = z  + t

 1 
 0
0
1


.

10/78

    
−2
0
1
 0   1   0 

    
Mais la famille G2 = 
 0  ,  1  ,  0  n’est pas génératrice de F , bien
1
0
0
qu’elle comporte plus de vecteurs : en effet, le troisième vecteur n’appartient pas à
F ! Cette famille engendre donc un espace vectoriel plus gros que F .
Proposition 9 (Principe de réduction d’une famille génératrice)
Soit (xi )i∈I une famille génératrice de E. S’il existe i0 ∈ I tel que
...........................
xi0 ∈ V ect((xi )i∈I\{i0 } ), alors la sous-famille (xi )i∈I\{i0 } est génératrice de E .
..............................................................................
Remarque
Cela signifie que dans une famille génératrice, si on enlève un vecteur qui est combinaison linéaire des autres, on obtient encore une famille génératrice.
Preuve : Soit x ∈ E. Vu que (xi )i∈I engendre E, le vecteur x est combinaison linéaire
des xi :
X
X
x=
λi xi = λi0 xi0 +
λi xi ,
J ⊂ I, J fini.
i∈J
i∈J\{i0 }
11/78
Or, xi0 est combinaison linéaire des (xi )i∈I\{i0 } , donc on peut écrire :
xi 0 =
X
α i xi ,
i∈K
D’où x =
K ⊂ I \ {i0 },
K fini.
X
X
(λi0 αi )xi +
λi xi , ce qui montre que x est combinaison linéaire de
i∈K
i∈J\{i0 }
(xi )i∈I\{i0 } , et donc que cette sous-famille engendre E.
12/78
3)
Familles liées, familles libres
Définition 10 (Famille liée)
Une famille non vide (xi )i∈I de vecteurs de E est dite liée si
il existe une combinaison linéaire non triviale (à coefficients non tous nuls)
.................................................................................
de la famille (xi )i∈I qui soit nulle .
.....................................
En d’autres termes, cela signifie
qu’il existe un ensemble fini J ⊂ I et une
. . . . . . . . . . . . . . . . . . .P
.........................
famille finie de scalaires non tous nuls (λj )j∈J tels que j∈J λj xj = 0E .
..........................................................................
Remarque
(xi )i∈I est liée ⇐⇒
∃n ∈ N∗ , ∃(i1 , · · · , in ) ∈ I n , ∃(λ1 , . . . , λn ) ∈ Kn \ {(0, 0, · · · , 0)}
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .n. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
X
tels que
λk xik = 0E .
k=1
............................
Définition 11 (Famille libre)
Une famille non vide (xi )i∈I de vecteurs de E est dite libre si
elle n’est pas liée .
....................
En d’autres termes, cela signifie que pour tout ensemble fini J ⊂ I et
...................................
pour toute famille finie de scalaires (λj )j∈J de K, on a
. . . . . . . . . . . . . . . . . . . . . . .P
..................................
j∈J λj xj = 0E =⇒ ∀j ∈ J, λj = 0.
..........................................
13/78
Convention : La famille vide (de cardinal 0) est libre.
Exemple
Une famille (x) de cardinal 1 est libre si x 6= 0E et liée si x = 0E .
En effet :
• si x 6= 0E , alors on a λx = 0E =⇒ λ = 0.
• si x = 0E , alors on a 1K .0E = 0E (combinaison linéaire non triviale nulle).
Remarque
• Toute sur-famille d’une famille liée est liée.
• Toute sous-famille d’une famille libre est libre.
• Une famille est libre ssi toutes ses sous-familles finies sont libres.
Exemple
Dans l’e.v. RR (fonctions R → R), la famille (x 7→ cos(x), x 7→ sin(x)) est libre.
En effet :
λ cos +µ sin = 0RR =⇒ ∀x ∈ R, λ cos(x) + µ sin(x) = 0.
En évaluant en x = 0, on obtient λ = 0.
En évaluant en x = π2 , on obtient µ = 0.
14/78
Attention : Toute famille contenant 0E est liée, car
1 × 0E = 0E et 1 6= 0 .
.........................
Toute famille contenant plusieurs fois le même vecteur est liée, mais la réciproque est
fausse : la famille (x, y, x + y) est liée, même si x, y, et x + y sont distincts.
Proposition 12 (Caractérisation des familles liées)
Soit (xi )i∈I une famille non vide de vecteurs de E. Alors
(xi )i∈I est liée ⇐⇒ ∃i0 ∈ I t.q. xi0 soit combinaison linéaire de (xi )i∈I\{i0 } .
...............................................................................
(i.e. une famille est liée ssi un des vecteurs est combinaison linéaire des autres).
P
Preuve : ⇐= Evident car si xi0 =
/ J), on a
i∈J λi xi (avec J ⊂ I fini, et i0 ∈
X
1 × xi 0 −
λi xi = 0, d’où l’existence d’une combinaison linéaire nulle et non triviale,
i∈J
qui montre que (xi )i∈I est liée.
15/78
P
=⇒ Si (xi )i∈I est liée, il existe une combinaison linéaire nulle i∈J λi xi = 0E à
coefficients non tous nuls. En isolant un terme λi0 xi0 possédant un coefficient non nul,
on obtient
X λi xi 0 =
xi ,
−
λi0
i∈J\{i0 }
d’où xi0 est combinaison linéaire des autres vecteurs de la famille.
Proposition 13 (Ajout d’un vecteur à une famille libre)
Si on ajoute un vecteur x à une famille libre (xi )i∈I , alors la surfamille
..........................................................................
(x, (xi )i∈I ) est liée si et seulement si x est combinaison linéaire de (xi )i∈I .
...........................................................................
Preuve :
⇐= Déjà montré dans la proposition précédente.
16/78
=⇒ Supposons que (x, (xi )i∈I ) soit liée. Alors il existe une famille finie (λ, (λi )i∈J )
de scalaires non tous nuls (J ⊂ I, J fini) tels que
X
λx +
λi xi = 0E .
i∈J
On a nécessairement λ 6= 0, sinon
X
i∈J
λi xi = 0E , ce qui entraînerait que ∀i ∈ J, λi = 0
(puisque (xi )i∈I est libre), et ceci est contradictoire avec le fait que les scalaires sont
non tous nuls.
On peut donc diviser par λ :
X −λi xi ,
x=
λ
i∈J
ce qui montre que x ∈ V ect((xi )i∈I ).
Corollaire 14 (Principe d’extension d’une famille libre)
Si (xi )i∈I est libre et si x ∈
/ V ect((xi )i∈I ), alors la surfamille (x, (xi )i∈I ) est libre.
...................................................................................
17/78
4)
Bases
Définition 15 (Base)
Une base de E est une famille (ei )i∈I libre et génératrice de E .
..............................................
Attention : Selon l’espace E que l’on considère, une base peut être une famille infinie.
Proposition 16 (Caractérisation des bases)
Soit (ei )i∈I une famille de vecteurs de E. Alors, il y a équivalence entre
(i) (ei )i∈I est une
base de E .
...............
(ii) (ei )i∈I est une famille libre maximale de E
...................................
(c’est-à-dire toute sur-famille stricte de (ei )i∈I est liée).
(iii) (ei )i∈I est une
famille génératrice minimale de E
..........................................
(c’est-à-dire toute sous-famille stricte de (ei )i∈I n’est pas génératrice de E).
Preuve :
(i) =⇒ (ii) : Si (ei )i∈I est une base de E, alors elle est libre. Montrons qu’elle
est libre maximale : considérons une sur-famille stricte, (x, (ei )i∈I ). Vu que (ei )i∈I est
génératrice de E, le vecteur x est nécessairement combinaison linéaire des (ei )i∈I , donc
la sur-famille (x, (ei )i∈I ) est liée.
18/78
(i) =⇒ (iii) : Si (ei )i∈I est une base de E, alors elle est génératrice de E. Montrons qu’elle est génératrice minimale. Pour cela, on considère une sous-famille stricte
(ei )i∈I\{i0 } (on a retiré ei0 ). Si cette sous-famille engendre E, alors en particulier on a
ei0 qui est combinaison linéaire de (ei )i∈I\{i0 } , et donc la famille (ei )i∈I est liée, ce qui
est contradictoire, puisque c’est une base. La sous-famille (ei )i∈I\{i0 } n’est donc pas
génératrice de E, ce qui prouve le caractère minimal de (ei )i∈I .
(ii) =⇒ (i) : Si (ei )i∈I est une famille libre maximale de E, alors montrons que c’est
une base de E. Etant donné un vecteur x, la surfamille (x, (ei )i∈I ) n’est pas libre, elle
est donc liée. Mais (ei )i∈I est libre, donc x est combinaison linéaire de (ei )i∈I , ce qui
montre que la famille (ei )i∈I engendre E. C’est donc une base de E.
(iii) =⇒ (i) : Si (ei )i∈I est une famille génératrice minimale de E, alors montrons que
c’est une base de E. Si cette famille était liée, il existerait un vecteur ei0 combinaison
linéaire des autres. Mais alors, la sous-famille (ei )i∈I\{i0 } serait encore génératrice de
E, ce qui est exclu par hypothèse de minimalité. Donc la famille (ei )i∈I est libre, et
c’est bien une base de E.
Exemple
Soit n ∈ N∗ . Pour i ∈ {1, · · · , n}, on pose
ei = (0, · · · , 0, 1, 0, · · · , 0)
.............................
(le 1 étant à la ie place). Alors, la famille B = (ei )1≤i≤n est une base de Kn , appelée la
base canonique de Kn .
19/78
Exemple
La famille vide est une base de l’espace vectoriel nul {0E }.
Exemple
Si on considère C en tant qu’espace vectoriel sur le corps K = R, alors la famille
(1, i) est une base de C.
.........
Exemple
La famille (X k )k∈N est une base de l’espace vectoriel K[X] (et elle est infinie).
............
On l’appelle la base canonique de K[X].
5)
Critère d’indépendance dans K[X]
Dans l’espace des polynômes K[X], on dispose d’un critère pratique pour savoir si
une famille est libre, ou même si c’est une base de K[X] :
Proposition 17 (Critère d’indépendance linéaire)
(i) Toute famille finie (P1 , · · · , Pn ) de K[X] formée
...................................................
de polynômes non nuls de degrés deux à deux distincts est libre .
........................................................................
(ii) Toute suite (Pk )k∈N de K[X] formée de polynômes
.....................................................
non nuls de degrés deux à deux distincts est libre .
............................................................
20/78
Preuve :
(i) On procède par récurrence sur n ∈ N∗ (le cardinal de la famille).
• Pour n = 1, c’est évident car une famille formée d’un seul vecteur non nul
(ici (P1 )) est libre.
• Fixons n ∈ N∗ et supposons que le résultat soit vrai pour toute famille
de cardinal n. Considérons alors une famille (Q1 , · · · , Qn+1 ) de polynômes
non nul de degrés deux à deux distincts, et montrons qu’elle est libre.
Quitte à permuter (ça ne change pas le caractère libre ou lié de la famille),
on peut supposer que deg(Qn+1 ) > deg(Qi ) pour tout 1 ≤ i ≤ n.
Par hypothèse de récurrence, on sait que la famille (Q1 , · · · , Qn ) est libre
(puisque formée elle aussi de polynômes non nuls de degrés deux à deux distincts). Le vecteur Qn+1 n’étant pas combinaison linéaire de (Q1 , · · · , Qn )
(à cause des degrés), la surfamille (Q1 , · · · , Qn , Qn+1 ) est libre.
21/78
(ii) C’est immédiat car d’après (i), toutes les sous-familles finies de (Pk )k∈N sont
libres.
Attention : C’est une condition suffisante ! Elle n’est pas nécessaire. Il existe des
familles libres dans K[X] formée de polynômes n’ayant pas des degrés distincts.
Exemple
La famille (X, X + 1, X 2 ) est libre dans K[X].
22/78
Proposition 18 (Condition suffisante pour être une base de polynômes)
Toute suite (Pk )k∈N de K[X] telle que ∀k ∈ N, deg(Pk ) = k
..............................................................
est une base de K[X] .
.........................
Preuve :
• Déjà, une telle famille est libre, puisque formée de polynômes non nuls de degrés
deux à deux distincts.
• Fixons n ∈ N.
Tous les (Pi )0≤i≤n sont de degré ≤ n, donc la famille finie (P0 , · · · , Pn ) est une
famille de Kn [X] (de cardinal n + 1). Cette famille finie est libre (degrés distincts).
En outre, on sait que dim(Rn [X]) = n + 1, donc (P0 , · · · , Pn ) est une famille libre
maximale de Kn [X], c’est-à-dire une base de Rn [X].
En particulier, le monôme X n est combinaison linéaire de (P0 , · · · , Pn ), et donc
de la famille infinie (Pk )k∈N .
23/78
Ceci étant vrai pour tout n ∈ N, on en déduit que tout polynôme est combinaison
linéaire de la famille infinie (Pk )k∈N . Par conséquent, cette famille engendre tout
K[X].
Attention : Là encore, la condition n’est pas nécessaire.
Exemple
La suite (X, X + 1, X 2 , X 3 , X 4 , · · · ) est une base de K[X].
24/78
II
Somme de sous-espaces vectoriels
Soit E un K-espace vectoriel (pas nécessairement de dimension finie), et F1 , · · · , Fk
des sous-espaces vectoriels de E.
1)
Définition et structure
Définition 19 (Somme de sev)
On appelle somme des sous-espaces vectoriels (Fi )1≤i≤k l’ensemble
F1 + · · · + Fk = {x1 + · · · + xk , ∀i ∈ {1, · · · , k}, xi ∈ Fi }.
. . . . . . . .P
....................................................
k
On le note aussi
.
i=1 Fi
............
Remarque
Pour k = 2 : F1 + F2 est l’ensemble des vecteurs x de E de la forme x = x1 + x2 avec
x1 ∈ F1 et x2 ∈ F2 .
PropositionP
20 (Structure de la somme)
La somme ki=1 Fi est le plus petit sev de E contenant tous les Fi .
....................................................................
25/78
S
P
Preuve : Il faut montrer que ki=1 Fi est le plus petit sev de E contenant ki=1 Fi
(c’est-à-dire contenant tous les Fi ).
P
• Montrons que ki=1 Fi est un sev de E.
P
0E = ki=1 0E et 0E est dans chaque Fi , donc 0E ∈ F1 + · · · + Fk .
Si x, y ∈ F1 + · · · + Fk , alors on peut décomposer :
x = x1 + · · · + xk ,
y = y1 + · · · + yk ,
avec chaque xi , yi dans Fi .
Pour tout λ ∈ K, on a alors
k
X
λx + y =
(λxi + yi ),
i=1
avec chaque λxi + yi ∈ Fi (puisque Fi est un sev de E), ce qui montre que λx + y ∈
F1 + · · · + Fk .
P
• Montrons que Fj ⊂ ki=1 Fi pour tout j.
Soit j ∈ {1, · · · , k}, et x ∈ Fj . Puisque
x = 0E + · · · + 0E + x + 0E + · · · + 0E ,
et que 0E est dans tous les Fi , on en déduit que x ∈ F1 + · · · + Fk , d’où l’inclusion
voulue.
26/78
P
• Montrons que si G est un sev de E contenant tous les Fi , alors ki=1 Fi ⊂ G Soit
G un tel sev, et x = x1 + · · · + xk un vecteur de l’espace somme F1 + · · · + Fk .
Chaque xi est dans Fi , donc dans G. Vu que G est
P un sev de E, il est stable par
somme et donc x ∈ G, ce qui montre l’inclusion ki=1 Fi ⊂ G.
27/78
2)
Somme directe
Définition 21 (Somme directe)
On dit que les sous-espaces F1 , · · · , Fk sont en somme directe si
. . . . . . . . . . . . . . . . . . . . . . . .P
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .P
...............
pour tout vecteur x ∈ ki=1 Fi , la décomposition x = ki=1 xi
...............................................................
(avec chaque xi dans Fi ) est unique .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .P
......
Lk
n
Dans ce cas, la somme se note
i=1 Fi = F1 ⊕ · · · ⊕ Fk (ou
i=1 Fi ) .
.........................................
Proposition 22 (Caractérisation d’une somme directe)
Les sous-espaces F1 , · · · , Fk sont en somme directe si et seulement si
pour tous vecteurs x1 ∈ F1 , · · · , xk ∈ Fk , on a
................................................
x1 + · · · + xk = 0E =⇒ x1 = · · · = xk = 0E .
................................................
Preuve :
⇒ Supposons que la somme F1 +· · ·+Fk soit directe. Considérons x1 ∈ F1 , · · · , xk ∈
Fk tels que x1 + · · · + xk = 0E . Le vecteur nul s’écrit aussi 0E = 0E + · · · + 0E , donc
puisqu’il y a unicité de l’écriture en somme, on en déduit que x1 = 0E , · · · , xk = 0E .
28/78
⇐ Supposons vraie la propriété :
∀x1 ∈ F1 , · · · , ∀xk ∈ Fk ,
(x1 + · · · + xk = 0E =⇒ x1 = · · · = xk = 0E ),
et montrons que la somme F1 + · · · + Fk est directe.
Soit donc un vecteur x ∈ F1 + · · · + Fk qui admet deux décompositions :
x = x1 + · · · + xk = y1 + · · · + yk ,
avec chaque xi , yi dans Fi . On a alors
(x1 − y1 ) + · · · + (xk − yk ) = 0E ,
avec chaque xi − yi dans Fi (puisque Fi est un sev de E). D’après la propriété
supposée, on en déduit alors : x1 − y1 = · · · = xk − yk = 0E , c’est-à-dire xi = yi
pour tout i. Ceci montre que la décomposition de x en somme est unique, et donc
que la somme est directe.
29/78
Remarque
Il n’y a pas d’autre caractérisation correcte (et simple d’utilisation) de la somme directe
dans le cas où k ≥ 3.
On admet le résultat suivant, très utile en pratique :
Proposition 23 (Base adaptée à une somme directe)
Soit E un K-e.v. de dimension finie, et F1 , · · · , Fk des sev de E en somme directe.
Pour chaque i ∈ {1, · · · , k}, on considère Bi une base de Fi . Alors :
(i)
n’importe quelle famille obtenue en réunissant B1 , · · · , Bk
...............................................................
est une base de l’espace somme F1 ⊕ · · · ⊕ Fk , dite "base adaptée à la
................................................
somme directe F1 ⊕ · · · ⊕ Fk ".
L
P
k
k
(ii) on a dim
F
i=1 i =
i=1 dim(Fi ) .
........................................
30/78
Lorsqu’on a seulement deux sous-espaces, on dispose d’une caractérisation plus
simple de la somme directe :
Proposition 24 (Caractérisation d’une somme directe de deux sev)
F1 et F2 sont en somme directe si et seulement si F1 ∩ F2 = {0E } .
.......................................................................
Preuve :
⇒ Supposons la somme F1 + F2 directe.
Si x ∈ F1 ∩ F2 , alors 0E = x + (−x), avec x ∈ F1 et −x ∈ F2 (puisque x ∈ F2 et
que F2 est un sev de E). D’après la prop 22, on a donc x = −x = 0E .
⇐ Supposons que F1 ∩ F2 = {0E }.
Montrons que la somme F1 + F2 est directe en utilisant la caractérisation de la prop
22. Si x1 + x2 = 0E avec x1 ∈ F1 et x2 ∈ F2 , alors x1 = −x2 , si bien que −x2 ∈ F1 ,
et donc x2 ∈ F1 (par stabilité de F1 ). On en déduit que x2 ∈ F1 ∩ F2 = {0E },
c’est-à-dire x2 = 0E , et donc x1 = −x2 = 0E .
31/78
Attention : Cette caractérisation est fausse avec trois sev ou plus !
Exemple
Dans R2 , les trois droites
D1 = {(x; y) ∈ R2 , y = x},
D2 = {(x; y) ∈ R2 , y = 2x},
D3 = {(x; y) ∈ R2 , y = −x}
(qui sont des sous-espaces vectoriels de dimension 1) ne sont pas en somme directe,
sinon le sous-espace somme D1 + D2 + D3 = D1 ⊕ D2 ⊕ D3 serait de dimension 3, ce
qui est impossible (tous les sous-espaces de R2 sont de dimension ≤ 2).
Pourtant on a Di ∩ Dj = {(0; 0)} pour tout couple (i; j) avec i 6= j.
32/78
3)
Sous-espaces supplémentaires
Définition 25 (Sous-espaces supplémentaires)
On dit que deux sous-espaces vectoriels F et G de E sont supplémentaires
...............................................................................
s’ils sont en somme directe et si E = F ⊕ G .
...............................................
Remarque
F et G sont supplémentaires dans E ⇐⇒
F ∩ G = {0E } et F + G = E .
...............
..................
Cela revient à dire que tout vecteur de E se décompose de manière unique sous la
forme
x = x 1 + x2 ,
x1 ∈ F, x2 ∈ G.
Rappelons les résultats suivants, vu en sup :
Proposition 26 (Existence d’un supplémentaire en dimension finie)
Si E est de dimension finie, et si F est un sous-espace vectoriel de E, alors F
possède au moins un supplémentaire G dans E. De plus, dim(G) = dim(E) − dim(F ).
33/78
Proposition 27 (Formule de Grassmann)
Soit E un espace vectoriel de dimension finie, et F et G deux sev de E. Alors
dim(F + G) = dim(F ) + dim(G) − dim(F ∩ G).
Preuve : L’ensemble F ∩ G est un sous-espace vectoriel de F (qui est lui-même un
espace vectoriel de dimension finie). Considérons un supplémentaire de F ∩ G dans F ,
on le note F1 . On a (F ∩ G) ⊕ F1 = F , donc dim(F ∩ G) + dim(F1 ) = dim(F ).
Montrons que F1 est aussi un supplémentaire de G dans F + G :
• Puisque F1 ⊂ F , on a F1 ∩ G = (F ∩ F1 ) ∩ G = (F ∩ G) ∩ F1 = {0E }, donc la
somme F1 + G est directe.
• On a déjà F1 + G ⊂ F + G.
Montrons l’inclusion réciproque : si x ∈ F + G, alors x = x1 + x2 avec x1 ∈ F et
x2 ∈ G. Puisque F = (F ∩ G) + F1 , on peut écrire x1 = y + z avec y ∈ F ∩ G et
z ∈ F1 . D’où
x = y + z + x2 = |{z}
z + (y + x2 ),
| {z }
∈F1
∈G
ce qui montre que x ∈ F1 + G, et donc que F + G ⊂ F1 + G.
Finalement, on a F + G = F1 ⊕ G, d’où
dim(F + G) = dim(F1 ⊕ G) = dim(F1 ) + dim(G) = (dim(F ) − dim(F ∩ G)) + dim(G).
34/78
Corollaire 28 (Caractérisations de deux supplémentaires)
Soit E un espace vectoriel de dimension finie, et F et G deux sev de E. Alors, il y
a équivalence entre
(i) F et G sont supplémentaires dans E ;
(ii) F ∩ G = {0E } et dim(F ) + dim(G) = dim(E) ;
(iii) F + G = E et dim(F ) + dim(G) = dim(E).
Preuve :
(i) =⇒ (ii) Si E = F ⊕ G, on a, puisque la somme est directe, F ∩ G = {0E },
ainsi que
dim(F ) + dim(G) = dim(F ⊕ G) = dim(E).
(ii) =⇒ (iii) Si F ∩ G = {0E } et dim(F ) + dim(G) = dim(E), alors d’après la
formule de Grassmann,
dim(F + G) = dim(F ) + dim(G) − dim(F ∩ G) = dim(E) − 0 = dim(E).
Vu que F + G est un sous-espace vectoriel de E ayant même dimension que E, on
en déduit que F + G = E.
35/78
(iii) =⇒ (i) Si F + G = E et dim(F ) + dim(G) = dim(E), alors, toujours par la
formule de Grassmann,
dim(F ∩ G) = dim(F ) + dim(G) − dim(F + G) = dim(E) − dim(F + G) = 0,
donc F ∩ G = {0E }, ce qui montre que F + G = F ⊕ G. Finalement, on a bien
E = F ⊕ G.
36/78
III
1)
Compléments sur les applications linéaires
Action d’une appl. linéaire sur les familles de vecteurs
Dans cette section, on fixe deux K-espaces vectoriels E et F .
Proposition 29 (Image d’une famille génératrice)
Soit f ∈ L(E, F ). Si (xi )i∈I est une famille génératrice de E,
.................................................
alors la famille-image (f (xi ))i∈I est une famille génératrice de Im(f ) .
........................................................................
Preuve : Tous les vecteurs f (xi ) (pour i ∈ I) sont dans Im(f ).
Montrons que tout vecteur de Im(f ) s’écrit comme combinaison linéaire de la famille
(f (xi ))i∈I . Si y ∈ Im(f ), alors il existe x ∈ E tel que y = f (x).
On a E = V ect((xi )i∈I ) par hypothèse, donc x se décompose :
X
x=
λj xj ,
J ⊂ I,
J fini .
j∈J
Par linéarité de f , on a alors y =
P
j∈J
λj f (xj ), donc y ∈ V ect((f (xi ))i∈I ).
37/78
Attention : L’image d’une famille génératrice de E n’est pas nécessairement une famille génératrice de F !
Proposition 30 (Image d’une famille liée/libre)
Soit f ∈ L(E, F ) et soit (xi )i∈I une famille de vecteurs de E.
(i)
Si (xi )i∈I est liée, alors (f (xi ))i∈I est liée dans F .
....................................................
(ii) Si (f (xi ))i∈I est libre, alors (xi )i∈I est libre .
..............................................
(iii) Si f est injective et (xi )i∈I est libre, alors (f (xi ))i∈I est libre .
................................................................
Preuve :
(i) Puisque (xi )i∈I est liée,X
il existe J ⊂ I fini, et une famille de scalaires (λj )j∈J
non tous nuls tels que
λj xj = 0E . Par linéarité de f , on en déduit que
j∈J
X
λj f (xj ) = f (0E ) = 0F ,
j∈J
ce qui montre que la famille (f (xi ))i∈I est liée (puisque les λj sont non tous
nuls).
38/78
(ii) Contraposée du point (i).
(iii) Soit J ⊂ I fini, et une famille de scalaires (λj )j∈J tels que
Par linéarité de f , on obtient
f
X
j∈J
λ j xj
!
X
λj f (xj ) = 0F .
j∈J
= 0F = f (0E ).
P
Mais f est injective, donc j∈J λj xj = 0E .
Enfin, la famille (xi )i∈I étant libre, on en déduit que λj = 0 pour tout j ∈ J,
ce qui montre que la famille (f (xi ))i∈I est libre.
Attention : L’image d’une famille libre n’est pas libre en général.
39/78
Proposition 31 (Image d’une base)
Soit f ∈ L(E, F ) et soit (ei )i∈I une base de E.
(i)
f est injective ssi (f (ei ))i∈I est libre dans F .
................................................
(ii) f est surjective ssi (f (ei ))i∈I est génératrice de F .
......................................................
(iii) f est un isomorphisme ssi (f (ei ))i∈I est une base de F .
...........................................................
Remarque
Les isomorphismes sont donc les applications linéaires qui envoient une base de E sur
une base de F .
Preuve :
(i)
⇒ (ei )i∈I étant une base de E, elle est libre, donc d’après la proposition
précédente, (f (ei ))i∈I est libre (puisque f est injective).
⇐ Soit x ∈ Ker(f ). On a f (x) = 0F . Or, x se décompose sur la base
(ei )i∈I :
X
x=
xj ej ,
J ⊂ I, J fini.
j∈J
Donc, par linéarité de f :
X
xj f (ej ) = f (x) = 0F . La famille (f (ei ))i∈I
j∈J
40/78
étant libre, on en déduit que les xj = 0, et donc x = 0E . Ceci montre que
Ker(f ) = {0E }, et donc que f est injective.
(ii) On sait d’après la prop 29 que V ect((f (ei ))i∈I ) = Im(f ). On a donc
V ect((f (ei ))i∈I ) = F ⇐⇒ Im(f ) = F ⇐⇒ f est surjective.
(iii) Compilation des deux points précédents.
41/78
Proposition 32 (Action sur le rang des familles)
Soit f ∈ L(E, F ) et (xi )1≤i≤p une famille finie de vecteurs de E. Alors
(i)
rg(f (xi )1≤i≤p )) ≤ rg((xi )1≤i≤p ).
...................................
(ii) Si f est injective, alors rg(f (xi )1≤i≤p )) = rg((xi )1≤i≤p ).
...................................
Remarque
En d’autres termes, une application linéaire fait baisser le rang en général.
Une application linéaire injective conserve le rang.
42/78
Preuve :
(i) Considérons H = V ect((xi )1≤i≤p ) (le sous-espace vectoriel de E engendré par
les (xi )i∈I ). Notons r = rg((xi )1≤i≤p ) = dim(H) ≤ p, et considérons (ei )1≤i≤r
une base de H. On a donc H = V ect((xi )1≤i≤p ) = V ect((ei )1≤i≤r ).
En appliquant la proposition 29 à la restriction f|H : H → F , on obtient
f (H) = V ect((f (xi ))1≤i≤p ) = V ect((f (ei ))1≤i≤r ).
La famille (f (ei ))1≤i≤r est donc génératrice de f (H) et de cardinal r, d’où
dim(f (H)) ≤ r.
(rappelons que la dimension est le cardinal des familles génératrices minimales).
On conclut rg((f (xi ))1≤i≤p ) = dim(f (H)) ≤ r = rg((xi )1≤i≤p ).
(ii) Si de plus f est injective, alors la famille (f (ei ))1≤i≤r est également libre d’après
la prop 30 (puisque c’est l’image d’une famille libre par une injection linéaire).
D’où (f (ei ))1≤i≤r est une base de f (H), ce qui entraîne
dim(f (H)) = r.
On en conclut rg((f (xi ))1≤i≤p ) = dim(f (H)) = r = rg((xi )1≤i≤p ).
43/78
2)
Projecteurs et symétries
Définition 33 (Projecteur sur F parallèlement à G)
Soit E un K-espace vectoriel et F, G deux sous-espaces supplémentaires dans E (i.e.
F ⊕ G = E). On appelle projecteur sur F parallèlement à G l’application
...................................................................
pG
:
E
→
E
qui à tout x ∈ E associe l’unique x1 ∈ F tel que x − x1 ∈ G .
F
............................................................................
Attention : Cette définition a un sens car F et G sont supplémentaires dans E.
Remarque
On définit de même le projecteur sur G parallèlement à F , noté pFG . On a
puisque
F
pG
F + pG = IdE ,
...................
F
pour tout x = x1 + x2 ∈ E, (pG
F + pG )(x) = x1 + x2 = x.
............................................................
F
On dit que pG
F et pG sont les projecteurs associés à la décomposition E = F ⊕ G.
Dessin :
44/78
Proposition 34 (Caractérisation des projecteurs)
Soit E un K-espace vectoriel et p : E → E.
Alors, p est un projecteur si et seulement si p est linéaire et p ◦ p = p.
....................................................................
Dans ce cas, p est le projecteur sur Im(p) parallèlement à Ker(p) .
..........
...........
Preuve :
⇒ Soit p le projecteur sur F parallèlement à G (avec E = F ⊕ G).
• p est linéaire : si x, y ∈ E et λ ∈ K, alors
∃!(x1 , y1 ) ∈ F 2 , ∃!(x2 , y2 ) ∈ G2 ,
x = x1 + x2 ,
y = y1 + y2 .
Par définition de p, on a p(x) = x1 et p(y) = y1 .
On a donc λx + y = (λx1 + y1 ) + (λx2 + y2 ), avec λx1 + y1 ∈ F et λx2 + y2 ∈ G
(par stabilité de F et G). D’où
p(λx + y) = λx1 + y1 = λp(x) + p(y).
• Avec les notations précédentes, on a
(p ◦ p)(x) = p(p(x)) = p(x1 ) = p( x1 + 0E ) = x1 = p(x),
|{z} |{z}
donc p ◦ p = p.
∈F
∈G
45/78
• On a Ker(p) = {x ∈ E, p(x) = 0E } = {x1 + x2 ∈ F ⊕ G, x1 = 0E } = G.
De plus, pour tout x ∈ E, p(x) ∈ F , donc Im(p) ⊂ F .
Réciproquement, si y ∈ F , alors la décomposition de y sur la somme directe
est y = y + 0E , donc p(y) = y, ce qui montre que y ∈ Im(p) (il est son propre
antécédent).
On a donc Im(p) = F .
⇐ Si p : E → E est un endomorphisme tel que p ◦ p = p, alors on a
E = Im(p) ⊕ Ker(p).
En effet, étant donné un vecteur x ∈ E, montrons qu’il existe un unique couple
(x1 , x2 ) ∈ Im(p) × Ker(p) tel que x = x1 + x2 . Pour cela, on procède par "analysesynthèse" :
• Si x = x1 + x2 avec (x1 , x2 ) ∈ Im(p) × Ker(p), alors il existe t ∈ E tel que
x1 = p(t).
Par linéarité de p :
p(x) = p(x1 ) + p(x2 ) = p(p(t)) + 0E = (p ◦ p)(t) = p(t) = x1 .
Donc x1 = p(x) et x2 = x − p(x), ce qui montre l’unicité de la décomposition.
• En posant x1 = p(x) et x2 = x − p(x), on a x = x1 + x2 , puis x1 ∈ Im(p) et
x2 ∈ Ker(p), puisque
p(x2 ) = p(x − p(x)) = p(x) − p(p(x)) = (p − p ◦ p)(x) = 0E ,
d’où l’existence d’une telle décomposition.
46/78
• Finalement, pour tout x ∈ E, le vecteur p(x) est l’unique vecteur de Im(p) tel
que x − p(x) ∈ Ker(p), ce qui montre que p est le projecteur sur F := Im(p)
par rapport à G := Ker(p).
47/78
Attention : Si un endomorphisme p ∈ L(E) vérifie p ◦ p = p, alors c’est un projecteur et on a automatiquement la décomposition E = Ker(p) ⊕ Im(p).
..........................
Mais la réciproque est fausse : on peut avoir E = Ker(p) ⊕ Im(p) sans que l’endomorphisme p soit un projecteur.
Remarque
• Pour tout projecteur p, on a la décomposition
∀x ∈ E,
x = x − p(x) + p(x) .
| {z } |{z}
∈Ker(p)
∈Im(p)
....................................
• A retenir : pour tout projecteur p, on a
Im(p) = {x ∈ E, p(x) = x} = Ker(p − IdE ).
.................................................
En effet : Si p(x) = x, alors x ∈ Im(p), puisque c’est sa propre image par p.
Si x ∈ Im(p), alors ∃t ∈ E tel que x = p(t), d’où p(x) = (p ◦ p)(t) = p(t) = x.
On a donc également la décomposition
E = Ker(p) ⊕ Ker(p − IdE ).
.................................
48/78
Définition 35 (Symétrie par rapport à F et parallèlement à G)
Soit E un K-espace vectoriel et F, G deux sous-espaces supplémentaires de E (i.e.
F ⊕ G = E) On appelle symétrie par rapport à F et parallèlement à G
...................................................................
l’application sG
F : E → E qui à tout vecteur x = x1 + x2 ∈ E = F ⊕ G
.........................................................................
.
associe sG
F (x) = x1 − x2
...........................
Remarque (Relation entre symétries et projecteurs)
G
F
G
F
• On remarque que sG
.
F = pF − pG = 2pF − IdE = IdE − 2pG
............................................
• On définit de même la symétrie sFG par sFG (x1 + x2 ) = −x1 + x2 , ∀(x1 , x2 ) ∈ F × G .
...............................................
Dessin :
49/78
Proposition 36 (Caractérisation des symétries)
Soit E un K-espace vectoriel et s : E → E.
Alors, s est une symétrie si et seulement si s est linéaire et s ◦ s = IdE .
......................................................................
Dans ce cas, s est la symétrie par rapport à
Ker(s − IdE )
parallèlement à
.................
Ker(s + IdE ) .
.................
Preuve : Admis (car très similaire au cas des projecteurs).
Remarque
• Toute symétrie s est un automorphisme de E, et on a s−1 = s, puisque s◦s = IdE .
• Si un endomorphisme s ∈ L(E) vérifie s ◦ s = IdE , alors c’est une symétrie et
on a automatiquement la décomposition E = Ker(s − IdE ) ⊕ Ker(s + IdE ).
........................................
Attention : Pour une symétrie s, Ker(s) = {0E } et Im(s) = E (car s bijective).
.................................
Remarque
Pour toute symétrie s, on a la décomposition
1
1
∀x ∈ E,
x = (x + s(x)) + (x − s(x)) .
|2 {z
} |2 {z
}
∈Ker(s−IdE )
∈Ker(s+IdE )
................................................
50/78
3)
Formes linéaires et hyperplans
On considère un K-espace vectoriel E.
Définition 37 (Forme linéaire sur E)
Une forme linéaire sur E est une application linéaire φ : E → K .
.....................................................................
Exemple
n
• Pour tout vecteur a = (a
1 , · · · , an ) den K , l’application
K −→ K
φ:
(x1 , · · · , xn ) 7−→ a1 x1 + · · · + an xn
.................................................
est une forme linéaire sur Kn .
• L’application ψ : K[X] → K définie par ψ(P ) = P (1) est une forme linéaire
.................
sur K[X].
Lemme 38 (Rang d’une forme linéaire)
Une forme linéaire φ : E → K est soit nulle, soit de rang 1 .
.............................................................
Preuve : Im(φ) est un sev de K, et dim(K) = 1, donc rg(φ) = dim(Im(φ)) ∈ {0; 1}. 51/78
Définition 39 (Hyperplan d’un espace vectoriel de dimension finie)
On suppose que E est de dimension finie n ∈ N∗ .
Un hyperplan de E est un sous-espace vectoriel H de dimension n − 1 .
..........................................................................
Exemple
Les hyperplans du plan R2 sont les droites "vectorielles" (celles qui passent par (0; 0)).
Les hyperplans de l’espace R3 sont les plans "vectoriels" (ceux qui passent par (0; 0; 0)).
Proposition 40 (Noyau d’une forme linéaire non nulle)
Soit une forme linéaire φ : E → K non nulle avec E de dimension finie.
...........................................................................
Alors Ker(φ) est un hyperplan de E .
........................................
Preuve : D’après le théorème du rang :
dim(Ker(φ)) = dim(E) − dim(Im(φ)) = dim(E) − rg(φ).
La forme linéaire φ étant non nulle, elle est de rang 1 (voir prop 38).
Donc dim(Ker(φ)) = n − 1.
52/78
Exemple
Pour tout vecteur a = (a1 , · · · , an ) ∈ Kn non nul, l’ensemble
H = {(x1 , · · · , xn ) ∈ Kn , a1 x1 + · · · + an xn = 0}
......................................................
est un hyperplan de Kn
(en effet, H est le noyau de la forme linéaire φ : (x1 , · · · , xn ) 7→ a1 x1 + · · · + an xn ).
. . . . . . . .
. . . . . . . .
. . . . . . . .
................
 a  
− a12
− aa31
− aan1
 1   0 
 0 

 



 0   1 
 0 

 



 0   0 
 0 
Si a1 6= 0, une base de H est

,
,··· ,

 ..   .. 
 .. 
 .   . 
 . 

 



 0   0 
 0 
0
0
1
...........................................
Exemple
3
L’ensemble H= {(x,
z) ∈ R
, x + 2y + 3z = 0} est un hyperplan de R3 , et une base
y,
−2
−3



1
0 .
de H est
,
0
1
.........................
53/78
Proposition 41 (Caractérisation comme supplémentaire d’une droite)
Soit E de dimension finie et H un sous-espace vectoriel de E.
H est un hyperplan ssi il existe D sev de dimension 1 tel que E = H ⊕ D .
............................................................................
Preuve :
⇒ Si H est un hyperplan de E, alors en tant que sous-espace vectoriel d’un espace
vectoriel de dimension finie, H possède au moins un supplémentaire, noté D.
Nécessairement, dim(D) = dim(E) − dim(H) = n − (n − 1) = 1.
⇐ Si E = H ⊕D avec dim(D) = 1, alors on a dim(H) = dim(E)−dim(D) = n−1,
donc H est un hyperplan de E.
Remarque
En d’autres termes, les hyperplans sont les supplémentaires des droites.
C’est cette définition qu’on adopte si on veut parler d’hyperplan de E lorsque E est de
dimension infinie.
54/78
IV
1)
Changements de base
Rappels
Définition 42 (Matrice de passage d’une base à une autre)
Soit E un K-e.v. de dimension n ∈ N∗ muni de deux bases B = (e1 , · · · , en ) et
B 0 = (e01 , · · · , e0n ).
La matrice de passage de B à B0 est la matrice de la famille B 0
.....................................................................
dans la base B, c’est-à-dire la matrice P ∈ Mn (K) dont les colonnes sont
.............................................................................
les coordonnées des (e0j )1≤j≤n dans la base (ei )1≤i≤n . On la note P = M atB (B 0 ) .
.................................................................................
e0 e0
· · · e0n
1 2

e1
∗ ∗ ······ ∗
Remarque
 ∗ ∗ · · · · · · ∗  e2

Schématiquement, P = M atB (B 0 ) = 
..
 ∗ ∗ ······ ∗ 
.


 ∗ ∗ ······ ∗ 
∗ ∗ ······ ∗
en
....................................................
(on exprime “les nouveaux vecteurs en fonction des anciens”).
On remarque que P = M atB0 ,B (IdE ) : en effet IdE (e0j ) = e0j pour tout j.
.........................................................
55/78
Attention : Lorsqu’on envisage P comme la matrice de IdE : E → E :
* la "nouvelle" base B 0 = (e0j )1≤j≤n est à la source (espace de départ),
* l’"ancienne" base B = (ei )1≤i≤n est au but (espace d’arrivée).
Proposition 43 ("Matrices de passage=matrices inversibles")
Soit E un K-e.v. de dimension n ∈ N∗ .
(i) Toute matrice de passage P (d’une base B de E à une autre base B 0 de E) est
inversible : P = M atB (B 0 ) ∈ GLn (K) et P −1 = M atB0 (B).
(ii) Réciproquement, toute matrice inversible P ∈ GLn (K) est une matrice de
passage entre deux bases de E.
Preuve :
(i) On a P = M atB0 ,B (IdE ), et l’application IdE est bijective, donc sa matrice
représentative P est bijective. De plus, P −1 = M atB,B0 (Id−1
E ) = M atB,B0 (IdE ) =
M atB0 (B).
(ii) Si P est une matrice carrée inversible, alors en notant B une base quelconque
de E, il existe un unique endomorphisme f : E → E tel que P = M atB,B (f ).
Puisque P est inversible, f est bijectif, donc la famille image f (B) est aussi une
base de E, notée B 0 (on rappelle qu’un isomorphisme transforme une base en
une base). Du coup, les colonnes de P représentent les coordonnées des vecteurs
de B 0 dans la base B, ce qui montre que P est la matrice de passage de B à B 0 .
56/78
Remarque
• Une même matrice inversible P peut représenter plusieurs changements de
bases différents : par exemple, une matrice P ∈ GL3 (R) peut être vue comme :
- une matrice de passage entre deux bases de R3 .
- une matrice de passage entre deux bases de R2 [X].
• L’endomorphisme IdE : x 7→ x peut donc se représenter par d’autres matrices
que In (en prenant des bases source et but différentes).
Exemple


1 0
0
0  (elle est bien inversible, car de rang 3).
Soit P =  2 1
1 −1 3
- P est la matrice de passage de B à B 0 avec B = (e1 , e2 , e3 ) n’importe quelle base
de R3 (par exemple la base canonique) et B 0 = (e1 + 2e2 + e3 , e2 − e3 , 3e3 ).
....................................
- Mais P est aussi la matrice de passage de B1 à B2 avec B1 = (1, X, X 2 ) la base
canonique de R2 [X] et B2 = (1 + 2X + X 2 , X − X 2 , 3X 2 ) .
......................................
- Ou encore P est la matrice de passage de B3 à B4 avec B3 = (P1 , P2 , P3 ) une base
quelconque de R2 [X] et B4 = (P1 + 2P2 + P3 , P2 − P3 , 3P3 ) .
......................................
57/78
Notation : Soit E un K-ev de dim. n ≥ 1 et soit B = (e1 , · · · , en ) une base de E. Pour
x ∈ E, on notera [x]B le vecteur colonne de Kn formé des coordonnées de x dans la
base B.
Proposition 44 (Formule de changement de coordonnées)
Soit E un K-e.v. de dimension n ∈ N∗ , et B, B 0 deux bases de E.
Notons P ∈ GLn (K) la matrice de passage de B à B 0 . Alors, pour tout x ∈ E, on a
[x]B = P [x]B0 .
.................
Attention : Inversion vecteurs/coordonnées !
Avec P , on obtient donc “les anciennes coordonnées en fonction des nouvelles” :
X = P X 0 , avec X = [x]B et X 0 = [x]B0
..............
(alors que P représente "les nouveaux vecteurs en fonction des anciens").
Preuve : En utilisant l’expression matricielle de l’image d’un vecteur (voir sup), on a
[x]B = [IdE (x)]B = M atB0 ,B (IdE ) × [x]B0 = P [x]B0 .
58/78
Proposition 45 (Formule de changement de bases pour f ∈ L(E, F ))
Soit E un K-e.v. de dimension p ∈ N∗ muni de deux bases BE et BE0 .
Soit F un K-e.v. de dimension n ∈ N∗ muni de deux bases BF et BF0 .
Soit f ∈ L(E, F ). On note
A = M atBE ,BF (f ) ∈ Mn,p (K),
A0 = M atBE0 ,BF0 (f ) ∈ Mn,p (K)
...........................................................................
(les matrices de f dans deux choix de bases différents),
0
P = M atBE (BE
) ∈ GLp (K),
Q = M atBF (BF0 ) ∈ GLn (K)
.......................................................................
(P est la matrice de passage de BE à BE0 , et Q celle de BF à BF0 ). Alors on a
A0 = Q−1 AP.
.................
Corollaire 46 (Cas du changement de base simultané pour f ∈ L(E))
Soit E un K-ev de dimension n ∈ N∗ muni de deux bases BE et BE0 .
Soit f ∈ L(E). On note
A = M atBE ,BE (f ) ∈ Mn (K),
A0 = M atBE0 ,BE0 (f ) ∈ Mn (K),
.........................................................................
0
et P = M atBE (BE
) ∈ GLn (K) la matrice de passage de BE à BE0 . On a alors
..................................
A0 = P −1 AP.
.................
59/78
Preuve : Toujours d’après la formule de composition, on a
A0 = M atBE0 ,BF0 (f ) = M atBE0 ,BF0 (IdF ◦ f ◦ IdE )
= M atBF ,BF0 (IdF ) × M atBE ,BF (f ) ×M atBE0 ,BE (IdE ).
|
{z
}
=A
Or, par définition des matrices de passage P et Q, on a
P = M atBE0 ,BE (IdE ),
et donc
Q = M atBF0 ,BF (IdF ),
M atBF ,BF0 (IdF ) = Q−1 ,
d’où
A0 = Q−1 AP.
Preuve : On obtient directement le corollaire en posant P = Q dans la preuve précédente.
60/78
2)
Matrices semblables
Dorénavant, nous allons considérer des endomorphismes f ∈ L(E) = L(E, E),
et écrire leur matrices (carrées) dans des choix de bases du type (BE , BE ) (même base
à la source et au but). On adopte la notation
M atBE (f ) := M atBE ,BE (f ).
...............................
Définition 47 (Matrices semblables)
Soit n ∈ N∗ et A, B ∈ Mn (K). On dit que B est semblable à A si
.........................................
il existe une matrice inversible P ∈ GLn (K) telle que B = P −1 AP .
.....................................................................
Proposition 48 (Propriétés de la relation de similitude sur Mn (K))
On fixe n ∈ N∗ . Pour toutes matrices A, B, C ∈ Mn (K) :
(i) A est semblable à A ("réflexivité"),
(ii) si B est semblable à A, alors A est semblable à B ("symétrie"),
(iii) si B est semblable à A et si C est semblable à B, alors C est semblable à A
("transitivité").
On dira alors "A et B sont semblables" plutôt que "B est semblable à A".
61/78
Preuve : Fixons n ∈ N∗ et A, B, C ∈ Mn (K).
(i) En posant P = In , on a A = P −1 AP , donc A est semblable à A.
(ii) Supposons que B = P −1 AP avec P ∈ GLn (K). En posant Q = P −1 , on a alors
Q ∈ GLn (K), et
A = P BP −1 = Q−1 BQ,
donc A est semblable à B.
(iii) Supposons que B = P −1 AP et C = Q−1 BQ avec P, Q ∈ GLn (K).
En posant R = P Q, on a alors R ∈ GLn (K), et
C = Q−1 BQ = Q−1 (P −1 AP )Q = (P Q)−1 A(P Q) = R−1 AR,
d’où C est semblable à A.
62/78
Proposition 49 (Caractérisation des matrices semblables)
Soient E un K-e.v. de dimension n et A, B ∈ Mn (K). Alors :
A et B sont semblables ⇐⇒ A et B représentent un même endomorphisme
f ∈ L(E) dans des bases (BE , BE ) et (BE0 , BE0 ),
Preuve : Cela résulte de la formule de changement de base d’une application linéaire. Attention : Il est nécessaire dans chaque choix de bases d’avoir la même base à la
source et au but !
Remarque
• Deux matrices semblables ont même rang (puisqu’elles représentent le même endomorphisme), mais la réciproque
est fausse.
0 1
1 0
Par exemple, les matrices A =
et I2 =
ont même rang (c’est
2 0
0 1
2), mais ne sont pas semblables :
en effet, seule I2 est semblable à I2 (pour tout P ∈ GL2 (K), P −1 I2 P = P −1 P = I2 ) .
.......................................................................................
• En général, il est difficile de savoir si deux matrices sont semblables.
63/78
Proposition 50 (P −1 AP puissance k)
Soient A, B ∈ Mn (K).
(i) Pour toute P ∈ GLn (K) et tout k ∈ N, on a
(P −1 AP )k = P −1 Ak P.
..........................
(ii) Si A est semblable à B, alors pour tout k ∈ N, Ak est semblable à B k .
..........................
Preuve : On montre par récurrence sur k ∈ N la formule
∀k ∈ N,
∀P ∈ GLn (K),
(P −1 AP )k = P −1 Ak P.
Le reste est trivial.
64/78
65/78
V
Compléments sur les matrices
n et p désignent des entiers naturels non nuls.
1)
Base des matrices élémentaires
Définition 51 (Matrice élémentaire Ei,j )
Pour tout couple (i, j) ∈ [[1, n]] × [[1, p]], on note Ei,j la matrice de Mn,p (K)
.......................................
1 si (k, l) = (i, j)
définie par : Ei,j [k, l] =
0 sinon
.................................................
C’est la matrice dont tous les coefficients sont nuls sauf le (i, j)e qui vaut 1.
Proposition 52 (Base des matrices élémentaires)
Les n × p matrices (E1,1 , E1,2 , · · · , E1,p , E2,1 , · · · , En,1 , · · · En,p ),
.................................................................
appelées matrices élémentaires de Mn,p (K), forment une base
.....................................................................
de l’espace vectoriel Mn,p (K). On a donc dim(Mn,p (K)) = n × p .
...................................................................
66/78
Preuve : C’est trivial d’après l’identité A =
p
n X
X
ai,j Ei,j , vraie pour toute matrice
i=1 j=1
A = (ai,j ). Cette identité assure que la famille de matrices (Ei,j )(i,j)∈[[1,n]]×[[1,p]] est libre
et génératrice.
67/78
2)
Transposition, matrices symétriques, antisymétriques
Définition 53 (Transposée d’une matrice)
Si A ∈ Mn,p (K), alors on appelle transposée de A la matrice B ∈ Mp,n (K) obtenue
en échangeant les lignes et les colonnes de A :
bi,j = aj,i ,
∀(i, j) ∈ [[1, p]] × [[1, n]].
........................................
On note B = AT ou B = t A .
............
...........
Exemple


1
2 1 −1
T

0
∈ M3,2 (R), alors A =
∈ M2,3 (R) .
1 0 4
4
. . . . . . . . . . . . . .
.. . . . . .. . . .√
....
.......

1 −5
2 1
3
0
e  ∈ M3 (R), alors B T =  1 0 −1  ∈ M3 (R)
−1 4
−5 e 4
.....................................
(transposer une matrice carrée revient à faire une symétrie par rapport à sa diagonale).
2

1
Si A =
−1

2

Si B =
√1
3
68/78
Proposition 54 (Linéarité de la transposition)
Mn,p (K) −→ Mp,n (K)
est une appli. linéaire :
(i) La transposition T :
A
7−→
AT
∀A, B ∈ Mn,p (K), ∀λ ∈ K,
(λA + B)T = λAT + B T
.............................................................
(ii) De plus, on a ∀A ∈ Mn,p (K),
(AT )T = A.
...................................
Preuve : Notons A = (ai,j )1≤i≤n, 1≤j≤p et B = (bi,j )1≤i≤n, 1≤j≤p .
(i) Soit λ ∈ K. Le coefficient d’ordre (i, j) de la matrice λA + B est :
(λA + B)[i, j] = λai,j + bi,j ,
donc (λA + B)T [i, j] = λaj,i + bj,i = λAT [i, j] + B T [i, j] = (λAT + B T )[i, j].
Ceci étant vrai pour tout couple (i, j), on en déduit que (λA+B)T = λAT +B T .
(ii) Clair car (AT )T [i, j] = AT [j, i] = ai,j = A[i, j], donc (AT )T = A.
Proposition 55 (Invariance du rang par transposition)
Pour toute A ∈ Mn,p (K), on a rg(AT ) = rg(A) .
....................
Preuve : Admis (difficile).
69/78
Proposition 56 (Transposée d’un produit, d’un inverse)
(i) Pour toutes (A, B) ∈ Mn,p (K) × Mp,q (K), on a (AB)T = B T AT .
...................
T
(ii) Si A ∈ Mn (K), alors A est inversible ssi A est inversible, et dans ce cas,
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
−1 T
T −1
on a (A ) = A
.
...........................
Preuve :
(i) Fixons (i, j) ∈ [[1, n]] × [[1, q]]. Le coefficient (i, j) du produit AB ∈ Mn,q (K)
vaut :
p
X
(AB)[i, j] =
A[i, k]B[k, j],
k=1
donc
T
(AB) [i, j] = [AB](j, i) =
p
X
A[j, k]B[k, i] =
k=1
Ceci se réécrit
T
(AB) [i, j] =
p
X
p
X
AT [k, j]B T [i, k].
k=1
B T [i, k]AT [k, j] = (B T AT )[i, j].
k=1
70/78
Ceci étant vrai pour tout (i, j), on en déduit (AB)T = B T AT .
(ii)
• Si A est inversible, alors AA−1 = In , donc en transposant et en utilisant
(i) :
(A−1 )T AT = In ,
En partant de A−1 A = In , on montre de même que
AT (A−1 )T = In .
On conclut que AT est inversible et que (AT )−1 = (A−1 )T .
• Si AT est inversible, alors d’après le point précédent, (AT )T = A est inversible.
En définitive, on a bien l’équivalence A ∈ GLn (K) ⇐⇒ AT ∈ GLn (K).
71/78
Définition 57 (Matrices symétriques, antisymétriques)
Une matrice carrée A ∈ Mn (K) est dite
symétrique si AT = A ,
...........................
antisymétrique si AT = −A . On note Sn (K) (resp. An (K)) l’ensemble des ma.................................
trices symétriques (resp. antisymétriques).
Remarque
• Une matrice carrée symétrique est une matrice dont les coefficients sont symétriques par rapport à sa diagonale) :
A ∈ Sn (K) ⇐⇒
∀(i, j) ∈ {1, . . . , n}2 , aj,i = ai,j .
...................................
• Si A ∈ Mn (K) est antisymétrique, alors ses coefficients diagonaux sont nuls (mais
la réciproque est fausse bien entendu). En effet, on a
A ∈ An (K) ⇐⇒
∀(i, j) ∈ {1, . . . , n}2 , aj,i = −ai,j ,
.....................................
ce qui entraîne :
A ∈ An (K) =⇒ ∀i ∈ {1, . . . , n}, ai,i = −ai,i =⇒ ∀i ∈ {1, . . . , n}, ai,i = 0.
................................................................................
Exemple 



2 1 7
0
1 −7
4  ∈ A3 (R).
On a A =  1 0 4  ∈ S3 (R), et A =  −1 0
7 4 9
7 −4 0
72/78
3)
Trace d’une matrice
Définition 58 (Trace d’une matrice carrée)
Soit A = (ai,j )1≤i,j≤n ∈ Mn (K). On appelle trace de A le nombre
. . . . . . .P
..............................
T r(A) = ni=1 ai,i ∈ K.
...........................
Remarque
La trace d’une matrice carrée est donc la somme de ses éléments diagonaux.
Proposition 59 (Linéarité de la trace)
L’application T r : Mn (K) → K, A 7→ T r(A) est une forme linéaire .
.....................................................................
Preuve : Soit A, B ∈ Mn (K) et λ ∈ K. On a
n
n
n
X
X
X
T r(λA + B) =
(λA + B)[i, i] = λ
A[i, i] +
B[i, i] = λT r(A) + T r(B).
i=1
i=1
i=1
73/78
Proposition 60 (Trace d’un produit)
Soient A, B ∈ Mn (K). Alors, on a T r(AB) = T r(BA) .
.......................
Preuve : Pour tout 1 ≤ i ≤ n, le coefficient (i, i) de AB vaut
(AB)[i, i] =
n
X
A[i, k]B[k, i],
k=1
donc
T r(AB) =
n
X
(AB)[i, i] =
i=1
n
n
X
X
i=1
A[i, k]B[k, i]
k=1
!
=
T r(BA) =
B[i, k]A[k, i] =
i=1 k=1
n X
n
X
A[i, k]B[k, i].
i=1 k=1
En inversant les rôles de A et B, on a
n X
n
X
n
n X
X
A[k, i]B[i, k].
i=1 k=1
En échangeant alors les noms des indices muets i, j, on obtient
T r(BA) =
n X
n
X
A[i, k]B[k, i].
k=1 i=1
74/78
Mais l’ordre de sommation n’a pas d’importance ici (on a
T r(BA) =
n X
n
X
P P
i
k
=
P P
k
i ),
donc
A[i, k]B[k, i] = T r(AB).
i=1 k=1
Attention : On n’a pas T r(AB) = T r(A) × T r(B) !
75/78
4)
Trace d’un endomorphisme
Proposition 61 (Deux matrices semblables ont même trace)
Soit A et B dans Mn (K). Si A et B sont semblables, alors T r(A) = T r(B) .
....................................................
Preuve : Par hypothèse, on a B = P −1 AP , avec P ∈ GLn (K).
On utilise alors la propriété T r(CD) = T r(DC), valable pour toutes matrices C, D ∈
Mn (K) :
T r(B) = T r(P −1 AP ) = T r(P −1 (AP )) = T r((AP )P −1 ) = T r(A(P P −1 )) = T r(A).
Attention : La proposition n’admet pas de réciproque : deux
matrices
ayant la
1 1
1 0
même trace ne sont pas nécessairement semblables (par exemple,
et
0 1
0 1
ont même trace mais ne sont pas semblables).
76/78
Définition 62 (Trace d’un endomorphisme)
E désigne un K-espace vectoriel de dimension n ∈ N∗ .
On appelle trace d’un endomorphisme f ∈ L(E) la trace de sa matrice
.............................................................................
dans n’importe quelle base B de E :
.....................................
tr(f ) := tr (M atB (f )) ∈ K.
..............................
Remarque
Cette définition a un sens car toutes les matrices représentatives de f avec même base
à la source et au but sont semblables entre elles, et donc ont même trace.
Attention : Il est absolument nécessaire d’avoir la même base à la source et
au but, sinon la trace change.
Exemple
On a tr(IdE ) = n , puisque pour toute base B de E, on a M atB (IdE ) = In .
................
.....................
77/78
Exemple (Trace d’un projecteur)
Si p est un projecteur de E, alors tr(p) = rg(p).
En effet, en considérant une base B adaptée à la somme directe Im(p) ⊕ Ker(p) = E
(cette égalité a lieu car p est un projecteur), on a
Ir 0
M atB (p) =
∈ Mn (K),
0 0
où r = dim(Im(p)) = rg(p).
En effet, on a Im(p) = Ker(p − IdE ), donc on a p(x) = x pour tout x ∈ Im(p), ce qui
donne les r premières colonnes de M atB (p).
Cette matrice a une trace égale à r = 1 + 1 + · · · + 1 (r fois), donc tr(p) = r.
78/78
Exemple (Trace d’une symétrie)
Si s est une symétrie de E, alors tr(s) = dim(Ker(s − IdE )) − dim(Ker(s + IdE )).
En effet, en considérant une base B adaptée à la somme directe
Ker(s − IdE ) ⊕ Ker(s + IdE ) = E (cette égalité a lieu car s est une symétrie), on a
Ir
0
M atB (s) =
∈ Mn (K),
0 −In−r
où r = dim(Ker(s − IdE )).
En effet, on a s(x) = x pour tout x ∈ Ker(s − IdE ), ce qui donne les r premières
colonnes de M atB (s) et s(x) = −x pour tout x ∈ Ker(s + IdE ), ce qui donne les n − r
dernières colonnes.
Cette matrice a une trace égale à (1 + · · · + 1) + (−1 − 1 − · · · − 1) = r − (n − r).
Téléchargement