Untitled

publicité
0
UNIVERSITÉ PAUL SABATIER
ALGÈBRE LINÉAIRE
ET
BILINÉAIRE
(Résumé de cours)
Claude WAGSCHAL
Avertissement
Ce texte est un résumé du cours d’algèbre linéaire et bilinéaire de la Licence
(L2). Ce texte ne comporte aucune démonstration.
Chapitre 1
Rappels et Notations
1.1
Espaces vectoriels
Tous les espaces vectoriels seront des espaces vectoriels (en abrégé e.v.) sur un
corps K qui sera soit le corps R des nombres réels, soit le corps C des nombres
complexes.
Si E est un e.v., un sous-espace vectoriel (en abrégé s.e.v.) est une partie non
vide F ⊂ E stable par les opérations de E, c’est-à-dire
(x, y) ∈ F × F ⇒ x + y ∈ F et (λ, x) ∈ K × F ⇒ λx ∈ F.
L’addition (resp. la multiplication par les scalaires) par restriction à F × F (resp.
K × F ) définissent une structure vectorielle sur F .
Si B est une partie de E, il existe un plus petit (pour l’inclusion) sous-espace
vectoriel contenant B, appelé sous-espace vectoriel engendré par B que nous noterons s.e.v.(B). Ce sous-espace vectoriel coïncide avec l’ensemble des combinaisons linéaires (finies) d’éléments de B.
Une partie B de E est dite libre si pour toute famille finie (xi )i∈I d’éléments
distincts de B et toute famille (λi )i∈I de scalaires
X
λi xi = 0 ⇒ λi = 0 pour tout i ∈ I.
i∈I
On dit qu’une famille (xi )i∈I d’éléments de E est libre si, pour toute partie finie
4
CHAPITRE 1 RAPPELS ET NOTATIONS
J de I et toute famille (λi )i∈J de scalaires
X
λi xi = 0 ⇒ λi = 0 pour tout i ∈ J.
i∈J
S
Ceci signifie que les xi sont distincts et que la partie i∈I {xi } est libre.
On dit qu’une partie B de E engendre E, ou que B est une partie génératrice,
si tout x ∈ E peut s’écrire comme une combinaison linéaire d’éléments de B, soit
X
x=
λi xi où I est un ensemble fini, xi ∈ B, λi ∈ K.
i∈I
Une partie libre qui engendre l’espace E est appelée une base de E.
Si un e.v. admet une base finie admettant n éléments, toute autre base est finie et admet n éléments. Cet entier n est alors appelé la dimension de E, il sera
noté dim K E ou simplement dim E s’il n’y a pas d’ambiguïté sur le corps. Si
B = (e1 , . . . , en ) [on notera que nous avons ordonné les vecteurs de base, ceci est
essentiel pour l’écriture matricielle des applications linéaires] est une base d’un
espace de dimension n, tout x de E s’écrit d’une seule façon
n
X
x=
xi ei où xi ∈ K.
i=1
Dans un e.v. de dimension n, toute partie libre admet au plus n éléments ; toute
partie libre admettant n éléments est une base et toute partie libre est contenue dans
une base (théorème de la base incomplète).
Si un e.v. E admet une partie génératrice finie M , alors E est de dimension finie et M contient une base de E. De plus, si E est de dimension finie n, toute partie
génératrice admet au moins n éléments et c’est une base si elle admet exactement
n éléments.
Tout sous-espace vectoriel F d’un e.v. E de dimension finie est de dimension
finie et dim F ≤ dim E ; de plus,
E = F ⇐⇒ dim E = dim F.
1.2
Application linéaire
Étant donné deux e.v. E et F , on note L(E; F ) l’espace vectoriel des applications linéaires de E dans F . Lorsque E = F , une aplication linéaire de E dans E
est appelée un endomorphisme de E et on pose L(E) = L(E; E).
Rappelons qu’une algèbre A est un e.v. muni d’une loi de composition interne
(x, y) 7→ xy associative et bilinéaire. Une algèbre est dite unitaire s’il existe un
élément e ∈ A tel que ex = xe = x pour tout x ∈ A. Par exemple, L(E)
est pour la composition des endomorphismes une algèbre unitaire (e = IE ) non
commutative si dim E ≥ 2.
Soit T ∈ L(E; F ), on définit le noyau et l’image de T par
Ker T = T −1 (0) = {x ∈ E ; T x = 0} et Im T = T (E).
1.3 REPRÉSENTATION MATRICIELLE
5
Ce sont des s.e.v. de E et F respectivement et l’application T est injective si, et
seulement si, son noyau est réduit à 0.
Si T ∈ L(E; F ) est une bijection linéaire, la bijection réciproque
T −1 : F → E est linéaire ; on dit que T est un isomorphisme et que les espaces
E et F sont isomorphes. Lorsque E = F , on parle d’automorphisme.
Si E et F sont isomorphes et si E est de dimension finie, alors F est de dimension finie et dim E = dim F . Tout e.v. de dimension finie n est isomorphe à
Kn .
Soit T ∈ L(E; F ) où E et F sont de dimension finie, alors
dim E = dim Ker T + dim Im T.
Si, de plus, E et F sont de même dimension, on a les équivalences
T est injective ⇔ T est surjective ⇔ T est un isomorphisme.
1.3
Représentation matricielle
Soient E et F deux e.v. de dimension finie, on pose
q = dim E et p = dim F.
Soient BE = (e1 , . . . , eq ) et BF = (f1 , . . . , fp ) des bases de E et F et soit
T ∈ L(E; F ). On pose
p
X
T ej =
aij fi , aij ∈ K.
i=1
Si x =
Pq
j=1 xj ej ∈ E, on a alors
Tx =
p
X
i=1
yi fi où yi =
q
X
aij xj .
j=1
La matrice
AT = (aij ) 1≤i≤p
1≤j≤q
est une matrice de type (p, q), c’est-à-dire à p lignes et q colonnes, dite matrice
représentative de T dans les bases BE et BF . On notera Mp,q (K) l’espace vectoriel des matrices de type (p, q). L’application T 7→ AT est un isomorphisme de
L(E; F ) sur Mp,q (K). Si G est un troisième e.v. de dimension finie muni d’une
base BG et si S ∈ L(F ; G), on a alors
AS◦T = AS AT (produit des matrices représentatives).
Lorsque E est un espace de dimension finie n muni d’une base BE , la matrice
représentative d’un endomorphisme de E est une matrice carrée de type (n, n) ;
l’espace Mn,n (K) des matrices carrées est une algèbre unitaire, l’élément unité,
noté In , est la matrice diagonale dont les éléments diagonaux valent 1 et l’application A ∈ L(E) 7→ AT ∈ Mn,n (K) est un isomorphisme d’algèbre. L’ensemble
6
CHAPITRE 1 RAPPELS ET NOTATIONS
GL(E) des automorphismes de E est un groupe pour la composition des applications qu’on appelle le groupe linéaire de E ; de même l’ensemble GL(n; K) des
matrices A ∈ Mn,n (K) inversibles est un groupe pour le produit des matrices et
l’application A ∈ GL(E) 7→ AT ∈ GL(n; K) est un homomorphisme de groupe.
Revenons à la situation envisagée au début de ce paragraphe et considérons
0
deux autres bases BE
= (e01 , . . . , e0q ) et BF0 = (f10 , . . . , fp0 ) de E et F repectivemen. On appelle matrice de passage de la base BE (dite ancienne base)
0
à la base BE
(dite nouvelle base) la matrice représentative de l’application
0
IE : (E, BE ) → (E, BE ). Si Q = (qij )1≤i,j≤q désigne cette matrice, on a par
définition
q
X
e0j =
qij ei .
i=1
On retiendra que les vecteurs colonnes de la matrice de passage sont les coordonnées dans l’ancienne base des vecteurs de la nouvelle base. Rappelons que cette
matrice Q est inversible, soit Q ∈ GL(q; K), la matrice inverse étant la matrice
0
à la base BE . On définit de même la matrice de passage
de passage de la base BE
P ∈ GL(p; K) de la base BF à la base BF0 . Notons A et A0 les matrices représen0
tatives de T ∈ L(E; F ) dans les bases BE , BF et BE
, BF0 respectivement. On a
alors la relation
A0 = P −1 AQ.
Deux matrices A, A0 ∈ Mp,q (K) liées par une telle relation où P ∈ GL(p; K),
0
= BF0 )
Q ∈ GL(q; K) sont dites équivalentes. Lorsque E = F (BE = BF , BE
la relation précédente s’écrit
A0 = P −1 AP
et on dit que les matrices A et A0 sont semblables. Ces relations sont des relations d’équivalence. La matrice repésentative d’un endomorphisme T ∈ L(E)
n’est donc définie qu’à une similitude près. Le problème étudié dans les chapitres
suivants est de déterminer une base de E telle que la matrice repésentative de
T ∈ L(E) soit aussi simple que possible.
1.4
Déterminants
Soit E un e.v. de dimension n muni d’une base B = (e1 , . . . , en ), alors il existe
une unique forme n-linéaire alternée (ou antisymétrique) notée détB : E n → K
telle que
Pn détB (e1 , . . . , en ) = 1. Elle est donnée par la formule suivante. Soient
xi = j=1 xij ej n vecteurs de E, alors
X
détB (x1 , . . . , xn ) =
ε(σ)x1 σ(1) × . . . × xn σ(n)
σ∈Sn
où Sn désigne le groupe symétrique, groupe des permutations de l’ensemble
{1, . . . , n}, et ε(σ) est la signature de la permutation σ.
1.4 DÉTERMINANTS
7
On définit alors le déterminant d’un endomorphisme T ∈ L(E) par
dét T = détB (T e1 , . . . , T en ) ;
ce scalaire ne dépend pas du choix de la base B. Les propriétés du déterminant sont supposées connues. Rappelons simplement qu’un endomorphisme T
est un automorphisme si, et seulement si, dét T 6= 0 et que l’application
dét : GL(E) → K∗ est un homomorphisme de groupe sur le groupe multiplicatif K∗ .
Une matrice carrée A = (aij )1≤i,j≤n peut toujours être considérée comme
la matrice représentative d’un endomorphisme T ∈ L(E) ; on définit alors le
déterminant de A en posant dét A = dét T . On vérifie que
X
ε(σ)aσ(1) 1 × . . . × aσ(n) n
détA =
σ∈Sn
et ceci prouve que le scalaire détA ne dépend pas du choix de l’espace E et de la
base de cet espace. Les règles usuelles de calcul des déterminants sont supposées
acquises.
8
CHAPITRE 1 RAPPELS ET NOTATIONS
Chapitre 2
Réduction des
endomorphismes
2.1
Valeur propre, vecteur propre
Soient E un e.v. de dimension n ≥ 1, T ∈ L(E) un endomorphisme et λ ∈ K
un scalaire, on pose
Tλ = T − λIE
et
Eλ = Ker Tλ = {x ∈ E ; T x = λx}.
Alors, ou bien Tλ est un automorphisme, ou bien Tλ n’est pas injectif, c’est-à-dire
Eλ 6= {0}. Ceci conduit à la définition suivante.
Définition 2.1.1 Un scalaire λ ∈ K est appelé une valeur propre de T si Tλ n’est
pas injectif. Un vecteur x ∈ Eλ , x 6= 0, est appelé un vecteur propre associé
à la valeur propre λ et Eλ le sous-espace propre associé à la valeur propre λ.
L’ensemble σ(T ) ⊂ K des valeurs propres est appelé le spectre de T .
Dire que λ est une valeur propre signifie donc que
P (λ) ≡ dét Tλ = dét (T − λIE ) = 0.
10
CHAPITRE 2 RÉDUCTION DES ENDOMORPHISMES
Si B = (e1 , . . . en ) est une base de E et A = (aij )1≤i,j≤n ∈ Mn,n (K) la
matrice représentative de T dans cette base, on a
X
ε(σ) aσ(1) 1 −λδσ(1) 1 ×. . .× aσ(n) n −λδσ(n) n
P (λ) = dét (A−λIn ) =
σ∈Sn
où δij désigne le symbole de Kronecker. Ceci montre que P est un polynôme de
degré n de la forme
n−1
X
P (λ) = (−1)n λn +
αj λj , αj ∈ K.
j=0
Ce polynôme s’appelle le polynôme caractéristique de l’endomorphisme T ; les
scalaires αj ne dépendent que de l’endomorphisme T . On a par exemple
α0 = dét T et on définit la trace de T par
n
X
n−1
ajj .
Tr T = (−1)
αn−1 =
j=1
Un endomorphisme T admet au plus n valeurs propres. Lorsque K = C,
le théorème de D’Alembert permer d’affirmer qu’il existe exactement n valeurs
propres λ1 , . . . , λn , chaque valeur propre étant répétée un nombre de fois égal à
sa multiplicité. On a alors
n
Y
P (λ) = (−1)n
(λ − λj ),
j=1
d’où
dét T =
n
Y
λj , Tr T =
j=1
n
X
λj .
j=1
Remarque 2.1.1 Une matrice A = (aij )1≤i,j≤n ∈ Mn,n (K) peut être considérée
comme la matrice représentative d’un unique endomorphisme T ∈ L(Kn ), Kn
étant muni de sa base canonique, à savoir
n
X
T : x = (xj )1≤j≤n ∈ Kn 7→
aij xj
∈ Kn .
j=1
1≤i≤n
Les valeurs propres de A seront par définition les valeurs propres de T , etc. Dans
la pratique, on notera encore A l’endomorphisme associé à la matrice A et on
utilisera pour les matrices la même terminologie que pour les endomorphismes.
Une matrice à coefficients réels peut être considérée comme une matrice à
coefficients complexes et il faut éventuellement préciser le corps. Par exemple, si
on note σK (A) le spectre de A, on a
σR (A) = σC (A) ∩ R
et il faut bien distinguer le spectre réel et le spectre complexe.
Proposition 2.1.1 Soient λ1 . . . , λp p valeurs propres distintes de T ∈ L(E) et
x1 , . . . , xp des vecteurs propres associés à ces valeurs propres, alors la famille
(xi )1≤i≤p est libre.
2.2 ENDOMORPHISME DIAGONALISABLE
11
Ceci peut être précisé comme suit.
Définition 2.1.2 Soient E un e.v., E1 , . . .,Ep des s.e.v., on définit la somme de ces
sous-espaces vectoriels par
p
X
F ≡ E1 + . . . + Ep =
Ei = {x1 + . . . + xp ; xi ∈ Ei pour tout 1 ≤ i ≤ p}.
i=1
Alors, F est un s.e.v. de E et on dit que F est la somme directe des sous-espaces
Ei si tout x ∈ F s’écrit d’une seule manière
x = x1 + . . . + xp où xi ∈ Ei .
On écrit alors
F =
p
M
Ei .
i=1
Dire que la somme
Pp
i=1
Ei est directe signifie donc que
∀xi ∈ Ei , x1 + . . . + xp = 0 =⇒ xi = 0 pour tout 1 ≤ i ≤ p.
On peut alors définir des projecteurs linéaires pi : F → Ei en posant
pi (x) = xi si x = x1 + . . . + xp , xj ∈ Ej .
Proposition 2.1.2
PpSoient λ1 . . . , λp p valeurs propres distintes de T ∈ L(E),
alors la somme i=1 Eλi est directe.
On utilisera ultérieurement la caractérisation suivante.
Proposition 2.1.3 On suppose E de dimension finie, avec les notations de la définition 2.1.2 on a l’équivalence
des propriétés suivantes
Pp
1. la somme F = i=1 Ei est directe,
2. soit Bi = (eij )1≤j≤ni , ni = dim Ei , une base de Ei , alors B = (eij ) 1≤i≤p
1≤j≤ni
est une base de F
P, p
3. dim F = i=1 dim Ei .
2.2
Endomorphisme diagonalisable
Définition 2.2.1 Un endomorphisme T ∈ L(E) est dit diagonalisable s’il existe
une base de E telle que sa matrice représentative dans cette base soit diagonale.
Une matrice A ∈ Mn,n (K) est dite diagonalisable si elle est semblable à une
matrice diagonale.
Une matrice diagonale A = (aij )1≤i,j≤n sera notée A = diag (λ1 , . . . , λn )
où λi = aii . Son polynôme caractéristique s’écrit
n
Y
(−1)n
(λ − λi ).
i=1
Ceci conduit à la définition suivante.
12
CHAPITRE 2 RÉDUCTION DES ENDOMORPHISMES
Définition 2.2.2 Un polynôme P ∈ K[λ] de degré n est dit scindé si
n
Y
P (λ) = a
(λ − λi ) où a ∈ K∗ et λi ∈ K.
i=1
Lorsque K = C, tout polynôme est scindé (D’Alembert) ; il n’en est rien sur R.
Le polynôme caractéristique d’un endomorphisme diagonalisable est nécessairement scindé ; sur R, on obtient ainsi une condition nécessaire pour qu’un
endomorphisme soit diagonalisable, mais cette condition n’est pas suffisante.
Théorème 2.2.1 (caractérisation des endomorphismes diagonalisables) Soient
λ1 , . . . , λp les valeurs propres distinctes d’un endomorphisme T ∈ L(E), alors
les propriétés suivantes sont équivalentes
1. T est diagonalisable,
2. il existe
Lpune base de E constituée de vecteurs propres,
3. E = i=1
λi ,
PE
p
4. dim E = i=1 dim Eλi .
Corollaire 2.2.2 Un endomorphisme admettant n valeurs propres distinctes est
diagonalisable et ses sous-espaces propres sont de dimension 1.
Définition 2.2.3 Un endomorphisme T ∈ L(E) (resp. une matrice A ∈ Mn,n (K))
est dit nilpotent s’il existe un entier k ≥ 1 tel que T k = 0 (resp. Ak = 0). Le plus
petit entier k ≥ 1 tel que T k = 0 (resp. Ak = 0) est appelé l’indice de nilpotence
de T (resp. A).
On a alors la
Proposition 2.2.3 Un endomorphisme nilpotent diagonalisable est nécessairement
nul.
Considérons par exemple la matrice
0 1
A=
.
0 0
On vérifie que A2 = 0 ; cette matrice est donc nilpotente, donc non diagonalisable,
alors que son polynôme caractéristique P (λ) = λ2 est scindé.
Voici enfin une propriété concernant la dimension des sous-espaces propres qui
permettra d’établir une autre caractérisation des endomorphismes diagonalisables.
Proposition 2.2.4 Soient λ une valeur propre de T de multiplicité m, c’est-à-dire
P (X) = (X − λ)m Q(X) où Q ∈ K[X], Q(λ) 6= 0,
alors
dim Eλ ≤ m.
En particulier, si λ est une valeur propre simple (m = 1), le sous-espace propre
est de dimension 1.
Corollaire 2.2.5 Un endomorphisme T ∈ L(E) est diagonalisable si, et seulement si, son polynôme caractéristique est scindé et si, pour toute valeur propre λ,
la dimension du sous-espace propre est égale à la multiplicité de λ.
2.3 POLYNÔMES D’ENDOMORPHISME
13
Remarque 2.2.1 Pour calculer la dimension des sous-espaces propres, on peut
utiliser la formule
dim Eλ = n − r
où r est le rang de T −λIE ; rappelons que, par définition, ce rang est la dimension
de l’image de T − λIE .
Un endomorphisme dont le polynôme caractéristique est scindé n’est pas nécessairement diagonalisable, mais nous allons montrer qu’il est toujours trigonalisable.
Une matrice A = (aij )1≤i,j≤n ∈ Mn,n (K) est dite triangulaire supérieure
(resp. inférieure) si aij = 0 si i > j (resp. i < j). On vérifie qu’une matrice triangulaire inférieure est toujours semblable à une matrice triangulaire supérieure ;
nous raisonnerons donc avec des matrices triangulaires supérieures.
Définition 2.2.4 Un endomorphisme T ∈ L(E) est dit trigonalisable s’il existe
une base de E pour laquelle la matrice représentative de T est triangulaire supérieure.
On a alors la caratérisation suivante.
Proposition 2.2.6 Un endomorphisme T ∈ L(E) est trigonalisable si, et seulement si, son polynôme caractéristique est scindé.
2.3
Polynômes d’endomorphisme
Soient T ∈ L(E) un endomorphisme et P ∈ K[X] un polynôme à une indéterminée, on pose
m
m
X
X
P (T ) =
aj T j si P (X) =
aj X j , aj ∈ K
j=0
j=0
où T 0 = IE . On définit ainsi un endomorphisme P (T ) ∈ L(E). On définit de
même P (A) si A ∈ Mn,n (K) est une matrice. On notera que, pour tout
P, Q ∈ K[X],
(P + Q)(T ) = P (T ) + Q(T ) et (P Q)(T ) = P (T ) ◦ Q(T ) = Q(T ) ◦ P (T ).
Théorème 2.3.1 (Cayley-Hamilton) Soient T ∈ L(E), P son polynôme caractéristique, alors P (T ) = 0.
Corollaire 2.3.2 Soit T ∈ L(E) un endomorphisme dont le polynôme caractéristique est scindé, alors les propriétés suivantes sont équivalentes
1. T est nilpotent,
2. toutes les valeurs propres de T sont nulles,
3. le polynôme caractéristique de T est P (X) = (−1)n X n .
Le théorème de Cayley-Hamilton conduit à s’intéresser à l’ensemble des polynômes annulateurs de T , soit
Z = {P ∈ K[X] ; P (T ) = 0}.
14
CHAPITRE 2 RÉDUCTION DES ENDOMORPHISMES
On a alors la
Proposition 2.3.3 Soit T ∈ L(E), il existe un unique polynôme unitaire m ∈ Z,
m 6= 0, dit polynôme minimal de T , tel que
1 ≤ degré m ≤ degré P pour tout P ∈ Z, P 6= 0.
De plus, un polynôme P ∈ K[X] appartient à Z si, et seulement si, il existe un
polynôme Q ∈ K[X] tel que P = mQ.
Proposition 2.3.4 L’ensemble des racines du polynôme minimal coïncide avec le
spectre de T . Plus précisément, si λ est une valeur propre de multiplicité q, soit
P (X) = (X − λ)q Q(X), Q(λ) 6= 0,
alors
m(X) = (X − λ)r R(X), R(λ) 6= 0 et 1 ≤ r ≤ q.
Corollaire 2.3.5 Si le polynôme caractéristique de T est scindé, il en est de même
du polynôme minimal.
Le polynôme minimal va nous permettre de donner une nouvelle caractérisation des endomorphismes diagonalisables. Nous utiliserons le résultat suivant.
Théorème 2.3.6 (lemme des noyaux) Soient T ∈ L(E) un endomorphisme,
P1 , . . . , Pk ∈ K[X] des polynômes deux à deux premiers entre eux et P = P1 ×
. . . × Pk , alors
k
M
Ker P (T ) =
Ker Pj (T ).
j=1
Théorème 2.3.7 Un endomorphisme T ∈ L(E) est diagonalisable si, et seulement si, son polynôme minimal est scindé et à racines simples.
Corollaire 2.3.8 Soient T ∈ L(E) un endomorphisme diagonalisable et F un
s.e.v. de E stable par T , alors T |F ∈ L(F ) est un endomorphisme diagonalisable.
Corollaire 2.3.9 Si T, T 0 ∈ L(E) sont des endomorphismes diagonalisables qui
commutent, alors T + T 0 est un endomorphisme diagonalisable. Plus précisément,
il existe une base de vecteurs propres communs.
Exemple 2.3.1 Soit T ∈ L(E) tel que T k = IE , k ≥ 1, on suppose K = C, alors
T est diagonalisable et ses valeurs propres sont des racines k ième de l’unité.
2.4
Sous-espaces caractéristiques
Soit T ∈ L(E) un endomorphisme, dans ce paragraphe on suppose son polynôme caractéristique scindé, soit
p
Y
n
P (X) = (−1)
(X − λi )mi où λi 6= λj si i 6= j.
i=1
2.4 SOUS-ESPACES CARACTÉRISTIQUES
15
D’après le lemme des noyaux, on a
p
M
E=
Ci où Ci = Ker (T − λi IE )mi .
i=1
Le s.e.v. Ci s’appelle le sous-espace caractéristique associé à la valeur propre λi .
On vérifie que
Eλi ⊂ Ci et T (Ci ) ⊂ Ci .
On peut donc définir des endomorphismes Ti ∈ L(Ci ) en posant Ti = T |Ci ;
notons Pi le polynôme caractéristique de Ti .
Choisissons une base Bi de Ci et soit Ai la matrice représentative de Ti dans
cette base. Alors B = (B1 , . . . , Bp ) est une base de E et la matrice représentative
de T dans cette baseQest la matrice diagonale par blocs A = diag (A1 , . . . , Ap ). Il
p
en résulte que P = i=1 Pi .
Lemme 2.4.1 On a dim Ci = mi et Pi = (−1)mi (X − λi )mi .
Remarque 2.4.1 Les polynômes Pi étant scindés, on peut choisir les bases Bi
telles que les matrices Ai soient triangulaires supérieures, la matrice A est alors triangulaire supérieure. De plus, on observera que la matrice Ai s’écrit alors
Ai = Di + Ni où Di = diag (λi , . . . , λi ) et Ni est une matrice triangulaire supérieure dont la diagonale est nulle, donc nilpotente d’après le théorème de CayleyHamilton.
Voici une application de ce qui précède à la résolution des relations de récurrence linéaires. On se donne un entier k ≥ 1, des nombres complexes α0 , . . . , αk−1
où α0 6= 0 et on cherche les suites (un )n≥0 telles que
(2.4.1)
un+k = αk−1 un+k−1 + . . . + α0 un pour tout entier n ≥ 0.
Notons E l’espace de toutes les solutions de (2.4.1) ; E est un s.e.v. de CN . Définissons une application f : Ck → E : si v = (vj )0≤j≤k−1 ∈ Ck , on note
u = f (v) ∈ E la solution de (2.4.1) telle que uj = vj pour 0 ≤ j ≤ k − 1. Alors,
f : Ck → E est un isomorphisme et E est de dimension k.
Afin de déterminer une base de E, on considère l’application linéaire
Φ : (un )n≥0 ∈ CN 7→ (un+1 )n≥0 ∈ CN .
Vu que Φ(E) ⊂ E, on peut définir un endomorphisme Ψ = Φ|E ∈ L(E) et
l’application
g = f −1 ◦ Ψ ◦ f : (u0 , . . . , uk−1 ) ∈ Ck 7→ (u1 , . . . , uk ) ∈ Ck .
On a uk = αk−1 uk−1 + . . . + α0 u0 et la matrice représentative de g dans la base
canonique de Ck est


0
1 0 . . .
0
0 1 0 . .
0 
 .


.
. . . .
0 
 .


.
. . . .
0 .
 .


.
. . . .
0 
 .


.
.
. . . 0
1
α0 α1 . . . . αk−1
16
CHAPITRE 2 RÉDUCTION DES ENDOMORPHISMES
Le polynôme caractéristique de Ψ
est égal à celui de la matrice A
et on vérifie que
P (X) = (−1)k X k − αk−1 X k−1 − . . . − α0 .
On pose
k
P (X) = (−1)
p
Y
(X − λi )mi , Ci = Ker (Ψ − λi IE )mi .
i=1
Lp
On a donc E = i=1 Ci et dim Ci = mi . On vérifie que Ci = Ker (Φ−λi ICN )mi
et on en déduit que u = (un )n≥0 appartient à Ci si, et seulement si, pour tout
n ≥ 0,
m m i
i
un+mi −
λi un+mi −1 +
λ2i un+mi −2 − · · ·
1
2
mi
i
+(−1)mi
λm
i un = 0.
mi
On montre que ces équations admettent pour solutions les mi suites linéairement indépendantes
un = λni nq , n ∈ N où 0 ≤ q ≤ mi − 1.
On obtient ainsi une base de Ci , d’où une base de E.
2.5
Décomposition de Dunford
Théorème 2.5.1 Soit T ∈ L(E) un endomorphisme dont le polynôme caractéristique est scindé, alors T s’écrit d’une façon unique sous la forme
T = D + N (décomposition de Dunford)
où D est un endomorphisme diagonalisable, N un endomorphisme nilpotent et
les endomorphismes D et N commutent. De pus, on peut choisir une base Bi de
chaque sous-espace caractéristique telle que, dans cette base, la matrice représentative Ai de Ti soit de la forme Ai = Di + Ni où Di = diag (λi , . . . , λi ) et
Ni est une matrice triangulaire supérieure dont la diagonale est nulle.
Remarque 2.5.1 L’endomorphisme T = D + N est diagonalisable si, et seulement si, N = 0.
L’existence d’une telle décomposition résulte de la remarque 2.4.1. Notons
T = D + N cette décomposition qui vérifie la propriété suivante
p
p
X
X
si x =
xi , xi ∈ Ci , alors Dx =
λi xi .
i=1
i=1
Pour établir l’unicité, on utilisera la proposition 2.2.3, le corollaire 2.3.9 et les
lemmes suivants.
Lemme 2.5.2 Soit T = D0 + N 0 une autre décomposition de Dunford, alors D et
D0 commutent, ainsi que N et N 0 .
Lemme 2.5.3 Si N, N 0 ∈ L(E) sont deux endomorphismes nilpotents qui commutent, N + N 0 est un endomorphisme nilpotent.
2.6 RÉDUCTION DES ENDOMORPHISMES NILPOTENTS
2.6
17
Réduction des endomorphismes nilpotents
Théorème 2.6.1 Soit T ∈ L(E) un endomorphisme nilpotent dont le polynôme
caractéristique est scindé, alors il existe une base de E dans laquelle la matrice
représentative de T est diagonale par blocs, chaque bloc étant de la forme


0 1 0 . . . .
. 0 1 0 . . .


. . 0 1 0 . .


 . . . . . . .  (matrice nilpotente de Jordan.)


 . . . . 0 1 0


. . . . . 0 1
. . . . . . 0
La preuve de ce théorème s’effectue comme suit. Soient P (X) = (−1)n X n
le polynôme caractéristique de T (corollaire 2.3.2) et 1 ≤ p ≤ n son indice de
nilpotence. On considère les s.e.v.
Ni = Ker T i pour 0 ≤ i ≤ p ;
on a
{0} = N0 ⊂ N1 ⊂ · · · ⊂ Np = E
et on construit une suite (Mi )1≤i≤p de s.e.v. non réduits à 0 telle que
Ni = Ni−1 ⊕ Mi pour 1 ≤ i ≤ p et T (Mi ) ⊂ Mi−1 pour 2 ≤ i ≤ p.
On a alors
E=
p
M
Mi
i=1
et on vérifie que l’application T |Mi : Mi → Mi−1 est injective ; si mi = dim Mi ,
on en déduit que
m1 ≥ m2 ≥ · · · ≥ mp > 0.
On construit ensuite une base de E
eij , 1 ≤ i ≤ p, 1 ≤ j ≤ mi
de la façon suivante : (epj )1≤j≤mp est une base de Mp et, pour 1 ≤ q ≤ p − 1,
(eqj )1≤j≤mq est une base de Mq complètant la famille libre (T eq+1
)1≤j≤mq+1 .
j
Pour 1 ≤ j ≤ m1 , on note Ej le s.e.v. engendré par les vecteurs
eij , 1 ≤ i ≤ p, mi ≥ j.
(2.6.1)
Lm1
On vérifie que E = j=1 Ej , que T (Ej ) ⊂ Ej et que la matrice représentative
de T |Ej dans la base (2.6.1) est une matrice nilpotente de Jordan, ce qui prouve le
théorème.
On en déduit le
Théorème 2.6.2 (Jordan) Soit T ∈ L(E) un endomorphisme dont le polynôme
caractéristique est scindé, alors il existe une base de E dans laquelle la matrice
18
CHAPITRE 2 RÉDUCTION DES ENDOMORPHISMES
représentative de T

λ 1
. λ

. .

. .

. .

. .
. .
est diagonale par blocs, chaque bloc étant de la forme

0 . . . .
1 0 . . .

λ 1 0 . .

. . . . .  (bloc de Jordan) où λ ∈ σ(T ).

. . λ 1 0

. . . λ 1
. . . . λ
Chapitre 3
Espaces euclidiens
3.1
Forme bilinéaire
Soit E un e.v., rappelons qu’une forme bilinéaire sur E est une application
B : E × E → K telle que
pour tout y ∈ E, l’application x 7→ B(x, y) est linéaire
et
pour tout x ∈ E, l’application y 7→ B(x, y) est linéaire .
Notons B(E) l’ensemble des formes bilinéaires sur E ; il s’agit d’un s.e.v. de l’e.v.
F(E × E; K).
Lorsque
est de dimension
PE
Pn finie n, étant donné une base B = (e1 , · · · , en ) de
n
E, si x = i=1 xi ei , y = i=1 yi ei , on peut écrire
n
X
B(x, y) =
bij xi yj où bij = B(ei , ej ).
i,j=1
On définit ainsi une matrice b = (bij )1≤i,j≤n ∈ Mn,n (K), appelée matrice de
la forme bilinéaire B dans la base B. L’application B 7→ b est évidemment un
isomorphisme de B(E) sur Mn,n (K) ; l’e.v. B(E) est donc de dimension n2 . Si
B0 est une autre base de E, b0 la matrice représentative de la forme B dans cette
base, on vérifie que
b0 = t P b P
20
CHAPITRE 3 ESPACES EUCLIDIENS
où P est la matrice de passage de B à B0 . Le rang r(B) d’une forme bilinéaire
est par définition le rang de sa matrice représentative dans une base, ce rang ne
dépendant pas du choix de la base. La forme est dit non dégénérée si ce rang est
maximum, soit r(B) = n, c’est-à-dire si la matrice b est inversible ; sinon, on dit
que la forme est dégénérée. Le déterminant de b est appelé le discriminant de la
forme B dans la base B.
Une forme bilinéaire B est dite symétrique si
B(x, y) = B(y, x) pour tout x, y ∈ E.
Ceci signifie que sa matrice représentative dans une base est symétrique, soit
t
b = b. L’espace S(E) des formes bilinéaires symétriques est donc un e.v. de
dimension n(n + 1)/2.
3.2
Espace euclidien
Définition 3.2.1 Soit E un e.v. réel de dimension finie n, une structure euclidienne
sur E est définie par la donnée d’une forme bilinéaire symétrique
(•|•) : (x, y) ∈ E × E 7→ (x|y) ∈ R
définie positive, c’est-à-dire telle que
(x|x) > 0 pour tout x ∈ E, x 6= 0.
Le réel (x|y) est appelé le produit scalaire de x et y. La norme d’un vecteur x
est définie par
kxk = (x|x)1/2 .
On notera que
kλxk = |λ| kxk pour tout λ ∈ R et tout x ∈ E
et que kxk = 0 équivaut à x = 0.
Exemple 3.2.1 Si B = (e1 , · · · , en ) est une base de E, on définit une structure
euclidienne sur E en posant
n
n
n
X
X
X
yi ei .
(x|y) =
xi yi si x =
xi ei , y =
i=1
i=1
On a alors
kxk =
n
X
x2i
i=1
1/2
.
i=1
Proposition 3.2.1 Pour tout x, y ∈ E, on a
|(x|y)| ≤ kxk kyk (inégalité de Cauchy-Schwarz),
kx + yk ≤ kxk + kyk (inégalité triangulaire),
2
kx + yk + kx − yk2 = 2(kxk2 + kyk2 ) (identité du parallèlogramme).
Dans un espace euclidien, on dit que deux vecteurs x et y sont orthogonaux si
leur produit scalaire est nul, soit (x|y) = 0.
3.3 BASE ORTHONORMALE
21
Théorème 3.2.2 (Pythagore) Soient x1 , · · · , xp ∈ E des vecteurs orthogonaus
deux à deux, alors
p
p
X
X
k
xi k2 =
kxi k2 .
i=1
i=1
Remarque 3.2.1 Si F est un s.e.v. d’un espace euclidien E, la restriction à F × F
du produit scalaire de E définit une structure euclidienne sur F : on dit que F est
un sous-espace euclidien de E.
3.3
Base orthonormale
Dans un espace euclidien E, on dit qu’une famille (xi )i∈I de vecteurs de E
est une famille orthonormale si
(xi |xj ) = δij pour tout i, j ∈ I.
Ce sont donc des vecteurs unitaires orthogonaux deux à deux. On vérifie qu’une
telle famille est libre, donc Card I ≤ n.
Une famille orthonormale qui est une base est appelée une base orthonormale.
Si B = (e1 , · · · , en ) est une base orthonormale, on a pour x, y ∈ E
n
n
X
X
x2i où xi = (x|ei )
xi ei , kxk2 =
x=
i=1
i=1
et
(x|y) =
n
X
xi yi où xi = (x|ei ), yi = (y|ei ).
i=1
Théorème 3.3.1 Tout espace euclidien admet une base orthonormale.
Si A est une partie de E, on définit l’orthogonal de A par
A⊥ = {x ∈ E ; (x|y) = 0 pour tout y ∈ A}.
Proposition 3.3.2 Pour tout A ⊂ E, A⊥ est un s.e.v. de E et A⊥ = s.e.v. (A)⊥ .
Théorème 3.3.3 1. Soient F un s.e.v. d’un espace euclidien E et x ∈ E, il existe
un unique y ∈ F tel que x − y ∈ F ⊥ . On dit que y est la projection orthogonale
de x sur F , on le note y = PF x. L’application PF : E → F est linéaire.
2. La projection orthogonale de x sur F est l’unique point y ∈ F tel que
kx − yk = inf kx − zk = d(x, F ) (distance de x à F ).
z∈F
⊥
3. On a E = F ⊕ F .
Corollaire 3.3.4 (théorème de la base incomplète) Toute famile orthonormale est
contenue dans une base orthonormale.
Proposition 3.3.5 (orthonormalisation de Schmidt) Soit (a1 , · · · , an ) une base de
E, alors il existe une unique base orthonormale (e1 , · · · , en ) telle que, pour tout
1 ≤ p ≤ n,
22
CHAPITRE 3 ESPACES EUCLIDIENS
1. s.e.v. (e1 , · · · , ep ) = s.e.v. (a1 , · · · , ap ),
2. (ep |ap ) > 0.
3.4
Le groupe orthogonal
Soient E un e.v. de dimension n et B, B 0 deux bases orthonormales, alors la
matrice de passage P de B à B 0 vérifie
t
P P = In .
(3.4.1)
Une telle matrice est appelée une matrice orthogonale et l’ensemble O(n) des matrices orthogonales est un sous-groupe du groupe linéaire GL(n; R). Étant donné
une base B, une matrice orthogonale peut toujours être considérée comme la matrice de passage de la base B à une base B 0 et, si l’une des bases est une base
orthonormale, il en est de même de l’autre.
On remarquera que dét P = ±1 si P ∈ O(n), on peut donc définir le sousgroupe, groupe spécial orthogonal,
SO(n) = {P ∈ O(n) ; dét P = 1}.
Proposition 3.4.1 Soient E un espace euclidien et T ∈ L(E) un endomorphisme,
alors les propriétés suivantes sont équivalentes
1. pour tout x ∈ E, kT xk = kxk,
2. pour tout x, y ∈ E, (T x|T y) = (x|y),
3. la matrice représentative de T dans une base orthonormale est une matrice
orthogonale.
Un endomorphisme T ∈ L(E) vérifiant ces propriétés est appelé une isométrie
ou une transformation orthogonale ; un tel endomorphisme est un automorphisme
de E. On notera O(E) l’ensemble des transformations orthogonales ; il s’agit d’un
sous-groupe du groupe linéaire GL(E) isomorphe (en tant que groupe) au groupe
O(n).
Étudions ce groupe O(E) lorsque n = 1, 2 ou 3. Soient T ∈ O(E) et
A ∈ O(n) sa matrice représentative dans une base orthonormale.
Lorsque n = 1, on a A = (±1) ; si A = (1), T = IE et si A = (−1), T est la
symétrie par rapport à l’origine.
Lorsque n = 2, prenons E = R2 muni de la stucture euclidienne associée à
sa base canonique (exemple 3.2.1). La transformation orthogonale T s’écrit dans
cette
base X
x
cos θ − sin θ
cos θ
sin θ
=A
où A =
ou
, 0 ≤ θ < 2π.
Y
y
sin θ
cos θ
sin θ − cos θ
En posant Z = X + iY et z = x + iy, on a Z = eiθ z dans le premier cas (rotation
d’angle θ) et Z = eiθ z dans le second cas (symétrie par rapport à l’axe des x suivie
d’une rotation d’angle θ, c’est-à-dire symétrie par rapport à la droite d’angle θ/2).
Lorsque n = 3, prenons E = R3 muni de la stucture euclidienne associée à sa
base canonique (exemple 3.2.1). On peut supposer dét T = 1 : si
3.5 ADJOINT D’UN ENDOMORPHISME
23
dét T = −1, dét (−T ) = 1 et il suffit de composer avec la symétrie par rapport à l’origine. Notons λ1 , λ2 , λ3 les valeurs propres réelles ou complexes de A.
On a alors 3 cas posssibles
(λ1 = λ2 = λ3 = 1) ou (λ1 = 1, λ2 = λ3 = −1) ou
(λ1 = 1, λ2 = µ, λ3 = µ, µ ∈ C − R).
Notons E1 le sous-espace propre associé à la valeur propre 1
E1 = {x ∈ R3 ; T x = x} (ensemble des points invariants par T).
Lemme 3.4.2 Si T 6= IR3 , dim E1 = 1.
Supposons T 6= IR3 , alors E1⊥ est un s.e.v. de dimension 2 stable par T et T |E1⊥
est une isométrie de ce sous-espace. Choisissons une base orthonormale (e1 , e2 )
de E1⊥ et un vecteur unitaire e3 ∈ E1 . On obtient ainsi une base orthonormale
(e1 , e2 , e3 ) de R3 et dans cette base la matrice représentative de T s’écrit


cos θ − sin θ 0
 sin θ
cos θ 0  où 0 ≤ θ < 2π.
0
0
1
La transformation T est une rotation d’angle θ autour de l’axe e3 .
3.5
Adjoint d’un endomorphisme
Soient E un espace euclidien et E ? son dual, on définit une application
j : E → E ∗ par
j(y) : x ∈ E 7→ (x|y) ∈ R où y ∈ E.
Théorème 3.5.1 L’application j : E → E ? est un isomorphisme. Autrement dit,
pour toute forme linéaire T ∈ E ? , il existe un unique y ∈ E tel que
T x = (x|y) pour tout x ∈ E.
Soit T ∈ L(E) un endomorphisme, pour tout y ∈ E, il existe un unique point
y ? = T ? y ∈ E tel que
(T x|y) = (x|T ? y) pour tout x ∈ E.
Proposition 3.5.2 L’application T ? : F → E est linéaire.
L’endomorphisme T ? est appelé l’adjoint de l’endomorphisme T . On vérifie
que
l’application T ∈ L(E) 7→ T ? ∈ L(E) est un isomorphisme,
et, pour tout S, T ∈ L(E),
T ?? = T et (T ◦ S)? = S ? ◦ T ? .
Proposition 3.5.3 Dans une base orthonormale, la matrice représentative de T ?
est la transposée de celle de T .
Définition 3.5.1 Un endomorphisme T ∈ L(E) est dit symétrique si T = T ? .
24
CHAPITRE 3 ESPACES EUCLIDIENS
Proposition 3.5.4 Un endomorphisme est symétrique si, et seulement si, sa matrice représentative A dans une base orthonormale est symétrique :A = t A.
Proposition 3.5.5 Le polynôme caractéristique d’un endomorphisme symétrique
est scindé et des vecteurs propres associés à des valeurs propres distinctes sont
orthogonaux.
Théorème 3.5.6 Tout endomorphisme symétrique T ∈ L(E) est diagonalisable.
Plus précisément, il existe une base orthonormale dans laquelle la matrice représentative de T est diagonale.
3.6
Forme quadratique
Soient E un e.v. réel de dimension n, B = (e1 , · · · , en ) une base de E et B
une forme bilinéaire de matrice b = (bij )1≤i,j≤n . On pose
n
n
X
X
xi ei .
bij xi xj si x =
Q(x) = B(x, x) =
i,j=1
i=1
On dit que Q est une forme quadratique ; une forme quadratique est simplement
un polynôme homogène de degré 2.
Proposition 3.6.1 Soit B une forme bilinéaire symétrique, alors
1
B(x, y) =
B(x + y, x + y) − B(x, x) − B(y, y) ( formule de polarisation).
2
Ceci montre que, si Q est une forme quadratique, il existe une unique forme
bilinéaire symétrique B telle que Q(x) = B(x, x). On l’appelle la forme polaire
de Q ; elle est donnée également par la formule
n
n
X
X
1 ∂Q
Qi (y)xi où Qi (x) =
Qi (x)yi =
B(x, y) =
(x).
2 ∂xi
i=1
i=1
Théorème 3.6.2 (loi d’inertie de Sylvester) Soit Q une forme quadratique, il existe
une base B = (e1 , · · · , en ) de E telle que dans cette base
Q(x) = x21 + · · · + x2p − x2p+1 + · · · + x2r
où r est le rang de la forme polaire de Q et 0 ≤ p ≤ r. L’entier p ne dépend pas
du choix de la base B et le couple (p, q) où q = r − p est appelé la signature de la
forme quadratique.
On dit qu’on a réduit Q à une somme de carrés. Une autre façon d’exprimer ce
résultat consiste à prendre une forme quadratique sur Rn
n
X
Q(x) =
aij xi xj .
i,j=1
Alors, il existe des formes linéaires, linéairement indépendantes,
n
X
li (x) =
lij xj , 1 ≤ i ≤ n,
j=1
3.6 FORME QUADRATIQUE
et des réels λi tels que
Q(x) =
n
X
25
λi li (x)2 .
i=1
L’entier p (resp. q) est le nombre de λi > 0 (resp. λi < 0). La méthode de Gauss
permet d’effectuer pratiquement cette réduction.
26
CHAPITRE 3 ESPACES EUCLIDIENS
Chapitre 4
Espaces hermitiens
4.1
Forme hermitienne
On considère ici un espce vectoriel complexe de dimension finie n.
Définition 4.1.1 Soit E un espace vectoriel complexe, une application B : E ×
E → C est appelée une forme sesquilinéaire si, pour tout x, y, x1 , x2 , y1 , y2 de
E et tout λ1 , λ2 de C
B(λ1 x1 + λ2 x2 , y) = λ1 B(x1 , y) + λ2 B(x2 , y),
B(x, λ1 y1 + λ2 y2 ) = λ1 B(x, y1 ) + λ2 B(x, y2 ).
On dit que B est une forme hermitienne si on a de plus, pour tout x, y de E,
B(x, y) = B(y, x).
Si B est une forme sesquilinéaire, l’application B(•, y) est, pour tout y, une
forme linéaire sur E ; pour tout x, l’application B(x, •) est dite semi-linéaire.
Si B est une forme hermitienne, B(x, x) est réel pour tout x ; autrement dit,
une forme hermitienne est réelle sur la diagonale de E. Cette propriété caractérise
les formes. hermitiennes.
Proposition 4.1.1 Soit E un espace vectoriel complexe, alors toute forme sesquilinéaire réelle sur la diagonale de E est hermitienne.
28
CHAPITRE 4 ESPACES HERMITIENS
Une forme hermitienne B : E × E → C est dite positive si B(x, x) ≥ 0 pour
tout x ∈ E et elle est dite définie positive ou positive non dégénérée si B(x, x) > 0
pour tout x ∈ E − {0}.
Soient
Pn B une forme
Pn sesquilinéaire et B = (e1 , · · · , en ) une base de E, si
x = i=1 xi ei , y = i=1 yi ei , on a
n
X
B(x, y) =
bij xi y j où bij = B(ei , ej ).
i,j=1
On définit ainsi une matrice b = (bij )1≤i,j≤n ∈ Mn,n (K), appelée matrice de la
forme sesquilinéaire B dans la base B. La forme B est hermitienne si, et seulement
si, bji = bij , soit t b = b ; on dit que la matrice b est hermitienne.
positive (resp. définie positive) si, et seulement si,
PnLa forme hermitienne BPest
n
x
≥
0
(resp.
b
x
i,j=1 ij i j
i,j=1 bij xi xj > 0) pour tout x 6= 0.
Si B0 est une autre base de E, b0 la matrice représentative de la forme B dans
cette base, on vérifie que
b0 = t P b P
où P est la matrice de passage de B à B0 .
4.2
Espaces hermitiens
Définition 4.2.1 Soit E un e.v. complexe de dimension finie n, une structure hermitienne sur E est définie par la donnée d’une forme hermitienne
(•|•) : (x, y) ∈ E × E 7→ (x|y) ∈ C
définie positive.
Le complexe (x|y) est appelé le produit scalaire de x et y. La norme d’un
vecteur x est définie par
kxk = (x|x)1/2 .
On notera que
kλxk = |λ| kxk pour tout λ ∈ C et tout x ∈ E
et que kxk = 0 équivaut à x = 0.
Exemple 4.2.1 Si B = (e1 , · · · , en ) est une base de E, on définit une structure
hermitienne sur E en posant
n
n
n
X
X
X
xi ei , y =
yi ei .
(x|y) =
xi y i si x =
i=1
i=1
On a alors
kxk =
n
X
i=1
|xi |2
i=1
1/2
.
4.3 ADJOINT D’UN ENDOMORPHISME
29
La proposition 3.2.1, le théorème 3.2.2 et la remarque 3.2.1 valent encore dans
le cas hermitien. Le paragraphe 3.3 concernant les bases orthonormales subsiste
également.
Soient B et B 0 deux bases de E et P la matrice de passage de B à B 0 , alors, si
B est une base orthonormale, il en est de même de B 0 si, et seulement si,
(4.2.1)
P ∗ P = In
où P ∗ = t P est appelée la matrice adjointe de P . Une matrice vérifiant (4.2.1)
est dite unitaire. L’ensemble U (n) des matrices unitaires est un sous-groupe du
groupe linéaire GL(n : C), appelé groupe unitaire. Si P est une matrice unitaire,
on notera que |dét P | = 1.
4.3
Adjoint d’un endomorphisme
Soient E un espace hermitien, E ∗ le dual de E, on définit une application
j : E → E ∗ en posant pour y ∈ E
j(y) : x ∈ E 7→ (x|y) ∈ C.
Théorème 4.3.1 L’application j : E → E ? est une bijection semi-linéaire. Autrement dit, pour toute forme linéaire T ∈ E ? , il existe un unique y ∈ E tel que
T x = (x|y) pour tout x ∈ E.
On dit que j est un semi-isomorphisme.
Soient E et F deux espaces hermitiens et T ∈ L(E; F ), pour tout y ∈ F , il
existe un unique point y ? = T ? y ∈ E tel que
(T x|y)F = (x|T ? y)E pour tout x ∈ E.
Proposition 4.3.2 L’application T ? : F → E est linéaire.
L’application T ? est appelée l’adjointe de T . On vérifie que l’application T ∈
L(E) 7→ T ? ∈ L(E) est un semi-isomorphisme et, si E, F et G sont des espaces
hermitiens, S ∈ L(E; F ), T ∈ L(F ; G),
(T ◦ S)? = S ? ◦ T ? .
Proposition 4.3.3 Dans une base orthonormale, la matrice représentative de T ?
est l’adjointe de celle de T .
Définition 4.3.1 Un endomorphisme T ∈ L(E) est dit hermitien si T = T ? .
Proposition 4.3.4 Un endomorphisme est hermitien si, et seulement si, sa matrice
représentative A dans une base orthonormale est hermitienne :A = A? .
Proposition 4.3.5 Les valeurs propres d’un endomorphisme hermitiens sont réelles
et des vecteurs propres associés à des valeurs propres distinctes sont orthogonaux.
30
4.4
CHAPITRE 4 ESPACES HERMITIENS
Opérateurs normaux
On dit qu’un opératreur T ∈ L(E) est normal si T ◦ T ? = T ? ◦ T . Si A
est la matrice représentative de T dans une base orthonormale, ceci signifie que la
matrice A est normale, c’est-à-dire que A A? = A? A. Tout opérateur hermitien,
ainsi que tout opérateur unitaire, est normal.
Lemme 4.4.1 Soit T ∈ L(E) un opérateur normal, alors Ker T = Ker T ? .
Lemme 4.4.2 Soit T ∈ L(E) un opérateur normal, alors
λ ∈ σ(T ) ⇐⇒ λ ∈ σ(T ? ) et Eλ (T ) = Eλ (T ? ).
Lemme 4.4.3 Soient T ∈ L(E) un opérateur normal, λ, µ ∈ σ(T ), λ 6= µ, alors
les sous-espaces propres Eλ (T ) et Eµ (T ) sont orthogonaux.
Lemme 4.4.4 Soient T ∈ L(E) un endomorphisme et F un s.e.v. stable par T et
T ? , alors F ⊥ est stable par T et T ? .
Théorème 4.4.5 Soient T ∈ L(E) un opérateur normal, alors T est diagonalisable et il existe une base orthonormale dans laquelle la matrice représentative de
T est diagonale, autrement dit il existe une base orthonormale de vecteurs propres.
En termes de matrices, si A ∈ Mn (C) est une matrice normale, il existe une matrice unitaire P ∈ U (n) telle que P ? AP soit diagonale.
On a alors
E = ⊕λ∈σ(T ) Eλ (T ),
les sous-espaces propres Eλ (T ) étant orthogonaux deux à deux.
On en déduit qu’une matrice normale est hermitienne si, et seulement si, toutes
ses valeurs propres sont réelles et qu’elle est unitaire si, et seulement si, toutes ses
valeurs propres sont de module 1.
Téléchargement