Telechargé par Saliou Diop

MPI2

publicité
Université Cheikh Anta Diop de Dakar
Faculté des Sciences et Techniques
(UCAD-FST)
Département de Mathématiques et Informatique
(DMI)
COURS D’ALGÈBRE L2
Chargé du cours : Pr Amadou Lamine FALL
Assistants TD : Dr Moussa SALL
Dr Mame Abdou DIAW
Dr Gilbert NOLAN
Dr Cheikh Tidiane GUEYE
Dr Andre DIABANG
2
Table des matières
3
4
TABLE DES MATIÈRES
Chapitre 1
Diagonalisation et Applications
Dans tout le cours , E sera un espace vectoriel de dimension finie sur un corps K.
1.1
Diagonalisation d’endomorphisme
1.1.1
Valeurs propres et Sous espaces propres
Définition : Soient f ∈ L (E) et u ∈ E
λ ∈ K est une valeur propre de f s’il existe u 6= 0 tel que f (u) = λu.
Définition : Soient f ∈ L (E) et u ∈ E et λ ∈ K une valeur propre de f .
u est un vecteur propre de f associé à la valeur propre λ si u 6= 0 et f (u) = λu.
Remarque : f ∈ L (E) et λ ∈ K une valeur propre de f , il existe u ∈ E non nul tel que
f (u) = λu, c’est à dire (f − λidE )(u) = 0. On en déduit que si λ ∈ K une valeur
propre de f alors l’endomorphisme (f − λidE ) n’est pas bijectif.
Soit A = matB (f ) la matrice f relativement à une B une base de E, λ ∈ K une
valeur propre de f si et seulement si det(A − λI) = 0 où I est la matrice unité.
Définition : f ∈ L (E) et λ une valeur propre de f.
Le sous espace propre de f associé à la valeur propre λ est
Eλ = {u ∈ E / f (u) = λu} = ker (f − λ idE ) .
Le sous espace propre de f , Eλ est constitué du vecteur nul et de l’ensemble des
vecteurs propres de f associé à la valeur propre λ.
Définition : f ∈ L (E), B une base de E et A = matB (f ) la matrice f relativement à
la base B, le polynôme Pf (X) = det(A − XI) est appelé polynôme caractéristique
de f .
5
6
CHAPITRE 1. DIAGONALISATION ET APPLICATIONS
Remarque : λ ∈ K une valeur propre de f si et seulement si λ est racine du polynôme
caractéristique de f .
Définition : f ∈ L (E) .
Le spectre de f est l’ensemble de ses valeurs propres.
Expression du polynôme caractéristique.
Définition : Soit A ∈ Mn (R) et k ∈ N tel que 1 ≤ k ≤ n. On appelle sous matrice
principale d’ordre k de A la sous matrice d’ordre n − k obtenue à partir de A en
supprimant n − k lignes et les n − k colonnes correspondantes.
Un mineur principal d’ordre de A est le determinant d’une sous matrice principale
d’ordre k de A.
Formule : f ∈ L (E), B une base de E et A = (ai,j )1≤i,j≤n = matB (f ) la matrice f
relativement à la base B, le polynôme caractéristique Pf (X) = det(A − XI) est
donné par :
Si n = 2 alors
Pf (X) = X 2 − Tr(A)X + det A
Tr(A) etant la trace de la matrice A.
Et si n ≥ 3 on a
n
n
n−1
Pf (X) = (−1) X + (−1)
Tr(A)X
n−1
n−1
X
(−1)n−k ωk X n−k + det A.
+
k=2
Le scalaire ωk est la somme des mineurs principaux d’ordre k de A.
Exemple : Soit f ∈ L (R3 ) de matrice

−1

A=
 1
1
−1
1
1
1


1 
.
−1
Déterminer les valeurs propres et les sous espaces propres de f.
Solution :
1. Déterminons d’abord le polynôme caractéristique.
D’après la formule Pf (X) = −X 3 + Tr(A)X 2 − ω2 X + det A.
La trace de A est la somme des éléments diagonaux de A donc Tr(A) = −3.
Le déterminant est det(A) = 4. Le scalaire ω2 est donné par :
ω2 =
−1
1
1
−1
+
−1
1
1
−1
+
−1
1
1
−1
= 0.
1.1. DIAGONALISATION D’ENDOMORPHISME
7
Donc Pf (X) = −X 3 − X 2 + 4 = −(X + 2)(X − 1).
2. Déterminons les sous espaces propres.
Soit (x, y, z) ∈ E1 = ker(f − idE ), on a

   

x
0

 −x + y + z = 0
   
  
(A − I3 ) 
 y  =  0  ⇔  x − 2y + z = 0

 x + y − 2z = 0
z
0
La résolution du systeème montre que
E1 = (x, y, z) ∈ R3 /x = y = z = Vect(u1 )
avec u1 = (1, 1, 1).
Soit (x, y, z) ∈ E−2 = ker(f + 2 idE ), on a
   
0
x
   
  
(A + 2I3 ) 
 y  =  0  ⇔ x + y + z = 0.
0
z
E−2 = (x, y, z) ∈ R3 /x + y + z = 0 = Vect(u2 , u3 )
avec u2 = (1, 0, −1) et u3 = (0, 1, −1).
1.1.2
Propriétés des sous espaces propres.
Théorème 1.1.1. f ∈ L (E) et λ1 , λ2 , · · · , λm ∈ K des valeurs propres de f deux à deux
distinctes et u1 , u2 , · · · , um des vecteurs propres associés aux λ respectivement. Alors la
famille S = {u1 , u2 , · · · , um } est libre.
Démonstration : Elle se fait par récurrence sur l’entier m ≥ 2.
Si m = 2, S = {u1 , u2 } avec f (u1 = λ1 u1 et f (u2 = λ2 u2 .
Soit α1 , α2 ∈ K tel que α1 u1 + α2 u2 = 0.
α1 u1 + α2 u2 = 0 =⇒ α1 f (u1 ) + α2 f (u2 ) = 0
=⇒ α1 λ1 u1 + α2 λ2 u2 = 0
=⇒ α1 (λ1 − λ2 )u1 = 0.
8
CHAPITRE 1. DIAGONALISATION ET APPLICATIONS
Comme λ1 6= λ2 et u1 6= 0, on a α1 = 0 et par suite α2 = 0, ainsi S est libre.
Supposons m ≥ 3 et propriété vraie pour m − 1.
m
X
Soit α1 , α2 , · · · , αm ∈ K tel que
αk uk = 0.
k=1
m
X
αk uk = 0 =⇒
k=1
=⇒
m
X
k=1
m−1
X
m−1
X
αk f (uk ) = 0 et αm um = −
αk uk
k=1
αk (λk − λm )uk = 0
k=1
Par hypothèse de récurrence on a αk (λk − λm )uk = 0 pour 1 ≤ k ≤ m − 1, comme
λk 6= λm on a αk = 0 pour 1 ≤ k ≤ m − 1 ce qui implique que αm um = 0 d’où
αm = 0. Ainsi la famille S = {u1 , u2 , · · · , um } est libre.
Corollaire 1.1.2. f ∈ L (E) et λ1 , λ2 , · · · , λm ∈ K des valeurs propres de f deux
à deux distinctes. Alors les sous espaces propres (Eλk )1≤k≤m sont en somme directe
m
m
X
M
c’est à dire si F =
Eλk alors F =
Eλk .
k=1
k=1
Démonstration : Les sous espaces Eλk sont en somme directe si et seulement si ∀(uk )1≤k≤m ∈
m
Y
Eλk on a l’implication suivante :
k=1
m
X
uk = 0 =⇒ uk = 0, ∀k.
k=1
Soit 1 ≤ k ≤ m un entier naturel et uk ∈ Eλk tel que
pas tous nuls la relation
m
X
m
X
uk = 0. Si les uk ne sont
k=1
uk = 0 est une combinaison linéaire nulle de vecteurs
k=1
propres associés à des valeurs propres deux à deux distinctes, ce qui contredit le
théorème ci-dessus. On en déduit que uk = 0, ∀k, donc les sous espaces Eλk sont
en somme directe.
Définition : Soit n ∈ N∗ et P ∈ K[X] un polynôme de degré n à coéfficients dans K et
x0 ∈ K une racine de P .
On dit que x0 est une racine de P d’ordre de multiplicité α ∈ N∗ , si (X − x0 )α divise
P (X) et (X − x0 )α+1 ne divise pas P (X).
Le polynôme P est dit scindé dans K s’il possède n racines dans K chaque racine
étant comptée un nombre de fois égal à sa multiplicité. C’est à dire P se factorise
1.1. DIAGONALISATION D’ENDOMORPHISME
dans K,
9
m
m
Y
X
αi
P (X) = a (X − ai ) avec
αi = n.
i=1
i=1
Les ai sont les racines deux à deux distincts de P .
Définition : f ∈ L (E) et λ ∈ K une valeur propre de f , la multiciplicité de λ est sa multiciplicité comme racine du polynôme caractéristique. On dit que l’endomorphisme
f est scindé si son polynôme caractéristique est scindé.
Théorème 1.1.3. f ∈ L (E) et λ ∈ K une valeur propre de f d’ordre de multiciplicité α. Alors on a 1 ≤ dim Eλ ≤ α.
Démonstration : Comme Eλ 6= {0E } on a dim Eλ ≥ 1. Posons k = dim Eλ et soit
{e1 , . . . , ek } une base de Eλ . Complétons la par des vecteurs ek+1 , . . . , en pour avoir
une base B = {e1 , . . . , en } de E.
Déterminons la matrice M de f relativement à B. On a f (ej ) = λej , 1 ≤ j ≤ k et
n
P
f (ej ) =
aij ei , k + 1 ≤ j ≤ n; aij ∈ K, donc on a
i=1

λ ··· 0
 . .
 ..
. . ...


 0 ··· λ
M =

 0 ··· 0
 .
..
 ..
.

0 ··· 0
a1,k+1 · · ·
..
.
a1,n
ak,k+1
···
..
.
ak+1,k+1 · · ·
..
.
an,k+1

ak,n
ak+1,n
..
.
···





=





λIk
C
0
D
!
.
an,n
Ainsi Pf (X) = (λ − X)k PD (X) = (−1)k (X − λ)k PD (X) d’où (X − λ)k divise Pf (X),
ainsi k ≤ α, on en déduit que 1 ≤ dim Eλ ≤ α.
1.1.3
Conditions de diagonalisabilité
Définition : Soient f ∈ L(E) un endomorphisme. On dit que f est diagonalisable si
E admet une base formée de vecteurs propres de f . Cela revient à dire qu’il existe
une base de E relativement à la quelle la matrice de f est diagonale.
Définition : Une matrice carrée A ∈ Mn (K) est dite diagonalisable s’il existe
P ∈ GLn (K) tel que D = P −1 AP soit une matrice diagonale.
10
CHAPITRE 1. DIAGONALISATION ET APPLICATIONS
Théorème 1.1.4. Soient E un K-espace vectoriel de dimension n ∈ N∗ , f ∈ L(E)
r
Q
un endomorphisme de E et Pf (X) = (−1)n (X − λi )αi son polynôme caractérisi=1
tique. Alors f est diagonalisable si et seulement si
E=
r
M
Eλi
i=1
où Eλi est le sous-espace propre associé à λi .
r
L
Démonstration : Supposons E =
Eλi et pour tout 1 ≤ i ≤ r soit Bi une base de
Eλi . L’ensemble B =
r
[
i=1
Bi est une base de E formée de vecteurs propres de f .
i=1
Réciproquement si f est diagonalisable il existe une base
B = {e1,λ1 , · · · , eα1 ,λ1 , e1,λ2 , · · · , eα2 ,λ2 , · · · , e1,λr , · · · , eαr ,λr }
de E formée de vecteurs propres de f , où pour tout j, ej,λj ∈ Eλj .
r
X
On a card(B) =
αi = dim(E). Montrons que αi = dim(Eλi ) ∀j ∈ [[1, r]]. Supi=1
posons qu’il existe l ∈ [[1, r]] tel que αl < dim(Eλl ) = βl . La famille {e1,λl , · · · , eαl ,λl }
est une famille libre, complètons la pour avoir une base {e1,λl , · · · , eαl ,λl , · · · , eβl ,λl }
de Eλl . La famille
S = {e1,λ1 , · · · , eα1 ,λ1 , e1,λ2 , · · · , eα2 ,λ2 , · · · , eαl ,λl , · · · , eβl ,λl · · · , e1,λr , · · · , eαr ,λr }
est une famille libre de E avec dim(E) = card(B) < card(S) ce qui impossible donc
r
P
αi = dim(Eλi ) ∀j ∈ [[1, r]]. Ainsi dim(E) =
dim(Eλi ), comme les Eλi sont en
somme directe, on a E =
r
L
i=1
Eλi .
i=1
Théorème 1.1.5 (Condition nécéssaire suffisante). Soient E un K-espace vectoriel
de dimension n ∈ N∗ , f ∈ L(E) un endomorphisme de E. Alors f est diagonalisable
si et seulement si les propriétés suivantes sont vérifiée :
1) Le polynôme caractéristique Pf (x) est scindé dans K.
2) Pour chaque valeur propre λ de multiplicité α, on a dim(Eλ ) = α
Démonstration : ⇐) Supposons que 1) et 2) soient vérifiées.
r
r
Q
P
1) ⇒ Pf (X) = (−1)n (X − λi )αi avec
αi = n.
i=1
i=1
La condition 2) entraîne dim Eλi = αi , donc
dim E = n =
r
X
i=1
r
M
dim Eλi = dim(
Eλi ),
i=1
1.1. DIAGONALISATION D’ENDOMORPHISME
doù E =
r
L
11
Eλi . D’après le théorème ci-dessus, f est diagonalisable.
i=1
Réciproquement, supposons f est diagonalisable.
a) Supposons que le polynôme caractéristique n’est pas scindé.
r
Q
On a Pf (X) = (−1)n (X − λi )αi Q(X) avec deg(Q) ≥ 2 et Q n’a pas de racine
i=1
dans K.
dim E =
r
X
αi + deg(Q) =⇒
i=1
r
X
dim Eλi < dim E
i=1
r
M
=⇒ dim(
Eλi ) < dim E
i=1
Donc E 6=
r
L
Eλi donc f n’est pas diagonalisable.
i=1
b) On suppose qu’il existe i0 ∈ [|1, r|] tel que dim Eλi < αi .
On a
r
X
dim Eλi = dim Eλi0 +
i=1
donc
r
P
dim Eλi <
i=1
r
X
dim Eλi < αi0 +
i=1,i6=i0
r
P
r
X
αi ,
i=1,i6=i0
dim αi < dim E. On en déduit que f n’est pas diagonalisable.
i=1
Corollaire 1.1.6. (Condition suffisante)
Soit E un K-espace vectoriel de dimension n et f ∈ L(E) un endomorphisme de E
admettant n valeurs propres distinctes. Alors f est diagonalisable.
Exemple :
1) L’endomorphisme f de R3 associé à la matrice A suivante est il diago-
nalisable ?

−1

A=
 1
1
1
−1
1
1


1 
.
−1
Le polynôme caractéristique de A est PA (X) = −(X + 2)2 (X − 1) il est scindé
dans R. La dimension de chaque sous espace propre est égal à la multiciplicité de
cette valeur propre : E−2 = vect(u1 , u2 ) avec u1 = (1, 0, −1) et u2 = (0, 1, −1)
on a ; dim E−2 = 2 cette dimension est égale à la multiplicité de la valeur propre
λ = −2. De même E1 = vect(u3 ), u3 = (1, 1, 1), dim E1 = 1 = multiplicité de
λ = 1. L’endomorphisme f est donc diagonalisable. Les matrices de passage et
12
CHAPITRE 1. DIAGONALISATION ET APPLICATIONS

1
0
1


−2
0



 et D =  0
diagonale associées sont P = 
0
1
1



−1 −1 1
0

0

−2 0 

0 1
3

2) Même question pour l’endomorphisme associé à la matrice A = 
 2
0 −1
4
−1 0
3



2 

3
2
PA (X) = −X + T r(A)X − w2 X + det A; on a T r(A) = 10 et
4 2
3 −1
3 0
w2 =
+
+
= 12 + 8 + 12 = 32;
0 3
−1 3
2 4
4 2
−
2
4
= 36 − 4 = 32 ; donc
0 3
−1 0
PA (X) = −X 3 + 10X 2 − 32X + 32 = −(X − 2)(X − 4)2 est scindé.
det A = 3
dim E2 = 1; dim E4 = dim R3 − rg(A − 4I) = 3 − 1 = 2.
Donc PA (X) est scindé et la dimension de chaque sous-espace propre est égale
à la multiplicité de la valeur propre, ainsi A est diagonalisable.
Diagonalisons l’endomorphisme f associé à A :



x
  


(x, y, z) ∈ E2 ⇐⇒ (A − 2I)  y 
=
z


x
1 0 −1



⇐⇒ 
 2 2 2  y
z
−1 0 1
(
x−z = 0
⇐⇒
x+y+z = 0
(
x = z
⇐⇒
y = −2x
0


0 

0
 
0

  
= 0 
  
0
Donc E2 = {(x, −2x, x)/x ∈ R} = vect(u1 ) avec u1 = (1, −2, 1).
(x, y, z) ∈ E4 ⇐⇒ x + y = 0 ⇔ z = −x, ainsi
E4 = {(x, y, −x)/x, y ∈ R} = vect{u2 , u3 } avec u2 = (1, 0, −1), u2 = (0, 1, 0).
1.2. APPLICATIONS
13
Posons B = {u1 , u2 , u3 }, on a

1
1
0


2 0 0








P =
 −2 0 1  et D =  0 4 0  .
1 −1 0
0 0 4
On a D = P −1 AP ainsi A = P DP −1 .

0 −1 1

Exercice : Soit f de matrice M = 
 −1 0 1
1 −1 0
Montrer que 0, 1 et −1 sont valeurs propres


 dans la base canonique de R3 .

de f.
En déduire une matrice P inversible telle que M = P · D · P −1 avec D de diagonale
0, 1 et −1.

4 −1 −1 0

 0 3 −1 0
Exercice : Soit f ∈ L (R ) de matrice M = 
 0 −1 3 0

2 −1 −1 2
4
de R .
4



 dans la base canonique


Montrer que 2 et 4 sont valeurs propres de f et déterminer les sous espaces propres
associés.
En déduire que f est diagonalisable ainsi qu’une base de vecteurs propres.
1.2
Applications
1.2.1
Puissances de matrice et suites récurrentes linéaires
Soit (Un )n∈N une suite de matrices colonnes de Rm où m ≥ 2 est un entier naturel.
On suppose que la suite (Un )n∈N est définie par le terme initial U0 ∈ Rm et par la
relation Un+1 = A · Un où A est une matrice diagonalisable.
Pour tout entier naturel n on a Un = An · U0 de sorte que déterminer Un revient à
déterminer la puissance An de la matrice A. Comme A est diagonalisable il existe
une matrice diagonale D et une matrice inversible P tel que A = P · D · P −1 , on
a An = P · Dn · P −1 . La matrice Dn est la matrice diagonale dont les éléments
diagonaux sont les puissances de valeurs propres de A.
14
CHAPITRE 1. DIAGONALISATION ET APPLICATIONS
1.2.2
Système différentiel linéaire à coéfficients constants
Définition : On appelle système différentiel linéaire à coefficient constant, un système
d’équations différentielles de la forme :

dx1

= a11 x1 + a12 x2 + . . . + a1n xn

dt




 dx2 = a21 x1 + a22 x2 + . . . + a2n xn
dt
..


.




 dxn
= an1 x1 + an2 x2 + . . . + ann xn
dt
où aij ∈ C et xi : R → R est une application dérivable.

écriture matricielle Posons A = (aij )1≤i≤n,1≤j≤n



et X = 


x1

x2
..
.






xn
le système différentiel s’ecrit :

 

  a21 x1 + a22 x2 + · · · + a2n xn

dX 
 
= . =
..
.
 

dt
.
 .  
dxn
an1 x1 + an2 x2 + · · · + ann xn
dt






On a donc
1.2.3
dX
dt
dx1
dt
dx2
dt


a11 x1 + a12 x2 + · · · + a1n xn

= AX
Résolution dans le cas où A est diagonalisable
Comme A est diagonalisable, il existe P ∈ GLn (K) telle que A0 = P −1 AP soit
diagonale. Posons

λ1
0
···
0




D=


0
..
.
λ2 · · ·
.. . .
.
.
0
..
.
0
0
···
λn






1.2. APPLICATIONS
15

z1




et X = P Z avec Z = 


z2
..
.



.


On a
dX
dt
=
d(P Z)
dt
donc nous avons
zn
= P dZ
= AX = (AP )Z, donc dZ
dt
dt

 
dz1
λ 0 ···
 dt   1
dz2 

dZ 

  0 λ2 · · ·
=  dt.  =  .
.. . .
 ..   ..
dt
.
.

 
dzn
0 0 ···
dt
dzi
dt
= (P −1 AP ) = DZ, . Ainsi :


0
z1


 z2 
0 


 . ,
.. 
.


.  . 

λn
zn
= λi zi ⇒ zi = αi eλi t , il en résulte que

α 1 e λ1 t

 α 2 e λ2 t

Z=
..

.

α n e λn t




.


La solution du système est donc donnée par X = P Z

dx


 dt = −x + y + z
dy
Exemple Résoudre
= x−y+z
dt


 dz = x + y − z
dt

 

x
−1 1
1

 


 
Posons A = 
 1 −1 1  et X =  y 
z
1
1 −1
La matrice A est diagonalisable et sa diagonalisée ainsi que la matrice de passage
sont respectivement

1
0
0


1
1
0





 et P =  1 0
.
D=
0
−2
0
1




0 0 −2
1 −1 −1


z1


dX

Posons X = P Z avec Z = 
 z2 . Le système différentiel dt = AX est équivalente
z3


aet


 be−2t .
au système dZ
=
DZ
dont
la
solution
est
donnée
par
Z
=
dt


−2t
ce
16
CHAPITRE 1. DIAGONALISATION ET APPLICATIONS

1
1
0

aet


aet + be−2t



 

t
−2t
  be−2t  = 

On en déduit que X = P Z = 
1
0
1
ae
+
ce


 

−2t
t
−2t
−2t
1 −1 −1
ce
ae − be − ce
d’où


x = aet + be−2t



y = aet + ce−2t



z = aet − be−2t − ce−2t .
Chapitre 2
Trigonalisation et Théorème de
Cayley-Hamilton
2.1
Trigonalisation
Définition : Soient E un K−espace vectoriel de dimension n ∈ N∗ et f ∈ L(E). On dit
que f est trigonalisable s’il existe une base β de E relativemment à la quelle la
matrice de f est triangulaire.
Définition : Une matrice carreé A ∈ Mn (K) est dite trigonalisable s’il existe
P ∈ GLn (K) telle que A0 = P −1 AP soit triangulaire.
Théorème 2.1.1. Soient E un K−espace vectoriel de dimension n ∈ N∗ et
f ∈ L(E). Alors f est trigonalisable dans K si et seulement si le polynôme caractéristique Pf (X) est scindé dans K.
Démonstration :
1. Supposons que f trigonalisable.
Comme f est trigonalisable, il existe une base β de E relativemment à la quelle
la matrice de f est triangulaire




0
A =


λ1 a12 · · ·
0
..
.
λ2
..
.
0
0
a1n


· · · a2n 

.. 
..
.
. 

· · · λn
Dans ce le polynôme caractéristique Pf (X) = PA0 (X) =
n
Q
(λi − X) est scindé.
i=1
2. Réciproquement, supposons que Pf (X) est scindé et montrons par récurrence
sur n = dim E que f est trigonalisable. Si n=1, f est trigonalisable, supposons
17
18 CHAPITRE 2. TRIGONALISATION ET THÉORÈME DE CAYLEY-HAMILTON
n ≥ 2 et la propriété soit vraie pour tout endomorphisme g d’un K−espace
vectoriel F de dimension n − 1 dont le polynôme caractéristique est scindé.
Soit λ une valeur propre de f et e1 un vecteur propre de f associé à λ, complètons e1 par 2 , . . . , n pour avoir une base de B = {e1 , 2 , . . . , n } de E.
Posons E1 = vec(e1 ) et F = vect(2 , . . . , n ), on a dim F = n − 1.
On considère π la projection sur F parallèlement à E1 , on a E = E1 ⊕ F . nous
f
π
avons π : E → E, ker π = E1 , im(π) = F et π ◦ f : E → E → E.
Le sous espace vectoriel F est stable par π ◦ f , donc la restriction g de π ◦ f à F
induit un endomorphisme g : F → F . Soit MB (f ) la matrice de f relativement
n
P
à la base B, nous avons f (e1 ) = λe1 et f (j ) = a1j e1 + aij i , avec j ∈ [[2 ; n]].
i=2
La matrice MB (f ) est donnée par :




MB (f ) = 


Montrons
λ
a12 · · ·
a1n

0
a22 · · · a2n
.. 
..
..
...
. 
.
 .
0
an2 · · · ann

 


 .
 
 


a22 · · · a2n
 .
.. 
...
..
K=
. 


an2 · · · ann
est la matrice de g relativement à la base {2 , . . . , n } de F .
n
n
P
P
g(j ) = π ◦ f (j ) = π(f (j )) = π(a1j e1 +
aij i ) =
aij i ce qui montre que
i=2
 i=2

λ a12 · · · a1n






K est bien la matrice de g. On a A =  .

.
 .

K


0
λ − X a12
Ainsi nous avons Pf (X) =
..
.
···
K − XIn−1
a1n
= (λ − X)PK (X)
0
Donc Pf (X) = (λ − X)Pg (X), Pf est scindé donc Pg est scindé. Donc il existe
une base {e2 , . . . , en } de F relativement à la quelle la matrice K 0 de g est
triangulaire. A = {e1 , e2 , . . . , en } est une base de E relativement à la quelle la
matrice A0 de f est triangulaire
2.1. TRIGONALISATION
19
Exemple 1. Trigonaliser l’endomorphisme f de R3 dont la matrice relativement à la base
canonique est


2 −2
3

A=
 −1 0
1
1

1 
.
0
Le polynôme caractésistique de A est
PA (X) =
3−X
2
−2
−1
−X
1
1
1
−X
Déterminons le sous espace propre E1 .
= (1 − X)3 = −(X − 1)3 .




(
x
0
   
2x + 2y − 2z = 0
  
Soit (x, y, z) ∈ E1 si et seulement si (A−I3 ) 
 y = 0 ⇔
x+y−z = 0
z
0
si et seulement si z = x + y ainsi (x, y, z) = (x, y, x + y) = x(1, 0, 1) + y(0, 1, 1) d’où
E1 = Vect(u1 , u2 ) avec u1 = (1, 0, 1), u2 = (0, 1, 1), ainsi dim E1 = 2.
Posons B = {u1 , u2 , u3 } avec u3 = (0, 0, 1). On a f (u1 ) = u1 , f (u2 ) = u2 , f (u3 ) =
(−2, 1, 0) = αu1 + βu2 + γu3 = (−2, 0, −2) + (0, 1, 1) + (0, 0, 1) = −2u1 + u2 + u3 .
On en déduit que

1 0 −2

A0 = 
 0 1
0 0


1 0 0




 0 1 0 .
et
P
=
1 



1 1 1
1
Exemple 2 Trigonaliser l’endomorphisme f de R3 dont la matrice relativement à la base
canonique est

1
−3 0
3



 −2 −6 0 13 

A=
 0 −3 1 3 


−1 −4 0 8
On a PA (X) = (X − 1)4 et E1 = Vect(u1 , u2 ) avec u1 = (3, 1, 0, 1), u2 = (0, 0, 1, 0).
Posons B = {u1 , u2 , u3 , u4 } avec u3 = (0, 1, 0, 0), u4 = (0, 0, 0, 1).
On a f (u1 ) = u1 , f (u2 ) = u2 , f (u3 ) = (−3, −6, −3, −4), f (u4 ) = (3, 13, 3, 8).
Déterminons les coordonnées de f (u3 ) et f (u4 ) dans la base B. Soit a, b, c et d les
20 CHAPITRE 2. TRIGONALISATION ET THÉORÈME DE CAYLEY-HAMILTON
coordonnées de f (u3 ), on a
f (u3 ) = au1 + bu2 + cu3 + du4 = f (u3 ) = −u1 − 3u2 − 5u3 − 3u4 .
de même si a0 , b0 , c0 et d0 sont les coordonnées de f (u4 ), on a
f (u4 ) = a0 u1 + b0 u2 + c0 u3 + d0 u4 = f (u4 ) = u1 + 3u2 + 12u3 + 7u4 . La matrice de f
relativement à la base B est donc

1 0

 0 1
M =
 0 0

0 0
Soit K =
−5 12
−3 7
PK (X) = (X − 1)2 .
−1 1



! 
.
−5 12

−3 7
−3 3
!
et F = Vect(u3 , u4 ), le polynôme caractésistique de K est
Déterminons dans F le sous-espace propre de K associé à la valeur propre 1. Soit
(α, β) ∈ F1 . Donc α = 2β, ainsi F1 = Vect{(2, 1)}. Posons v3 = (2, 1) = 2u3 + u4
et v4 = (0, 1) = u4 . On a v1 = u1 , v2 = u2 , v3 = 2u3 + u4 et v4 = u4 . Donc
f (v1 ) = v1 , f (v2 ) = v2 , f (v3 ) = 2f (u3 ) + f (u4 ) = −v1 − 3v2 + v3 .
f (v4 ) = f (u4 ) = u1 + 3u2 + 12u3 + 7u4 = v1 + 3v2 + 6v3 + v4 d’où


1 0 −1 1


 0 1 −3 3 
0

A =
 0 0 1 6 .


0 0 0 1
2.2
Polynômes annulateurs et Théorème de Cayley-Hamilton
Définition Soit f ∈ L(E) un endomorphisme de E et P (X) =
m
X
ak X k un polynôme à
k=0
coéfficients dans K. On dit que P est annulateur de f si P (f ) =
m
X
ak f k = 0.
k=0
Proposition 2.2.1. Soit E un K-espace vectoriel de dimension n et f ∈ L(E).
Alors il existe au moins un polynôme annulateurs de f .
2
Démonstration : Comme dim(E) = n, on a dim(L(E)) = n2 , donc la famille {idE , f, · · · , f n }
de n2 + 1 vecteurs de L(E) est liée. il existe a0 , a1 , · · · , an2 ∈ K non tous nuls tel
n2
n2
X
X
k
que
ak f = 0. Le polynôme Q(X) =
ak X k est annulateur de f .
k=0
k=0
2.2. POLYNÔMES ANNULATEURS ET THÉORÈME DE CAYLEY-HAMILTON 21
Proposition 2.2.2. Soit E un K-espace vectoriel de dimension n et f ∈ L(E) et
m
X
P (X) =
ak X k un polynôme annulateur de f . Alors toute valeur propre de f est
k=0
une racine de P .
Démonstration : Soit λ une valeur propre de f et u un vecteur propre associé.
On a f k (u) = λk u pour tout k ∈ N, donc
m
X
P (f )(u) = (
ak f k (u))
k=0
=
m
X
ak f k (u))
k=0
m
X
=(
ak λk )u
k=0
= P (λ)u
Comme P est annulateur de f , on a P (λ) = 0.
Théorème 2.2.3 (Cayley-Hamilton). Soit E un K-espace vectoriel de dimension
n et f ∈ L(E). Alors le polynôme caractéristique Pf de f est annulateur de f .
Démonstration : Soit M la matrice f relativement à une base B de E. Posons
N = M − XIn où In est la matrice unité d’ordre n et soit soit N ∗ la comatrice de
N . On a :
t
N ∗ × N = det(N )In
= PM (X)In .
Les coéfficients de N et t N ∗ sont des polynômes de degré inérieur ou égal à n − 1
n−1
X
t ∗
donc N =
Aj X j où les Aj sont des matrices carrées à coéfficients dans K. Nous
avons
j=0
t
n−1
X
N × N = (M − XIn )(
Aj X j )
∗
j=0
= PM (X)In .
Posons PM (X) =
n
X
j=0
aj X j avec an = (−1)n .
22 CHAPITRE 2. TRIGONALISATION ET THÉORÈME DE CAYLEY-HAMILTON
D’une part on a
t
n−1
X
N × N = (M − XIn )(
Aj X j )
∗
j=0
=
n−1
X
M Aj X j −
j=0
n−1
X
Aj X j+1
j=0
= M A0 + M A1 X + · · · + M An−1 X n−1 − A0 X − A1 X 2 − · · · − An−1 X n
= M A0 + (M A1 − A0 )X + · · · + (M An−1 − An−2 )X n−1 − An−1 X n .
D’autre part on a PM (X)In = a0 In + a1 In X + · · · + an In X n . En identifiant les
coéfficients de même degré, on a
M A0 = a0 In , (M A1 −A0 ) = a0 In , · · · , (M An−1 −An−2 ) = an−1 In et −An−1 = an In .
On en déduit que
PM (M ) =
n
X
aj M j )
j=0
= M A0 + M (M A1 − A0 ) + M 2 (M A2 − A1 ) + · · · + M n−1 (M An−1 − An−1 ) − An−1 M n
= 0.
Définition. Soit E un K-espace vectoriel de dimension n et f ∈ L(E). On appelle
polynôme ninimal de f l’unique polynôme mf (X) vérifiant les propriétés suivantes :
1. Le polynôme mf (X) est normalisé c’est à dire que son coéfficient dominant
vaut 1.
2. Le polynôme mf (X) est annulateur de f .
3. Si P est un polynôme annulateur non nul de f alors deg(mf ) ≤ deg(P ).
Théorème 2.2.4. Soit E un K-espace vectoriel de dimension n et f ∈ L(E). Alors
le polynôme minimal de f divise le polynôme caractéristique Pf de f .
Démonstration : La division euclidienne de Pf par mf donne Pf (X) = mf (X)Q(X) +
R(X) avec deg(R) < deg(mf ). Puisque mf (f ) = 0 et Pf (f ) = 0, on a R(f ) = 0
donc R = 0. On en déduit que Pf (X) = mf (X)Q(X).
Remarque : Comme le polynôme minimal mf de f divise le polynôme caractéristique
Pf de f les racines de mf sont des valeurs propres de f et comme de plus mf est
annulateur de f , toute valeur propre de f est une racine de mf . On en déduit que
2.2. POLYNÔMES ANNULATEURS ET THÉORÈME DE CAYLEY-HAMILTON 23
les valeurs propres sont exactement les racines de mf .
r
r
r
Y
X
Y
αi
Si Pf (X) =
(X − λi ) avec
αi = n alors mf (X) =
(X − λi )βi
i=1
avec 1 ≤ βi ≤ αi .
i=1
i=1
24 CHAPITRE 2. TRIGONALISATION ET THÉORÈME DE CAYLEY-HAMILTON
Chapitre 3
Décomposition de Dunford
3.1
Lemme de Noyaux
Théorème 3.1.1 (Lemme des noyaux). Soit E un K − ev, f ∈ L(E) un endomorphisme et P ∈ K[X] un polynôme à coéfficient dans K :
1. Le sous espace vectoriel ker(P (f )) est stable par f
2. Si P = P1 P2 · · · Pr où les Pi sont deux à deux premiers entre eux, alors
ker(P (f )) =
r
M
ker(Pi (f )).
i=1
Démonstration
1. Posons P (X) =
m
X
k
ak X et P (f ) =
m
X
ak f k .
k=0
k=0
m
m
m
X
X
X
k
k+1
On a f ◦ P (f ) = f ◦ (
ak f ) =
ak f
=(
ak f k ) ◦ f , donc f et P (f )
k=0
k=0
k=0
commutent. Montrons que ker(P (f )). Soit x ∈ ker(P (f )), on a P (f )(x) = 0E ,
donc P (f )(f (x)) = f (P (f )(x)) = f (0E ) = 0 ainsi f (x) ∈ ker(P (f )) d’où
f (ker(P (f ))) ⊆ ker(P (f )).
2. Elle se fait par récurrence sur r.
Si r = 2, P = P1 P2 avec P1 , P2 premiers entre eux, d’après l’identité de Bézout,
il existe Q1 , Q2 ∈ K[X] tel que Q1 P1 + Q2 P2 = 1, en appliquant f on a
Q1 (f ) ◦ P1 (f ) + Q2 (f ) ◦ P2 (f ) = idE .
25
26
CHAPITRE 3. DÉCOMPOSITION DE DUNFORD
Soit x ∈ ker(P (f )), on a x = Q1 (f )(P1 (f (x))) + Q2 (f )(P2 (f (x))). En posant
x1 = Q2 (f )(P2 (f (x))) et x2 = Q1 (f )(P1 (f (x))), nous avons
P1 (f )(x1 ) = Q2 (f )(P1 (f ) ◦ P2 (f )(x))
= Q2 (f )(P (f )(x))
= 0E
donc x1 ∈ ker(P1 (f ))). On montre de la même manière que x2 ∈ ker(P2 (f ))).
Nous avons ainsi ker(P (f )) = ker(P1 (f ))) + ker(P2 (f ))).
Soit x ∈ ker(P1 (f ))) ∩ ker(P2 (f )), on a x ∈ ker(P1 (f )) et x ∈ ker(P2 (f )) donc
P1 (f )(x) = 0 et P2 (f )(x) = 0E , d’où x = Q1 (f )(P1 (f )(x))+Q2 (f )(P2 (f )(x)) =
0E . il s’en suit que ker(P1 (f )) ∩ ker(P2 (f )) = 0E . Ainsi nous avons
ker(P (f )) = ker(P1 (f )) ⊕ ker(P2 (f )).
On suppose r ≥ 3 et la propriété vraie pour r − 1.
On a P = (P1 P2 · · · Pr−1 )Pr = QPr avec Q = P1 P2 · · · Pr−1 . Comme les polynômes Pi sont deux à deux premiers entre eux, Q et Pr sont premiers entre
eux donc d’après le cas r = 2 on a ker(P (f )) = ker(Q(f )) ⊕ ker(Pr (f )). Par
r
M
hypothèse de récurrence ker(Q(f )) =
ker(Pi (f )), ainsi
i=1
ker(P (f )) =
r
M
ker(Pi (f )).
i=1
Corollaire 3.1.2. Soit E un K-ev, f ∈ L(E) et P = P1 P2 · · · Pr un polynôme à
coéfficients dans K décomposé en produit de polynômes deux á deux premiers entre
r
M
eux. Si P est annulateur de f alors E =
ker(Pi (f ))
i=1
Démonstration Si P est annulateur de f alors ker(P (f )) = E et on obtient le résultat
en appliquant le théorème ci dessus.
Définition Soit E un K-espace vectoriel de dimension n et f ∈ L(E) dont le polynôme
r
r
Y
X
αi
n
caractéristique est Pf (X) = (−1)
(X − λi ) avec λi 6= λj si i 6= j et
αi = n.
i=1
i=1
Le sous espace Nλ = ker[(f − λi idE )αi ] est appelé sous espace caractéristique associé
à la valeur propre λ.
3.2. DIAGONALISATION À L’AIDE DES POLYNÔMES ANNULATEURS
27
Théorème 3.1.3. Soit E un K-espace vectoriel de dimension n, f ∈ L(E) dont le
r
Y
n
polynm̂e caractéristique est scindé Pf (X) = (−1)
(X − λi )αi . Alors
i=1
E=
r
M
Nλi .
i=1
Démonstration. Nous avons Pf (X) = (−1)n
r
Y
(X − λi )αi = P1 P2 · · · Pr où
i=1
Pi = (λi − X)αi . Comme les Pi sont deux à deux premiers entre eux et que Pf est
annulateur de f , on a
E=
r
M
ker(Pi (f )) =
i=1
Remarque
r
M
Nλi .
i=1
1. Eλi ⊂ Nλi , le sous espace propre Eλi est inclue dans le sous espace
caractéristique Nλi .
2. Chaque sous espace caractéristique Nλi est stable par f .
3.2
Diagonalisation à l’aide des polynômes annulateurs
Théorème 3.2.1. Soit E un K-ev de dimension n, f ∈ L(E) et λ1 , λ2 , · · · , λr les valeurs
propres deux à deux distinctes de f . Alors les assertions suivantes sont équivalentes :
1. f est diagonalisable.
2. Le polynôme minimal mf (x) de f est scindé et ses racines sont simples.
3. L’endomorphisme f admet un polynôme annulateur P scindé dont les racines sont
simples.
Démonstration. Démontrons que 1 =⇒ 2. Si f diagonalisable alors E admet une base
B = e1 , e2 , · · · , en formée de vecteurs propres de f .Comme les valeurs propres sont
r
Y
les racines du polynôme minimal, on a Q(X) =
(X − λi ) divise le polynôme
i=1
r
Y
minimal. Montrons que mf (x) =
(X − λi ), pour cela, il suffit de montrer que le
i=1
polynôme Q est annulateur de f . Comme les (ej )1≤j≤n sont des vecteurs propres de
f , pour tout j ∈ [|1, n|] il existe i ∈ [[1, r]] tel que (f − λi idE ))(e)j = 0E .
r
Y
On a Q(f )(ej ) =
(f − λk idE ) ◦ (f − λi idE (ej ) = 0E .
k=1,k6=i
28
CHAPITRE 3. DÉCOMPOSITION DE DUNFORD
Soit x =
n
P
xj ej et g = Q(f ), on a
j=1
n
X
g(x) = g(
xj ej )
j=1
=
n
X
g(ej )
j=1
=
n
X
Q(f )(ej ) = 0E .
j=1
Ainsi Q(f )(x) = 0E pour tout x ∈ E, donc Q(f ) = 0 et Q est annulateur de f . On
en déduit que mf divise Q d’où mf = Q il s’en suit que le polynôme minimal est
scindé et ses racines sont simples.
L’implication 2 =⇒ 3 est évident, il suffit de prendre P = mf .
Démontrons que 3 =⇒ 1. On suppose qu’il existe un polynôme annulateur P (X) =
m
Y
(X − ai ) scindé dont les racines sont simples. Comme P est est annulateur de f
i=1
ses valeurs propres sont des racines de P . On peut supposer que les valeurs propres
λ1 , · · · , λr sont respectivement a1 , · · · , ar . Dans ce cas on a

Eλ = ker(f − λi idE ) si 1 ≤ i ≤ r
i
ker(f − a id ) = {0 } si r + 1 ≤ i ≤ m.
i
E
m
M
D’après le lemme des noyaux, on a E =
i=1
diagonalisable.



3 −1
1 0 0






Exemple A = 4 −1 3 B = 2 0
4 −2 4
1 −1



1 a 1
1
0






C = 0 1 b  D =  −1
2
2−m m−2
0 0 c
PD (X) = −(X − 1)(X − 2)(X − m)
3.3
.
E
1
ker(f − ai idE ) =
r
M
Eλi donc f est
i=1


1

2
1


1

m
Diagonalisation simultanée de deux endomorphismes
Définition Soit E un K-ev, f ∈ L(E), F un sous espace vectorielle de E stable par
f . Alors l’endomorphisme g ∈ L(F ) défini par g(x) = f (x) ∀x ∈ F est appelé
3.3. DIAGONALISATION SIMULTANÉE DE DEUX ENDOMORPHISMES
29
endomorphisme de F induit par f .
Proposition 3.3.1. soit E un K-ev de dimension finie, f ∈ L(E) et F un sous
espace vectoriel de E stable par f .Si f est diagonalisable alors l’endomorphisme
induit g ∈ L(F ) est diagonalisable.
Démonstration Comme f est diagonalisable, il existe un polynôme scindé P ∈ K[X]
dont racines simples tel que P (f ) = O. Pour tout x ∈ F , on a
P (g)(x) = P (f )(x) = 0. Donc P est annulateur de g et est á racines simples, on en
déduit que g est diagonalisable.
Théorème 3.3.2. Soit E un K-ev de dimension n, f et g deux endomorphismes
diagonalisables de E tel que f ◦ g = g ◦ f . Alors E admet une base formée de vecteur
propres commun à f et g,c’est à dire f et g sont diagonalisable dans une même base
de E.
Démonstration Comme f est diagonalisable, E =
r
M
Eλi oú les Eλi sont les sous
i=1
espaces propres de f associés aux valeurs propres λi de f .
Montrons que ∀i ∈ [[1, r]] , le sous espace propre Eλi est stable par g.
Soit x ∈ Eλi , on a
f (g(x)) = f ◦ g(x) = g ◦ f (x)
= g(f (x))
= λi g(x)
Donc g(x) ∈ Eλi d’où g(Eλi ) ⊂ Eλi . Comme g est diagonalisable, l’endomorphisme
ϕi induit par g sur Eλi est diagonalisable. Donc il existe une base Bi de Eλi formée
r
[
de vecteurs propres de ϕi donc de g. L’ensemble B =
Bi est une base de E
i=1
formée de vecteurs propres communs à f et g.
Corollaire 3.3.3. Soit A, B ∈ Mn (K) deux matrices diagonalisables tel que AB =
BA. Alors il existe P ∈ GLn (K) et deux matrices diagonales D et D0 telles que
A = P DP −1 et B = P D0 P −1
30
CHAPITRE 3. DÉCOMPOSITION DE DUNFORD
3.4
Décomposition spectrale ou décomposition de Dunford
3.4.1
Les projecteurs spectraux
Soit E un K − ev de dimension n ∈ N∗ et f ∈ L(E) un endomorphisme scindé et
r
r
Q
Q
Pf (x) = (−1)n (X − λi )αi et mf (x) = (X − λi )βi avec 1 ≤ βi ≤ αi .
i=1
i=1
r
Q
mf (X)
Soit i ∈ [[1, r]], posons Pi =
=
(X − λj )βj . Les polynômes Pi sont deux à
(x − λi )βi
j6=i
deux premiers entre eux d’aprés l’identité de Bezout , il existe des polynômes Q1 , · · · , Qr
r
P
tels que
Pi Qi = 1. On dit que les polynômes Qi sont asociés aux polynômes Pi
i=1
Définition : On appelle projecteur spectral associé à f et à λi l’endomorphisme
πi = Pi (f ) ◦ Qi (f )
.
Lemme 3.4.1. Les projecteurs πλi vérifient les propriétés suivante
r
P
1.
πi = idE
i=1
2. πi ◦ πj = 0 si i 6= j
3. πi2 = πi
Démonstration :
1. Comme
r
P
i=1
Pi Qi = 1, on a
r
P
πi = idE .
i=1
2. On a, pour tout j 6= i, que le polynôme minimal mf de f divise Pi Pj , donc
Pi Pj (f ) = 0 et on a les égalités
πi ◦ πj = Qi Pi (f ) ◦ Qj Pj (f )
= Qi Pi Qj Pj (f )
= Qi Qj Pi Pj (f )
= Qi Qj (f ) ◦ Pi Pj (f ) = 0
3. Soit i ∈ {1, . . . , r}, comme
r
X
πj = Q1 P1 (f ) + · · · + Qr Pr (f ) = idE , on a les
j=1
égalités
πi = πi ◦
r
X
j=1
r
X
πj =
πi ◦ πj = πi2 .
j=1
3.4. DÉCOMPOSITION SPECTRALE OU DÉCOMPOSITION DE DUNFORD
31
Ainsi les πi sont bien des projecteurs.
Lemme 3.4.2. L’endomorphisme πi est la projection sur le sous espaces carcatéL
ristique Ni = ker(f − λi idE )αi parallèlement au sous espace Nj .
j6=i
Démonstration
1. Montrons pour tout i ∈ {1, . . . , r}, l’égalité Imπi = Ni .
Soit y = πi (x) ∈ Imπi , on a les égalités
(X − λi )βi (f ) (y) = (X − λi )βi (f ) ◦ Qi Pi (f ) (x)
= Qi (f ) ◦ mf (f ) (x)
=0
Donc on obtient l’inclusion Imπi ⊂ Ni .
Soit x ∈ Ni , pour tout j 6= i, on a les égalitś πj (x) = Qj (f ) ◦ Pj (f ) (x) = 0
car (X − λi )βi divise Pj . Donc on obtient l’inclusion Ni ⊂ ker πj et et l’égalité
r
X
x=
πj (x) = πi (x). D’où, x = πi (x) ∈ Imπi et Imπi = Ni
j=1
2. Montrons pour tout i ∈ {1, . . . , r}, on a l’égalité ker πi =
L
Nj :
L
On a déjà vu, l’inclusion Nj ⊂ ker πi , pour tout j =
6 i, donc Nj ⊂ ker πi .
j6=i
X
L
L
πj (x) ∈ Nj , donc on a bien ker πi = Nj ,
Soit x ∈ ker πi , on a x =
j6=i
j6=i
j6=i
j6=i
Les résultats 1) et 2) montrent que πi est la projection sur le sous espaces carcatéL
ristique Ni = ker(f − λi idE )αi parallèlement au sous espace Nj .
j6=i
3.4.2
Décomposition de Dunford
Le théorème suivant est appelé décomposition spectrale ou décomposition de Dunford
d’un endomorphisme.
Théorème 3.4.3. Soit f un endomorphisme trigonalisable. Il existe un unique couple
(N, D) ∈ L (E)2 tel que :
1. D est diagonalisable et N est nilpotent
2. f = D + N et D ◦ N = N ◦ D
Démonstration :
1. Montrons d’abord l’existence de D et N .
32
CHAPITRE 3. DÉCOMPOSITION DE DUNFORD
Soit Pf le polynôme caractéristique de f , il est scindé sur K car f est trigonalisable. Distinguons deux cas :
L’endomorphisme f a une seule valeur propre.
Soit E un K − ev de dimension n et f ∈ L(E) un endomorphisme de E.
Supposons Pf (X) = (−1)n (X − λ)n et posons D = λidE et N = f − λidE ,
d’après le théorème de Cayley-Hamilton N n = 0, donc N est nilpotent, D est
diagonale donc diagonalisable, D◦N = N ◦D et f = D+N est la dćomposition
de Dunford de f .
L’endomorphisme f a plusieurs valeurs propres.
Dans ce cas le polynôme caractéristique est donné par
n
Pf (X) = (−1)
r
Y
(X − λi )αi
i=1
D’après le thórème de décomposition des noyaux et le théorème de CayleyHamilton, l’espace E est somme directe des sous-espaces caractéristiques Ni =
ker (f − λi id)αi :
E=
r
M
Ni
i=1
Soit D l’endomorphisme de E dont la restriction à chaque Ni est λi idNi . En
d’autres termes, l’endomorphisme D est diagonalisable et admet chaque sousespace Ni comme espace propre pour la valeur propre λi . Posons N = f − D.
Comme les Ni sont stables par f et D, ils le sont également par N . Soit fi , gi
et hi les restriction à Ni de f , D et N , on a hi = fi − gi . Or, par définition de
Ni , on a l’égalité hαi i = (fi − λi idNi )αi = 0, donc hi est nilpotent et commute
avec gi . On en déduit que l’endomorphisme N est nilpotent et commute avec
D. Nous avons
D=
r
X
λi πi .
i=1
2. Montrons que D et N sont uniques.
Soit (D0 , N 0 ) un couple vérifiant les assertions du théorème. Comme f = D0 +N 0
et D0 commute avec N 0 , l’endomorphisme D0 commute avec f , donc avec chacun
des πi . En particulier, l’endomorphisme D0 commute avec D, ainsi, D et D0
sont diagonalisables dans une même base, donc D0 − D est diagonalisable.
De même, l’endomorphisme N 0 commute avec N . Soit d l’indice de nilpotence
3.4. DÉCOMPOSITION SPECTRALE OU DÉCOMPOSITION DE DUNFORD
33
de N , d0 celui de N 0 et m = d + d0 . On a
!
m
X
m
m
(N − N 0 ) =
(−1)j N 0j N m−j
j
j=0
!
!
0
d
m
X
X
m
m
0
j
=
(−1) N 0j N d N d −j +
(−1)j N 0j N m−j
j
j
j=0
j=d0 +1
Or, puisque N d = 0, N 0j = 0 pour j ≥ d0 on a l’égalité (N − N 0 )m = 0 donc
l’endomorphisme N − N 0 est nilpotent. Or, puisque
N − N 0 = f − D − (f − D0 ) = D0 − D,
l’endomorphisme N − N 0 est nilpotent et diagonalisable, donc on a N − N 0 = 0
d’où N = N 0 et D = D0 .
Exemple 1 : Donner la décomposition spectrale de l’endomorphisme f de R3 dont la
matrice relativement à la base canonique est


2 −1 2



A=
10
−5
7


4 −2 2
Le polynôme caractéristique et le polynôme minimal de f sont respectivement
PA (X) = −X 2 (X + 1) et mA (X) = X 2 (X + 1).
*Déterminons les projecteurs spectraux associés à λ1 = 0 et λ2 = −1. Nous avons
P1 (X) =
mf (X)
mA (X)
et P2 (X) =
.
2
X
X +1
1
, la décomposition en éléments simples de g(X) est donnée
mA (X)
1
a
b
c
par g(X) = 2
=
+ 2+
. Nous avons
X (X + 1)
X X
X +1


lim X 2 g(X)
=b=1



X→0
lim (X + 1)g(X) = c = 1
X→−1




 lim Xg(X)
=a+c=0
Posons g(X) =
X→+∞
Donc on a a = −1, b = 1 et c = 1 ce qui donne g(X) =
ainsi 1 =
1
−X + 1
1
=
+
,
2
mA (X)
X
X +1
mA (X)
mA (X)
(−X + 1) +
, d’où Q1 (X) = −X + 1 et Q2 (X) = 1.
2
X
X +1
34
CHAPITRE 3. DÉCOMPOSITION DE DUNFORD
On en déduit que π1 = P1 (A)Q1 (A) = (A + I)(−A + I), π2 = P2 (A)Q2 (A) = A2 ,
D = 0π1 + (−1)π2 = −π2 = −A2 et N = A − D = A + A2 .
Exemple 2 : Déterminer la décomposition de Dunford l’endomorphisme de R4 dont la
matrice relativement à la base canonique est

1 −3

−2 −6
A=
 0 −3

−1 −4
0
3


0 13

1 3

0 8
Le polynômes caractéristique de f est PA (X) = (X − 1)4 , la matrice A a une unique
valeur propre et sa décomposition de Dunford est

0

−2
D = I et N = A − I = 
0

−1
donnée par

−3 0 3

−7 0 13
.
−3 0 3 

−4 0 7
Exemple 3 : Donner la décomposition spectrale de l’endomorphisme g de R3 dont la
matrice relativement à la base canonique est


3 −1 1



B= 2 0 1 

1 −1 2
Le polynômes caractéristique et le polynôme minimal de g sont respectivement
PB (X) = −(X − 1)(X − 2)2 et mB (X) = (X − 1)(X − 2)2
Chapitre 4
Réduction de Jordan et Systèmes
différentiels
4.1
Réduction de Jordan
Définion Soient K un corps commutatif et unitaire, n ∈ N∗ et λ ∈ K. On appelle matrice
de Jordan d’ordre n associée à λ, la matrice

λ 1
0 ···

 0 λ
1 ···

.

..
..
.
.
Jλ =  ..
 .
...
 .
 .
0








1 
··· ··· λ
c’est à dire Jλ = (aij )1≤i,j≤n
0
..
.
0 ···



 λ si i = j
avec aij =
1 si j = i + 1


 0
sinon
• n = 1 ⇒ Jλ = (λ)
!
λ 1
• n = 2 ⇒ Jλ =
0 λ

λ 1 0

• n = 3 ⇒ Jλ = 
 0 λ 1
0 0 λ
Exemples




Théorème 4.1.1. Soit Jλ une matrice de Jordan de taille n, alors
1. Le polynôme caractéristique est PJλ (X) = (λ − X)n
35
36
CHAPITRE 4. RÉDUCTION DE JORDAN ET SYSTÈMES DIFFÉRENTIELS
2. Le polynôme minimal est mJλ (X) = (X − λ)n
3. On a dim Eλ = 1 où Eλ est le sous-espace propre associé à λ.
Démonstration
1) évident car le déterminant d’une matrice triangulaire est le produit
des éléments diagonaux.




3) (x1 , . . . , xn ) ∈ Eλ si et seulement si (Jλ −λI) 


x1
..
.
..
.


 
 
 
=
 
 
xn
0
..
.
..
.




 si et seulement


0
si









0
1
0
..
.
0
0
0
0 ···
···
0
0
1 ··· 0
..
. . ..
.
. .
...
···
1
···
··· 0










x1
..
.
..
.


 
 
 
=
 
 
xn
0
..
.
..
.




,


0
donc Eλ = vect(e1 ) avec e1 = (1, 0, . . . , 0) d’où dim Eλ = 1.
2) Posons N = Jλ − λI. D’après le théorème de Cayley-Hamilton on a PJλ (Jλ ) =
N n = 0, donc N est nilpotent. Pour montrer que mJλ = (X − λ)n il suffit de
montrer que l’indice de nilpotence de N est n. On a N = (aij )1≤i,j≤n avec
(
1 si j = i + 1
aij =
0 si j 6= i + 1
On a N 2 = (bik )1≤i,k≤n avec bik =
n
P
aij ajk , si j 6= i + 1 ou k 6= j + 1 on a
j=1
aij = 0 ou ajk = 0, donc bik = 0 si j 6= i + 1. Si j = i + 1 et k = j + 1, on a
aij = 1 et ajk = 1, donc bik = 1 si k = i + 2. Ainsi N 2 = (bik )1≤i,k≤n avec
(
1 si k = i + 2
bik =
0
sinon
Montrons par récurrence sur p ≥ 2 que N p = (cij )1≤i,j≤n avec
(
1 si j = i + p
bij =
0
sinon
La propriété est vraie pour 2, supposons la vraie pour p − 1 c’est à dire que
N p−1 = (dij )1≤i,j≤n avec
(
dij =
1 si j = i + p − 1
0
sinon
4.1. RÉDUCTION DE JORDAN
37
Nous avons N p = N p−1 N = (cik )1≤i,k≤n avec cik =
n
P
dij ajk .
j=1
Si k 6= i + p alors on a cik = 0 et si k = i + p, on a cik = 1 d’où la proprété est
vraie au rang p.Le calcul précédent montre que N n−1 = (gij )1≤i,j≤n avec
(
gij =
1 si j = n et i = 1
0
sinon
On en déduit que N n−1 6= 0 et N n = 0, ainsi N est nilpotent d’indice n.
Remarque Soient E un K−espace vectoriel de dimension n et f ∈ L(E). On suppose
Pf (X) est scindé dans K. La réduction de Jordan consiste à montrer qu’il existe
une base B de E relativement à la quelle la matrice de f est décomposée en bloc

Jλ1
0
..

A0 = 


.

.
0

Jλt
où les Jλi sont des matrices de Jordan, si t = 1, on a un seul bloc de Jordan et si
de plus r = n, la matrice est diagonale
4.1.1
Réduction de Jordan d’un endomorphisme nilpotent
Définition : Soient E un K−espace vectoriel de dimension n et f ∈ L(E).On dit que f
est nilpotent sur K s’il existe p ∈ N tel que f p = 0 dans L (E). Pour f nilpotent, on
note r = min {n ∈ N, f n = 0} que l’on appelle indice de nilpotence de f . On note
N l’ensemble des endomorphismes nilpotents.
Théorème 4.1.2. (de caractérisation) Soient E un K−espace vectoriel de dimension n et f ∈ L(E). Les assertions suivantes sont équivalentes :
1. f est nilpotente sur K.
2. Le polynôme caractéristique est Pf (X) = (−1)n X n dans K [X]
3. Il existe r ≤ n tel que le polynôme minimal de f soit mf (X) = X r dans K [X]
4. f trigonalisable sur K et Sp (f ) = {0}
Soient E un K−espace vectoriel de dimension n et f ∈ L(E) un endomorphisme
nilpotent d’indice r. On a 1 ≤ r ≤ n.
38
CHAPITRE 4. RÉDUCTION DE JORDAN ET SYSTÈMES DIFFÉRENTIELS
Réduction de Jordan d’un endomorphisme nilpotent d’indice n
Définition On appelle bloc de Jordan élémentaire une matrice carrée du type :


0 1
∗
 .


.. ... 


J =

.

. . 1


0
0
Théorème 4.1.3. Soient E un K−espace vectoriel de dimension n et f ∈ L(E) un
endomorphisme nilpotent d’indice r = n. Alors
1. Le polynôme caractéristique et le polynôme minimal de f sont respectivement
Pf (X) = (−1)n X n et mf (X) = X n .
2. Il existe x tel que B = (x, f (x) , . . . , f n−1 (x)) soit une base de E (c’est à dire
f cyclique).
3. Relativement à B la matrice de f est un bloc de Jordan élémentaire c’est à
dire MatB (f ) = J.
Démonstration : Soient E un K−espace vectoriel de dimension n et f un endomorphisme nilpotent de E d’indice de nilpotence n. On a f n = 0 et f n−1 6= 0 et il existe
x ∈ E tel que f n−1 (x) 6= 0E . Il est claire que B = {f n−1 (x), f n−2 (x), . . . , f (x), x}
f . Relativement à cette base

0

0 

.. 
. 


1 
··· 0
est une base de E adaptée à la réduction de Jordan de

0 1
0 ···

 0 0
1 ···

 .
... ...
MB (f ) =  ..
 .
..
 .
.
 .
0 ···

4 −5 −2


Exemples A =  2 −2 −8
−5 4 −2
Déterminer la réduction de
···




Jordan de l’endomorphisme f associé à A.
Le polynôme caractéristique de f est donné par PA (X) = −X 3 et d’après e théorème
Cayley-Hamilton on a A3 = 0M3 . De plus

36 −18 36

A2 = 
 36 −18 36
−18 9 −18


 6= 0M3 ,

4.1. RÉDUCTION DE JORDAN
39
donc A est nilpotent d’indice 3. On a f 2 (e3 ) = (36, 36, −18) 6= (0, 0, 0), donc
B = {f 2 (e3 ), f (e3 ), e3 } avec f (e3 ) = (−2, −8, −2) et e3 = 
(0, 0, 1)
36

3
de R adaptée à la réduction de Jordan de f . On a P = 
 36
−18


0 1 0


0

A = 0 0 1 
.
0 0 0
est une 
base
−2 0

−8 0 
 et
−2 1
Exercice Donner la réduction de Jordan de l’endomorphisme associé à la matrice

4 −4
0
2



 4 −4 −2 4 
.
B=
 0 0

4
−8


0 0
2 −4
Réduction de Jordan d’un endomorphisme nilpotent d’indice r < n
Théorème 4.1.4. (décomposition de Jordan pour les nilpotents)
Soient E un K-espace vectoriel de dimension n et f ∈ L(E) nilpotent d’indice r < n.
Alors il existe une base B telle que
MatB (f ) = Diag (J1 , . . . , Jn1 ) =: J˜
où Ji est bloc de Jordan élémentaire. La matrice J˜ est appelée la réduite de Jordan
de f .
Soient E de dimension n, f ∈ L(E) nilpotent d’indice r < n et p ∈ N, 0 ≤ p ≤ r.
Posons kp = ker f p et , dp = dim(kp ). La démonstration du théorème utilise les
Lemmes suivants :
Lemme 4.1.5. On a une suite d’inclusions strictes des noyaux :
{0E } = k0 ( k1 ( . . . ( kr = E.
Démonstration Soit p ∈ [[0, r]] et soit x ∈ kp , nous avons f p (x) = 0E ce qui entraîne
f p+1 (x) = f (f p (x)) = f (0E ) = 0E d’où kp ⊂ kp+1 . Puisque f est nilpotent d’indice
r, on a f r−1 6= 0 et il existe u ∈ E tel que f r−1 (u) 6= 0E .
40
CHAPITRE 4. RÉDUCTION DE JORDAN ET SYSTÈMES DIFFÉRENTIELS
Pour tout entier p ∈ [[1, r − 1]],on a f r−p (f p (u)) = f r (u) = 0E et f r−p−1 (f p (u)) =
f r−1 (u) 6= 0E , donc f p (u) ∈
/ kr−p−1 . Ainsi nous avons
kr−p−1 ( kr−p .
Lemme 4.1.6. Il existe des sous-espaces vectoriels F1 , F2 , . . . , Fr non réduits à
{0E }, tels que
(
kp = kp−1 ⊕ Fp , 1 ≤ p ≤ r
f (Fp ) ⊂ Fp−1 , 2 ≤ p ≤ r
Démonstration : Elle se fait par récurrence descendante sur p.
Supposons p = r, comme kr−1 ( kr ,le sous espace kr−1 admet un supplémentaire Fr
dans kr c’est à dire kr = kr−1 ⊕ Fr donc la propriété est vraie si p = r.
Supposons construits les sous-espaces Fr , Fr−1 , Fp vérifiant les conditions du Lemme
1 et construisons Fp−1 .
Soit x ∈ Fp ; comme Fp ⊂ kp , on a f p (x) = 0E d’où f p−1 (f (x)) = 0E ainsi f (x) ∈
kp−1 , donc f (Fp ) ⊂ kp−1 . Montrons que f (Fp ) et kp−2 sont en somme directe dans
kp−1 . Soit y ∈ f (Fp ) ∩ kp−2 . On a y ∈ f (Fp ) ∩ kp−2 entraîne y ∈ f (Fp ) et y ∈ kp−1 ,
donc il existe t ∈ Fp tel que y = f (t) et f p−2 (y) = 0E .
Donc f p−1 (t) = f p−2 (y) = 0E , on en déduit que t ∈ kp−1 . Ainsi t ∈ kp−1 ∩ kp = {0E }
d’où t = 0E et y = f (t) = 0E , par suite f (Fp ) ∩ kp−2 = {0E }. Donc les sous
espaces f (Fp ) et kp−1 sont en somme directe dans kp−1 . On a deux possibilité :
f (Fp ) ⊕ kp−2 = kp−1 ou f (Fp ) ⊕ kp−2 ( kp−1 .
Si f (Fp ) ⊕ kp−2 = kp−1 , il suffit de prendre Fp−1 = f (Fp ).
Si f (Fp ) ⊕ kp−2 ( kp−1 ,le sous espace f (Fp ) ⊕ kp−2 admet un supplément Gp−1 dans
kp−1 donc kp−1 = f (Fp ) ⊕ Gp−1 ⊕ kp−2 . il suffit de prendre Fp−1 = f (Fp ) ⊕ Gp−1 .
Lemme 4.1.7. L’espace E est somme directe des Fi
E=
r
M
Fi .
i=1
Démonstration :
E = kr = kr−1 ⊕ Fr
= kr−2 ⊕ Fr−1 ⊕ Fr
=
..
.
= Fr ⊕ Fr−1 ⊕ . . . ⊕ F1 .
4.1. RÉDUCTION DE JORDAN
41
Lemme 4.1.8. L’image par f d’une base de Fp est une famille libre de Fp−1 .
r
P
Démonstration : Soient {v1 , . . . vr }, une base de Fp et α1 , . . . , αr ∈ K tel que
αi f (vi ) =
i=1
0E .
r
X
αi f (vi ) = 0E
r
X
=⇒ f (
αi vi ) = 0E
i=1
i=1
=⇒
r
X
αi vi ∈ ker f = k1 ⊂ kp−1
i=1
=⇒
=⇒
r
X
i=1
r
X
αi vi ∈ Fp ∩ kp−1 = 0E
αi vi = 0E
i=1
=⇒ α1 = . . . = αr = 0.
On en déduit que {f (v1 ), . . . , f (vr )} est libre dans Fp−1 .
Remarque. Les lemmes ci-dessus permettent de construire une base E adaptée à la
réduction de Jordan.
Définition. À toute suite finie d’entiers (n1 , . . . , nr ) vérifiant 0 < n1 ≤ n2 ≤ · · · ≤ nr ,
on peut associer un tableau à r lignes, dont la i-ème ligne comporte ni cases. On
note TY (n1 , . . . , nr ) ce tableau appelé tableau de Young.
Un tableau de Young est un tableau formé de cases disposées en lignes et dont les
longueurs vont en croissant. Le nombre de tableaux de Young en tout n cases est
égal au nombre de partitions de l’entier n.
Un exemple de tableau de Young, TY (1, 3, 4, 6)
1
3
4
6
Dḿonstration du théorème Soit 1 ≤ p ≤ r − 1 et Bp une base de Fp . L’ensemble
r
[
B=
Bp est une base de E adaptée à la réduction de Jordan de f .
p=1
Posons dp = dim(kp ) comme kp = kp−1 ⊕ Fp on a dim(Fp ) = dp − dp−1 . À partir de la
suite (dp − dp−1 )1≤p≤r−1 on construit le tableau de Young associé à la valeur propre
42
CHAPITRE 4. RÉDUCTION DE JORDAN ET SYSTÈMES DIFFÉRENTIELS
λ = 0, en plaçant à la première ligne le nombre de cases égal la dimension de Fr où
r est l’indice de nilpotence de f et les vecteurs qui composent cette ligne sont ceux
qui engendrent Fr . La deuxième ligne est composée de dim(Fr−1 ) les vecteurs qui
composent cette ligne sont images par f des vecteurs engendrant Fr complétes au
besoin par des vecteurs appartenant à kr−1 qui ne sont pas dans kr−2 , ainsi de suite
et le nombre de cases de la dernière ligne est égal à la dimension du sous espace
propre E0 associée “a la valeur propre 0.
Fr
u1
u2
Fr−1
..
.
f (u1 )
..
.
f (u2 )
..
.
W1
..
.
F1
f r−1 (u1 )
f r−1 (u2 )
···
···
Chaque colonne du tableau correspond à un bloc de Jordan donc le nombre de blocs
de valeurs est égal à la dimension du sous-espace propre.
Exemple 1 Donnons la réduction de Jordan de l’endomorphisme f ∈ L(R4 ) associé à la
matrice A avec

0 0 3 4


0 0 2 4
.

A=

0 0 0 2
0 0 0 0

Le polynôme caractéristique est donné par PA (X) = X 4 et on

0

0
A2 = 
0

0

0 0 6

0 0 4

0 0 0

0 0 0
A3 = 0.
L’endomorphisme f est nilpotent d’indice 3. Déterminons la suite des noyaux.
On a k3 = ker f 3 = R4 car f 3 = 0,

  

x



  

 y  
 
k2 = ker f 2 = (x, y, z, t) ∈ R4 / A2 
 z =


  



t






0 
 .
0 





0
0
4.1. RÉDUCTION DE JORDAN
43
Ce qui donne k2 = Vect(e1 , e2 , e3 ) e1 = (1, 0, 0, 0), e2



 3z + 4t =
k1 = ker f donc (x, y, z, t) ∈ k1 ⇐⇒
2z + 3t =



t =
= (0, 1, 0, 0), e3 = (0, 0, 1, 0).
0
0
⇐⇒ z = t = 0, donc
0
k1 = Vect(e1 , e2 ) avec e1 = (1, 0, 0, 0) et e2 = (0, 1, 0, 0).
La suite des dimensions des Fp est donnée par d3 − d2 = 1; d2 − d1 = 1; d1 − d0 =
d1 = 2. le sous espace F3 est un supplémentaire de k2 dans R4 c’est à dire k3 = k2 ⊕F3 ,
donc on peut prendre F3 = Vect(e4 ). Le vecteur f (e4 ) appartient à F2 et comme
dim(F2 ) = 1, on peut prendre F2 = Vect f (e4 ). De plus comme f 2 (e4 ) ∈ F1 , on
complète f 2 (e4 ) par e2 pour avoir une base de F1 . Ce qui donne le tableau de Young
suivant :
F3
e4
F2
f (e4 )
F1
f 2 (e4 ) e2
.
Ce tableau indique qu’il y a deux blocs de Jordan associée à valeur propre 0 de la
matrice A, un bloc de taille 3 et un bloc de taille 1.
Posons v1 = f 2 (e4 ) = (6, 4, 0, 0) = 6e1 +4e2 , v2 = f (e4 ) = (4, 3, 2, 0) = 4e1 +3e2 +2e3 ,
v3 = e4 et v4 = e2 de sorte que A = {v1 , v2 , v3 , v4 } soit une base de R4 adaptée à
la réduction de Jordan de A. Ce qui montre qu’une réduction de Jordan de A est
donnée par :


6 4
0 1 0 0
! 



0 0 1 0
0
 et P = 4 3
=
0 2
0 0 0 0
J2



0 0
0 0 0 0

A0 =
Avec
J1
0


0 1 0



J1 = 0 0 1
 et J2 = (0)
0 0 0

0 0

0 1
.
0 0

1 0
44
CHAPITRE 4. RÉDUCTION DE JORDAN ET SYSTÈMES DIFFÉRENTIELS
Exemple 2 Donner la réduction de la matrice


0
0
0
0


0
0
0
0


A=
2
2
1
1

−2 −4 −4 −2
Le polynôme caractéristique de A est PA (X) = X 4 . On a A2 = 0 donc A est
nilpotent d’indice 2. Déterminons la suite des noyaux k2 = ker f 2 = R4 .
Soit (x, y, z, t) ∈ k1 ⇐⇒ x + 2y + 2z + t = 0 =⇒ t = −x − 2y − 2z, donc
k1 = {(x, y, z, −x − 2y − 2z) x, y, z ∈ R} = Vect{u1 , u2 , u3 },
avec u1 = (1, 0, 0, −1); u1 = (1, 0, 0, −1); u3 = (0, 0, 1, −2). On a d2 = 4;
d1 = 3
donc d2 − d1 = 1; d1 − d0 = d1 = 3. Le sous espace F2 est un supplémentaire de k1
dans R4 (R4 = k2 = k1 ⊕ F2 ), donc on peut prendre F2 = Vect(e4 ).
Le vecteur f (e4 ) = (0, 0, 1, −2) = u3 appartient à F1 . On peut compléter f (e4 ) par
u1 = (1, 0, 0, −1) et u1 = (1, 0, 0, −1) pour avoir
F1 = Vect(f (e4 ), u1 , u2 ).
Posons v1 = f (e4 ) = (0, 0, 1, −2), v2 = e4 , v3 = u1 et v4 = u2 .
L’ensemble B = {v1 , v2 , v3 , v4 } est base adaptée à la réduction de Jordan de A. Ce
qui donne le tableau de Young
F2
e4
k1 = F1
f (e4 )
u1
u2
La réduction de Jordan de A est donnée par

0 1
0

0 0 0
A =
0 0 (0)

0
0 0
0
0


0
0
1
0




0 0 0

0
1
 et P = 



0
0
1 0 0

(0)
−2 1 −2 −2
Exemple 3 Donner la réduction de la matrice

1 1 0
0
0

−1 0 1
0
0


 1 0 −1 0
0
A=
−1 0 1
1
1


 1 0 −1 −1 −1

−1 0
1
1
1

0

0


0

0


0

0
4.1. RÉDUCTION DE JORDAN
45
Le polynôme caractéristique de A est PA (X) = X 6 . Les puissances successives de A
sont


−1 0 0 0


0 −1 1 0 0 0






0
1
1
0
0
0
3

A2 = 
0 −1 −1 0 0 0 et A = 0.




0 1

1
0
0
0


0 −1 −1 0 0 0
0
1
L’endomorphisme f est nilpotent
 des
 d’indice 3. Déterminons la suite


= 0


 x2
 x1 + x2
(x1 , x2 , x3 , x4 , x5 , x6 ) ∈ k1 ⇐⇒
x3
−x1 + x3
= 0 ⇐⇒




 x
 −x + x + x + x = 0
2
3
4
5
5
noyaux :
= −x1
= x1
= −x4
donc
k1 = Vect{e1 − e2 + e3 , e4 − e5 , e6 } = Vect{u1 , u2 , e3 }
avec u1 = (1, −1, 1, 0, 0, 0) = e1 − e2 + e3 ; u2 = (0, 0, 0, 1, −1, 0) = e4 − e5 et
u3 = (0, 0, 0, 0, 0, 1) = e6 .
De même (x1 , x2 , x3 , x4 , x5 , x6 ) ∈ k2 ⇐⇒ x2 + x3 = 0, donc
k2 = Vect{e1 , e2 − e3 , e4 , e5 , e6 }.
d1 = 3; d2 = 5; d3 = 6 ; d3 − d2 = 1; d2 − d1 = 2; d1 − d0 = d1 = 3.
Déterminons le tableau de Young associé à l’unique valeur propre λ = 0 de la matrice
A. Ce tableau est le tableau de Young associé à la suite
(d3 − d2 , d2 − d1 , d1 ) = (1, 2, 3)
qui constitue une partition de l’entier 6 = dim(R6 ).
Comme R6 = k3 = k2 ⊕ F3 , on peut prendre F3 = Vect{e3 }. On a f (e3 ) =
(0, 1, −1, 1, −1, 1) = e2 − e3 + e4 − e5 + e6 ∈ F2 . Le sous espace F2 est un supplémentaire de k1 dans k2 , c’est à dire k2 = k1 ⊕ F2 , donc on peut compléter f (e3 )
par e4 pour avoir F2 = Vect(f (e3 ), e4 ). Les vecteurs f 2 (e3 ) = (1, −1, 1, −1, 1, 1) et
f (e4 ) = (0, 0, 0, 1, −1, 1) sont dans F1 = k1 on peut les compléter par e6 pour avoir
F1 = k1 = Vect(f 2 (e3 ), f (e4 ), e6 ). Ce qui donne le tableau suivant :
F3
e3
F2
f (e3 )
F1
f 2 (e3 ) f (e4 ) e6
e4
46
CHAPITRE 4. RÉDUCTION DE JORDAN ET SYSTÈMES DIFFÉRENTIELS
Le tableau indique qu’il y’a trois blocs de Jordan, un bloc de taille 3, un de taille 2
et un bloc de taille 1. Posons v1 = f 2 (e3 ), v2 = f (e3 ), v3 = e3 , v4 = f (e4 ), v5 = e4
et v6 = e6 de sorte que B = {v1 , v2 , v3 , v4 , v5 , v6 } soit une base de R6 adaptée à
la réduction de Jordan de A. Ce qui montre qu’une réduction de Jordan de A est
donnée par :

1
0 0 0 0

−1 1 0 0 0


 1 −1 1 0 0
P =
−1 1 0 1 1


 1 −1 0 −1 0

1
1 0 1 0


0



0





0
 et A0 = 


0




0


1
Exercice : Donner la réduction de Jordan de

0 −1

0 0


A = 0 1

0 1

0 1
On a



0 1 0


0 0 1


0 0 0
et A3 = 0, A est nilpotent d’indice 3.
0
0
0
0
0
0
0
0
0
0











0
0 0
!
0 0
0
0 0 0
0 0
(0)

−2 −1

0
0
0


0
0
0

0
0
0

−1 1
0
0
0 0
0 0 0
2
0

1 0
la matrice
0
0
0 0 0
0 −1 1 −1 0

0


A2 = 0

0

0
0 0


0


0 ,

0

0
0
4.1. RÉDUCTION DE JORDAN
4.1.2
47
Réduction dans le cas Pf (X) = (λ − X)n avec λ 6= 0
Soit E un K−e.v. de dimension n ∈ N? . Soit f ∈ L(E) tel que Pf (X) = (−1)n (λ−X)n .
Posons ϕ = f − λidE , d’après Cayley Hamilton, Pf (f ) = 0 donc ϕn = 0 donc ϕ est
nilpotent.
La réduction de Jordan de f se ramène à la réduction de Jordan de ϕ. Si P et B 0 sont
les matrices obtenues pour la réduction de jordan de ϕ alors P et A0 = B 0 + λIn sont les
matrices obtenues pour la réduction de jordan de f .
Exemple 1 Donnons la réduction de Jordan l’endomorphisme f associé à la matrice


13 −5 −2



A=
−2
7
−8


−5 4
7
3
Le polynôme caractéristique
de A est P
A (X) = −(X − 9) .

4 −5 −2


 de sorte que la réduction de Jordan de A
Posons B = A − 9I = 
−2
−2
−8


−5 4 −2
se ramène à la réduction de 
Jordan de B. Les 
puissances successives de B sont
36 −18 36


 et B 3 = 0.
B =
36
−18
36


−18 9 −18
2
Le vecteur u = e1 = (1, 0, 0) verifie f 2 (e1 ) 6= 0 donc B = {f 2 (e1 ), f (e1 ), e1 } est une
base de Jordan adaptée à la réduction de Jordan de B donc de A.
Les matrices obtenues pour la réduction de jordan de



0 1 0
36



0



B = 0 0 1 et P =  36
0 0 0
−18
B sont

4 1

−2 0
.
−5 0
la réduction de jordan de A est obtenue par P et A0 = B 0 + 9I3 . On a


9 1 0



A0 = 
0
9
1


0 0 9
48
CHAPITRE 4. RÉDUCTION DE JORDAN ET SYSTÈMES DIFFÉRENTIELS
Exemple 2 Donnons la réduction de Jordan l’endomorphisme f associé à la matrice

1
0
0
0



0
1
0
0


A=

1
2
3
1


−2 −4 −4 −1
Le polynôme caractéristique de A est PA (X) = (X − 1)4 .


0
0
0
0



0
0
0
0
 . On a B2 = 0 donc B
Posons ϕ = f − λ idR4 et B = A − I = 
1
2
2
1


−2 −4 −4 −2
est nilpotent d’indice 2
Déterminons la suite des noyaux k2 = ker ϕ2 = R4 .
Soit (x, y, z, t) ∈ k1 ⇐⇒ x + 2y + 2z + t = 0 =⇒ t = −x − 2y − 2z, donc
k1 = {(x, y, z, −x − 2y − 2z) x, y, z ∈ R} = vect{u1 , u2 , u3 },
avec u1 = (1, 0, 0, −1); u2 = (0, 1, 0, −2); u3 = (0, 0, 1, −2). On a d2 = 4;
donc d2 − d1 = 1;
d1 = 3
d1 − d0 = d1 = 3. Nous avons k2 = k1 ⊕ F2 et k1 = k0 ⊕ F1 ,
F2 = vect(e4 ) ; f (e4 ) = (0, 0, 1, −2) = u3 , v1 = f (e4 ) = (0, 0, 1, −2) = u3
v2 = e4 ; v3 = u1 ; v4 = u2
B = {v1 , v2 , v3 , v4 } est base adaptée à la réduction de Jordan de B Ce qui donne le
tableau de Young
F2
e4
k1 = F1
f (e4 )
u1
u2
La réduction de Jordan de B est donnée par

0

0
B0 = 
0

0
1
0
0


0
0
1
0




0 0 0

0
1
 et P = 

1 0 0

0 (0) 0 
0



0 0 (0)
−2 1 −2 −2


1 1 0
0




0
1
0
0

Donc P et A0 = B 0 + I = 
0 0 (1) 0  sont les matrices obtenues pour la


0 0 0 (1)
réduction de jordan de f .
0
0
4.1. RÉDUCTION DE JORDAN
4.1.3
49
Réduction de Jordan dans le cas général
Soient E un K−e.v. de dimension n ∈ N? et f ∈ L(E) tel que
r
Y
Pf (X) =
(λi − X)αi
i=1
avec
r
X
αi = n
i=1
à λi , on a E =
r ≥ 2 et λi 6= λj si i 6= j. Soit Nλi le sous-espace caractéristique associé
r
M
Nλi . Soit gi l’endomorphisme de Nλi induit par f − λidE
i=1
gi : Nλi 7−→ Nλi
x 7−→ gi (x) = (f − λi idE )(x)
gi est nilpotent d’indice ri où ri est la multiplicité de λi dans le polynôme minimal de f .
La réduction de Jordan de f se ramène à la réduction de Jordan de gi .
Exemple Donnons la réduction de Jordan l’endomorphisme f associé à la matrice

1 −1 2 −2


0 0 1 −1
.

A=

1 −1 1 0 
1 −1 1 0

Le polynôme caractéristique de A est
PA (X) = X 2 (X − 1)2 les valeurs propres de f sont Spec(A) = {0, 1}
Pour λ = 0 on a la suite des noyaux {0} ( ker f ( ker f 2 = N0 où N0 est le sous
espace caractéristique associé à la valeur propre 0. On a


1 −1 1 −1


0 0 0 0 
2

,
A =

2 −2 2 −1
2 −2 2 −1
k0 = {0}, k1 = ker fet k2 = ker f 2


 x − y + 2t − 2z = 0
(x, y, z, t) ∈ k1 =⇒
z−t
= 0


 x−y+t
= 0
k1 = V ect{u1 } avec u1 = (1, 1, 0, 0)
=⇒ 0 = z = t,
x=y
50
CHAPITRE 4. RÉDUCTION DE JORDAN ET SYSTÈMES DIFFÉRENTIELS
dim k1 = 1
(
x−y+z−t
(x, y, z, t) ∈ K2 =⇒
= 0
=⇒ y = x + z, t = 0
2x − 2y + 2z − t = 0
donc k2 = V ect{u1 , u2 } avec u2 = (0, 1, 1, 0). On a d2 = 2. k2 = k1 ⊕ F2 et k1 =
F1 = E0 où E0 est le sous espace propre associé à la valeur propre 0. Les dimensions
de F1 et F2 sont respectivement d2 − d1 = 1 et d1 − d0 = d1 = 1 de sorte qu’on a le
tableau de Young suivant
F2
u2
F1
f (u2 )
.
Il y a un seul bloc de Jordan associé à la valeur propre 0.
0
0
Pour λ = 1, posons ϕ = f − idR4 , k1 = ker ϕ et k2 = ker(ϕ)2 . On a


0 1
0 −1 2 −2




0 −1 1 −1
 et (A − I)2 = 0 1
A−I =
0 0
1 −1 0 0 



0 0
1 −1 1 −1


−y + 2z − 2t



 −y + z − t
0
Déterminons les noyaux (x, y, z, t) ∈ k1 =⇒

x−y




x−y+z−t
0
donc k1 = V ect{u3 } avec u3 =(0, 0, 1, 1).


 −y − 3z + 3t = 0

−3
−2
1
0
3


2
.
−1

0
= 0
= 0
= 0
(
=⇒
x=y = 0
z
= 0
0
De même (x, y, z, t) ∈ k2 =⇒
=⇒ z = t, y = 0,
y − 2z + 2t
= 0


 z−t
= 0
0
0
0
ainsi k2 = {(x, 0, z, t)} = V ect{(1, 0, 0, 0), (0, 0, 1, 1)}. on a dim k2 = d2 = 2
0
0
0
0
0
0
k2 = k1 ⊕ F2 , k1 = F1 ; on peut prendre F2 = V ect{e1 }. Les dimensions de F2 et
0
0
0
0
F1 sont d2 − d1 = 1 et d1 − d0 = 1. Ce qui permet d’obtenir la tableau de Young
suivant :
0
F2
0
F1
e1
ϕ(e1 )
Il y a un seul bloc de Jordan associé à la valeur propre 1. Posons v1 = f (u2 ) =
(1, 1, 0, 0), v2 = u2 = (0, 1, 1, 0); v3 = ϕ(e1 ) = (0, 0, 1, 1) et v4 = e1 . L’ensemble
B = {v1 , v2 , v3 , v4 } est une base de R4 adaptée à la réduction de Jordan de f .
= t
4.2. EXPONENTIEL D’UNE MATRICE ET SYSTÈMES DIFFÉRENTIELS LINÉAIRES À COÉFFICIE
A0 =
J0
0
!
où J0 est un bloc de Jordan associé à la valeur propre 0 et J1 est
0 J1
un seul bloc de Jordan associé à la valeur propre 1. De sorte que la réduction de
Jordan de f est donnée par :

1

1
P =
0

0


0 0 1



1 0 0
 et A0 = 

0 1 1


0 1 0
0 1
!
0 0
0 0
0 0
0 0



! 

1 1

0 1
0 0
Exercice Soit α ∈ R. Déterminer suivant les valeurs de α la réduction de Jordan de
l’endomorphisme fα associé à la matrice suivante :


1
α
0
0


0
1
0
0


Aα = 
2
3
1

1
−2 −4 − α −4 −1
4.2
Exponentiel d’une matrice et systèmes différentiels
linéaires à coéfficients constants
4.2.1
Exponentiel d’une matrice
Définition : Soit E un C-espace vectoriel. On appelle norme sur E une application
k, k : E −→ R+
x 7−→ kxk
vérifiant les propriétés suivantes
1. kxk = 0 si et seulement si x = 0E .
2. kλxk = |λ|kxk pour tout λ ∈ C et pour tout x ∈ E.
3. kx + yk ≤ kxk + kyk pour tout x, y ∈ E.
Définition : Soit Mn (R) l’ensemble des matrices carrées d’ordre n à coéfficients dans
R. On appelle norme matricielle sur Mn (R) vérifiant kABk ≤ kAkkBk
Remarque : Soit k, k une norme matricielle sur Mn (R), ∀A ∈ Mn (R) et ∀k ∈ N on
kAkk
Ak
Ak
. On en déduit que la série matricielle de terme général
est
a k k ≤
k!
k!
k!
convergente.
52
CHAPITRE 4. RÉDUCTION DE JORDAN ET SYSTÈMES DIFFÉRENTIELS
Définition : Soit A ∈ Mn (R). On appelle exponentiel de A la somme de a série matri∞
X
Ak
Ak
A
on note e =
et on a eA ∈ Mn (R).
cielle de terme général
k!
k
!
k=0
Proposition 4.2.1. Soit A, B ∈ Mn (R). Si AB = BA alors eA+B = eA eB
Démonstration. Comme AB = BA, la formule du binôme entraîne
m X
m k m−k
m
(A + B) =
A B
. On a
k
k=0
m
P
(A + B)m
=
m!
=
=
m
k
k=0
Ak B m−k
m!
m
X
k=0
m
X
k=0
m!
Ak B m−k
m !k !(m − k) !
Ak B m−k
.
k ! (m − k) !
Donc
e
A+B
∞ X
m
X
Ak B m−k
=
k ! (m − k) !
m=0 k=0
! ∞
!
∞
X Am
X
Ak
=
k!
m!
m=0
k=0
= eA eB
Corollaire 4.2.2. Soit A ∈ Mn (R). Alors eA est inversible d’inverse e−A
Démonstration : Comme les matrices A et −A commutent, on a In = eA+(−A) = eA e−A ,
donc eA est inversible et (eA )−1 = e−A .
Proposition 4.2.3. Soit A ∈ Mn (R) et P ∈ Mn (R) une matrice inversible. Alors
eP
−1 AP
= P −1 eA P
Démonstration : Posons B = P −1 AP , on a B k = P −1 Ak P , donc
m
X
Bk
k=0
k!
=
m
X
P −1 Ak P
k=0
= P −1
k!
m
X
Ak
k=0
k!
!
P.
4.2. EXPONENTIEL D’UNE MATRICE ET SYSTÈMES DIFFÉRENTIELS LINÉAIRES À COÉFFICIE
L’application
ϕ : Mn (R) −→ Mn (R)
7−→ P −1 M P
M
m Bk
P
est continue car elle est linéaire, donc la limite lors m tend vers ∞ de
est
k
!
k=0
m k
PA
−1
égale à la limite lors m tend vers ∞ de P
P , on en déduit que
k=0 k !
eP
−1 AP
= P −1 eA P.
Théorème 4.2.4. Soit A ∈ Mn (R). Alors la fonction
f : R −→ Mn (R)
etA
7−→
t
d(etA )
= A etA .
dt
Démonstration : Comme toutes les normes sur Mn (R) sont équivalentes, on peut fixer
est dérivable sur R et on a
une norme matricielle k, k sur Mn (R). On a
A
e −I − A = I + A +
∞
X
Ak
k=2
k!
−I −A=
∞
X
Ak
k=2
k!
.
Donc
A
ke −I − Ak = k
≤
∞
X
Ak
k=2
∞
X
k=2
k!
k
∞
kAk k X kAk+2 k
=
k!
(k + 2) !
k=0
=≤ kAk2
∞
X
kAk k
(k + 2) !
k=0
=≤ kAk2 ekAk
Soit t, t0 ∈ R on a
etA − et0 A
etA − et0 A −(t − t0 )A et0 A
− A et0 =
t − t0
t − t0
(t−t0 )A t0 A
e
e − et0 A −(t − t0 )A et0 A
=
t − t0
(t−t0 )A
(e
−I − (t − t0 )A) et0 A
=
t − t0
54
CHAPITRE 4. RÉDUCTION DE JORDAN ET SYSTÈMES DIFFÉRENTIELS
Posons α = t − t0 , on a
k
(eαA −I − αA) et0 A
etA − et0 A
− A et0 =
. Ainsi nous avons
t − t0
α
keαA −I − αAkket0 A k
etA − et0 A
− A et0 k ≤
t − t0
α
≤ α e|α|kAk kAk2 ket0 A k
En faisant tendre t vers t0 c’est à dire si α tend vers 0 on obtient le résultat.
4.2.2
Quelques méthodes de calcul de l’exponentiel d’une matrice
Dans ce qui suit nous donnons des méthodes de calcul de l’exponentiel d’une matrice.
Pour les matrices diagonalisables .
Soit A ∈ Mn (R) une matrice diagonalisable. Il existe une matrice diagonale D et
une matrice inversible P tel que A = P DP −1 . La matrice D étant diagonale il existe
λ1 , · · · , λn ∈ R tel que

λ1
0
···
0




D=


0
..
.
λ2 · · ·
.. . .
.
.
0
..
.
0
0
···
λn



.


Dans ce cas pour t ∈ R, on a

etD
0
···
0

tλ2
..
.
···
...
0
..
.
0
···
etλn






tλ1
e

 0

= .
 ..

0
e
Le calcul de etA se ramène à un produit matriciel etA = P etD P −1 .
Pour les matrices nilpotentes .
Soit N ∈ Mn (R) une matrice nilpotente d’indice d. On a N k = 0 pour k ≥ d, donc
on a
etN =
∞ k k
X
t N
k=0
k!
=
d−1 k k
X
t N
k=0
k!
.
Calcul de l’exponentiel en utilisant la décomposition de Dunford .
r
r
X
Q
αi
Soit A ∈ Mn (R) tel que PA (X) = (λi − X) avec
αi = n r ≥ 2 et λi 6= λj
i=1
i=1
si i 6= j. D’après la décomposition de Dunford il existe une matrice diagonalisable
D et une matrice nilpotente N tel que A = D + N et DN = N D. La matrice D
4.2. EXPONENTIEL D’UNE MATRICE ET SYSTÈMES DIFFÉRENTIELS LINÉAIRES À COÉFFICIE
est donnée par D =
r
P
λi πλi , la matrice πλi est la matrice du projecteur spectral
i=1
assocé à la valeur propre λi . On a etD =
r
P
eλi t πλi et etA = etD etN .
i=1
Calcul de l’exponentiel en utilisant la décomposition de Jordan .
Soient K un corps commutatif et unitaire, n ∈ N∗ et λ ∈ K et


λ 1
0 ··· 0


 0 λ
1 ··· 0 


 ..
. . . . . . .. 
Jλ =  .
.  = λIn + N
 .

..
 .
. 1 
 .

0 ···
(
avec N = (aij )1≤i,j≤n avec aij =
···
··· λ
1 si j = i + 1
0
sinon
La matrice N est nilpotente d’incice n. Soit t ∈ R, etJλ = etλIn etN où etλIn = eλt In
et

etN


n−1

k
Xt

k
N =
=

k!
k=0


1 t
0 1
..
.
..
.
t2
2
···
t
···
...
..
.
0 0 ···
tn−1
(n − 1) !
tn−2
(n − 2) !
0
1
.
Ce qui donne pour le calcul de l’exponentiel de tJλ

etJλ




= etλ 



1 t
0 1
..
.
..
.
t2
2
···
t
···
..
.
0 0 ···
..
.
tn−1
(n − 1) !
tn−2
(n − 2) !
0
1
.
Soit A une matrice décomposée en blocs de Jordan.

Jλ
0
 1 .
..
A=

0
Jλr


.



















56
CHAPITRE 4. RÉDUCTION DE JORDAN ET SYSTÈMES DIFFÉRENTIELS
où les Jλi sont des matrices de Jordan, alors on a

etJλ1
0
..

etA = 

0
.
etJλr


.

Cas particulier des matrices carrées d’ordre 2
Nous donnons
! d’abord la classification des matrices carrées d’ordre 2.
a b
Soit A =
∈ Mn (K) une matrice d’ordre 2 à coéfficients dans un corps commutatif
c d
et unitaire K. Si K = C alors le polynôme caractéristique de A est scindé. Si PA a deux
racines complexes alors A est diagonalisable donc semblable à une matrice diagonale et
on se ramène au cas diagonalisable pour le calcul de l’exponentiel. Si PA a une racine
complexe
! double la matrice A est trigonalisable et est semblable à un bloc de Jordan
λ 1
et le calcul de l’exponentiel est connu dans ce cas.
0 λ
Si K = R et Si PA a toutes ses racines réelles alors A est comme dans le cas complexe
semblable à une matrice diagonale ou à une matrice de Jordan. Si PA (X) = X 2 −Tr AX +
det A n’a aucune racine réelle son discriminant ∆ = (Tr A)2 − 4 det A est strictement
(Tr A)2
+ det A. En posant
négatif et il existe b ∈ R strictement positif tel que b2 = −
4
Tr A
a=
, on a
2
PA (X) = X 2 − Tr AX + det A
Tr A
= X2 − 2
X + det A
2
Tr A 2 (Tr A)2
= (X −
) −
+ det A
2
4
= (X − a)2 + b2 .
Soit f un endomorphisme R2 dont la matrice relativement à la base canonique C de
1
R2 est A et soit v1 un vecteur non nul de R2 . Posons v2 = (av1 − f (v1 )). Comme f
b
n’a pas de valeurs propre réelle, v1 n’est pas un vecteur propre de f donc v1 et f (v1 )
sont linéairement indépendants. Comme f (v1 ) = av1 − bv2 , les vecteurs v1 et v2 sont
2
linéairement indépendants. Ainsi B = {v1 , v2 } est une base
! de R . Posons f (v2 ) = cv1 +
a c
dv2 , la matrice de f relativement à B soit B =
.
−b d
4.2. EXPONENTIEL D’UNE MATRICE ET SYSTÈMES DIFFÉRENTIELS LINÉAIRES À COÉFFICIE

2a = a + d
Puisque Tr A = 2a et det A = a2 + b2 on a
ad + bc = a2 + b2
!
a b
en déduit que B =
. On a donc le théorème suivant :
−b a
d’où d = a et c = b. On
Théorème 4.2.5. Soit A ∈ M2 (R) une matrice d’ordre 2 à coéfficients dans R, alors
1. Ou bien A est semblable à une matrice diagonale de M2 (R).
2. Ou bien A est semblable à une matrice de Jordan
!
λ 1
.
0 λ
3. Ou bien il existe un unique couple (a, b) ∈ R2 avec b > 0 tel que A soit semblable à
la matrice
a
b
!
.
−b a
Déterminons l’exponentiel de la matrice A =
identité et J =
!
0 −1
1
0
a
b
−b a
!
= aI + bJ où I est la matrice
. On a J 2 = −I, donc ∀k ∈ N, J 2k = (−1)k I et J 2k = (−1)k J.
Donc
+∞
X
k=0
+∞
(−1)k (bt)2k
I
(2k) !
!
+∞
X
(−1)k (bt)2k
I
(2k) !
k=0
X
1
(btJ)2k =
(2k) !
k=0
=
= (cos bt)I
et
+∞
X
k=0
+∞
(−1)k (bt)2k+1
I
(2k + 1) !
!
+∞
X
(−1)k (bt)2k+1
I
(2k
+
1)
!
k=0
X
1
(btJ)2k+1 =
(2k + 1) !
k=0
=
= (sin bt)I
58
CHAPITRE 4. RÉDUCTION DE JORDAN ET SYSTÈMES DIFFÉRENTIELS
On déduit de ses deux expressions le calcul de l’exponentiel de tA
etA = eatI ebtJ
= eat ebtJ
= eat
4.2.3
cos bt − sin bt
sin bt
!
cos bt
Système différentiel
Définition. On appelle système différentiel linéaire à coefficient constant, un système
d’équations différentielles de la forme :

1

= a11 x1 + a12 x2 + . . . + a1n xn + b1 (t)
 dx
dt




 dx2 = a21 x1 + a22 x2 + . . . + a2n xn + b2 (t)
dt
..


.




 dxn
= an1 x1 + an2 x2 + . . . + ann xn + bn (t)
dt
où aij ∈ R sont constants, I un intervalle ouvert de R, les xi : I → R et bi : I →
R sont des applications dérivables.la matrice A = (aij )1≤i≤n,1≤j≤n est matrice du
système différentiel. Si I = R et bi = 0
∀i, on dit que le système différentiel est
homogène.
Écriture matricielle :
Posons
A = (aij )1≤i≤n,1≤j≤n

x1



, X=


x2
..
.
xn

b
 1 

 b2 




 et B =  .  .

 .. 



bn
Le système différentiel s’ecrit :

 
dx1
a x + a12 x2 + · · · + a1n xn
 dt   11 1
dx2 


dX  dt   a21 x1 + a22 x2 + · · · + a2n xn
= . =
..
 ..  
dt
.

 
dxn
an1 x1 + an2 x2 + · · · + ann xn
dt
Dans le cas d’un système homogème on a


dX
= AX.
dt

b1

 
 
 
+
 
 
b2
..
.



 = AX + B.



bn
4.2. EXPONENTIEL D’UNE MATRICE ET SYSTÈMES DIFFÉRENTIELS LINÉAIRES À COÉFFICIE
Définition .
Soit A ∈ Mn (R), I un intervalle ouvert de R et B : I −→ Rn une application.
dX
Une solution du système différentiel
= AX + B est une application dérivable
dt
dS(t)
= AS(t) + B(t).
S : I −→ Rn telle que
dt
Proposition 4.2.6. Soit A ∈ Mn (R). L’ensemble des solutions du système diffédX
rentiel homogène
= AX est un sous espace vectoriel du R-espace vectoriel des
dt
applications de R dans Rn .
Démonstration .
1. L’application nulle de R dans Rn est solution.
2. Soit S1 : I −→ Rn et S2 : I −→ Rn deux solutions du système différentiel et
dX
α ∈ R. Notons
par X 0 . Nous avons
dt
(αS1 (t) + S2 )0 = αS10 (t) + S20 (t)
= αAS1 + AS2
= A(αS1 + S2 );
donc αS1 + S2 est une solution du système diiférentiel.
On en déduit que l’ensemble des solutions du système différentiel homogène est un
sous espace vectoriel.
Théorème 4.2.7. Soit A ∈ Mn (R), I un intervalle ouvert de R et B : I −→ Rn
une application et S0 une solution particulière du système différentiel X 0 = AX +B.
Alors les solutions du système différentiel X 0 = AX + B sont les applications de la
forme S + S0 où S est une solution du système homogème X 0 = AX.
Démonstration : Soit S une solution du système homogène X 0 = AX et S0 une solution
particulière du système différentiel X 0 = AX + B. De S 0 = AS et S00 = AS0 + B,
on déduit
(S(t) + S0 )0 = S 0 (t) + S00 (t)
= AS + (AS0 + B)
= A(S + S0 ) + B;
60
CHAPITRE 4. RÉDUCTION DE JORDAN ET SYSTÈMES DIFFÉRENTIELS
donc S + S0 est solution du système différentiel X 0 = AX + B.
Montrons maintenant que toute solution est de cette forme. Soit U une solution du
système différentiel X 0 = AX + B. On a
(U − S0 )0 = U 0 − S00
= (AU + B) − (AS0 + B)
= A(U − S0 ),
donc S = U − S0 est une solution du système homogène X 0 = AX et nous avons
U = S + S0 . On en déduit que les solutions les solutions du système différentiel
X 0 = AX + B sont de la forme S + S0 où S est une solution du système homogème
X 0 = AX.
Résolution d’un système homogène
Il découle de ce qui précède que la résolution du système différentiel X 0 = AX + B
se ramène à la résolution du système homogène X 0 = AX et à trouver une solution
particulière du système X 0 = AX + B.
Proposition 4.2.8. Soit A ∈ Mn (R),P ∈ GLn (R) dont les coéfficients sont
constants et Y : I −→ Rn une application. Alors P Y est solution du système
différentiel X 0 = AX si et seulement si Y est solution du système différentiel
X 0 = (P −1 AP )X.
Démonstration : Soit Y : I −→ Rn une application dérivable, alors nous avons :
(P Y )0 = A(P Y ) ⇐⇒ P Y 0 = A(P Y )
⇐⇒ Y 0 = (P −1 AP )Y
On en déduit le résultat.
Théorème 4.2.9. Soit A ∈ Mn (R). Les solutions du système différentiel
X 0 = AX sont les applications de la forme
S : R −→
t
où X0 ∈ Rn est constant.
Rn
7−→ S(t) = etA X0
4.2. EXPONENTIEL D’UNE MATRICE ET SYSTÈMES DIFFÉRENTIELS LINÉAIRES À COÉFFICIE
Démonstration : Soit X0 ∈ Rn , montrons d’abord que l’application S(t) = etA X0 est
solution du système différentiel X 0 = AX. On a
S 0 (t) = (etA X0 )0
= (etA )0 X0
= A etA X0
= AS(t).
Donc S(t) = etA X0 est solution du système différentiel homogène X 0 = AX.
Montrons que toute les solutions sont de cette forme. Soit S une solution et soit
f (t) = e−tA S(t). En dérivant les deux membres de cette égalité on obtient
f 0 (t) = −A e−tA S(t) + e−tA S 0 (t)
= −A e−tA S(t) + e−tA AS(t)
= 0.
L’application f est constante donc il existe X0 ∈ Rn tel que f (t) = e−tA S(t) = X0 .
On en déduit que S(t) = etA X0 .
Corollaire 4.2.10. Soit A ∈ Mn (R),t0 ∈ R et X0 ∈ Rn .
Alors la fonction S(t) = e(t−t0 )A X0 est l’unique solution du système différentiel
X 0 = AX vérifiant S(t0 ) = X0 .
Démonstration : Montrons que la fonction S(t) = e(t−t0 )A X0 est une solution de l’équation différentiel X 0 = AX. On a
S(t) = e(t−t0 )A X0
= etA e−t0 A X0
= etA Y0 .
Avec Y0 = e−t0 A X0 , donc S est solution de l’équation différentiel X 0 = AX vérifiant
S(t0 ) = eo X0 = X0 . Soit T une solution de X 0 = AX telle que T (t0 ) = X0 . D’après
le théorème ci-dessus il existe Z0 ∈ Rn tel que T (t) = etA Z0 .
On a X0 = T (t0 ) = et0 A Z0 , donc Z0 = e−t0 A X0 = Y0 . On en déduit que S = T .
62
CHAPITRE 4. RÉDUCTION DE JORDAN ET SYSTÈMES DIFFÉRENTIELS
Exemple : Résoudre

dx1

= 3x1 − x2 + x3 − 7x4

dt




 dx2 = 9x1 − 3x2 − 7x3 − x4
dt

dx
3

= 4x3 − 8x4

dt



 dx4
= 2x3 − 4x4
dt
La matrice associée à ce système différentiel est

3 −1
1
−7

 9 −3 −7 −1
A=
 0 0
4 −8

0 0
2 −4



.


Pour résoudre le système différentiel il suffit de déterminer l’exponentiel de la matrice
A pour cela déterminons d’abord la réduction de Jordan de A.
Le polynôme caractéristique de A est PA (X) = X 4 de plus A2 = 0, donc A est
nilpotent d’indice 2. Un calcul facile montre que k1 = ker A = Vect(u1 , u2 ) avec
u1 = (1, 3, 0, 0) et u2 = (0, −5, 2, 1), comme A2 = 0 on a k2 = ker A2 = R4 .
On a R4 = k1 ⊕ F2 , F2 est un supplémentaire de k1 dans R4 donc on peut prendre
F2 = ~(e3 , e4 = avec e3 = (0, 0, 1, 0) et e4 = (0, 0, 0, 1). On a F1 = k1 , d2 = dim k2 = 4,
d1 = dim k1 = 2. Ce qui donne le tableau de Young associé à la matrice A :
F2
e3
F1
e4
A(e3 ) A(e4 )
Il y a deux blocs de Jordan chacune de taille 2. Posons v1 = A(e3 ) = (1, −7, 4, 2) ,
v2 = e3 , v3 = A(e4 ) = (−7, −1, −8, −4) et v4 = e4 . L’ensemble B = {v1 , v2 , v3 , v4 }
est une base de R4 adaptée à la réduction de Jordan de A. Cette réduction est
donnée par



0



−7 0 −1 0

0



P =
et
A
=


 4 1 −8 0

2 0 −4 1
1
0
7
avec
J1 = J2 =
0 1
0 0
0 1
0 0
0 0
0 0
!
0 0



! 
=
0 1

0 0
0 0
!
et etJ1 = etJ2 =
1 t
0 1
!
.
J1
0
0
J2
!
,
4.2. EXPONENTIEL D’UNE MATRICE ET SYSTÈMES DIFFÉRENTIELS LINÉAIRES À COÉFFICIE
Ce qui donne la décomposition en blocs de l’exponentiel de A0 :

e
tA0
=

etJ1
0
0
etJ2
z1
!
1 t 0 0



0 1 0 0
.

=

0
0
1
t


0 0 0 1



 z2 
. On a dX = AX si et seulement si dZ = A0 Z.

Posons X = P Z avec Z = 

dt
dt
 z3 
z4
dZ
Les solutions du système différentiel
= A0 Z sont les fonctions
dt

Z(t) = e
tA0
1 t 0 0

a


a + bt
  

0 1 0 0  b   b
  
Z0 = 
0 0 1 t   c  =  c + dt
  

d
d
0 0 0 1
On en déduit que les solutions du système différentiel
1
0
7


.


dX
= AX sont les fonctions
dt

a + bt
0


−7 0 −1 0  b

X(t) = P Z(t) = 
 4 1 −8 0  c + dt


d
2 0 −4 1








Résolution de l’équation X’=AX+B par la méthode de la variation de la
constante
Les solutions du système différentiel X 0 = AX + B sont les applications de la forme
S + S0 où S est une solution du système homogème X 0 = AX et S0 est une solution
particulir̀e de X 0 = AX + B. Les solutions de l’équation homogène sont les fonctions
S(t) = etA X0 . La recherche d’une solution particulière peut se faire par la méthode de
la variation de la constante. Cette méthode consiste à déterminer une fonction dérivable
Λ : I −→ Rn la fonction S(t) = etA Λ(t) soit solution du système différentiel X 0 = AX +B.
Si la fonction S(t) est dérivable et est solution du système différentiel X 0 = AX + B
64
CHAPITRE 4. RÉDUCTION DE JORDAN ET SYSTÈMES DIFFÉRENTIELS
alors on a
S 0 (t) = (etA )0 Λ(t) + etA Λ0 (t)
= A etA Λ(t) + etA Λ0 (t)
= AS(t) + etA Λ0 (t)
= AS(t) + B.
Ce qui équivaut à Λ0 (t) = e−tA B(t).
4.2.4
Équations différentielles linéaires d’ordre n à coéfficients
constants
Définition. On appelle équation différentielle linéaire homogène et scalaire d’ordre n à
coéfficients constants une équation différentielle de la forme :
x(n) (t) + an−1 x(n−1) (t) + · · · + a1 x0 (t) + a0 x(t)
où les ai sont des constantes, x : R −→ R est n fois dérivable et x(k) désigne la
dérivée k-ème de la fonction x(t).

Posons
x0 = x,
x1 = x, · · · , xn−1 = x(n−1) ,

 x1

xn = x(n) , X =  .
 ..

xn−1
L’équation différentielle se ramène au système suivant

 
x
x1
 1  
 
x2
dX 
 x2  
= . =
..
 ..  
dt
.

 
xn
−a0 x0 − a1 x1 − · · · − an−1 xn−1
Ce qui donne
x0
dX
= AX, où A est la matrice suivante
dt


0
1
0 ···
0


 0

0
1
·
·
·
0


A= .
.
.
 .



−a0 −a1 a2 · · · −an−1




=






.


4.2. EXPONENTIEL D’UNE MATRICE ET SYSTÈMES DIFFÉRENTIELS LINÉAIRES À COÉFFICIE
Exemple. Résoudre l’équation différentielle suivante y 000 − 3y 00 + 3y 0 − y = 0.

y(t)



y 0 (t)

0
1
0

y(t)




 


0
, on a dY =  y 00 (t)
 = 0 0 1  y 0 (t) .
Posons Y (t) = 
y
(t)



 


dt
00
0
00
00
y (t)
y − 3y + 3y
1 −3 3
y (t)
000
00
0
L’équation différentielle d’ordre 3, y − 3y + 3y
 − y = 0 se ramène au sys0 1 0


dY
. Un calcul simple montre que
tème différentiel
= AY avec A = 
0
0
1


dt
1 −3 3


1 −2 1


3
2
3

PA (X) = −(X − 1) , (A − I) = 1 −2 1
 et (A − I) = 0. la matrice A − I est
1 −2 1
nilpotente d’indice 3. Soit f l’endomorphisme de R3 dont la matrice relativement à
la base canonique est A et soit ϕ = f − idR3 on a ϕ2 (e1 ) = (1, 1, 1) 6= 0R3 , la base
B = {ϕ2 (e1 ), ϕ(e1 ), e1 } est adaptée à la réduction de Jordan de A. Ce qui donne

1 −1 1

P =
 1
1
0
1


1 1 0




0
 0 1 1 .
et
A
=
0 



0 0 1
0
dZ
dY
= AY est équivalente à l’équation
= A0 Z.
dt
dt
dZ
0
Les solutions du système différentiel
= A Z sont les fonctions
dt


 

 
t2
t2
a
1 t 2   a 
 a + bt + c 2 
 




t
t
tA0 
= e  b + ct
Z(t) = e  b 

.
b 
0
1
t
=e 






c
c
0 0 1
c
Posons Y = P Z et l’équation
Les solutions du système différentiel sont donc les fonctions

t2
 a − b + c + (b − c)t + c 2 






t2
 = et  a + bt + c
.



2


t2
a + b + (b + c)t + c
2
000
00
0
Donc les solutions de l’équation différentielle y −3y +3y −y = 0 sont les fonctions

t2
1 −1 1  a + bt + c


2

Y = P Z = et 
b
+
ct
 1 0 0 

1 1 0
c



t2
y(t) = a − b + c + (b − c)t + c .
2
66
CHAPITRE 4. RÉDUCTION DE JORDAN ET SYSTÈMES DIFFÉRENTIELS
Chapitre 5
PROJECTION ORTHOGONAL
5.1
Propriété
Soit E un espace euclidien et F un sous-espace vectoriel de E.
On a E = F ⊕ F ⊥ ; on considère l’application
πF : E −→ E
x = x1 + x2 7→ x1 , x1 ∈ F, x2 ∈ F ⊥
Définition 5.1.1. L’endomorphisme πF est appélé projection orthogonale sur F parallèlement à F ⊥ . L’endomorphisme idE − πF = πF ⊥ est appelé projection orthogonale
sur F ⊥ parallèlement à F .
πF est caractérisé par ∀x ∈ E, πF (x) ∈ F et x − πF (x) ∈ F ⊥ .
Théorème 5.1.2. Soit (E, <, >) un espace euclidien, F un sous-espace vectoriel de E,
F 6= E et F 6= {0E }, et πF la projection orthogonale sur F . Alors on a :
a) πF2 = πF
b) ker πF = F ⊥ et im πF = F
c) πF⊥ = idE − πF
d) πF ◦ πF ⊥ = πF ⊥ ◦ πF = 0
Démonstration. a) : Soit x ∈ E, πF (x) ∈ F et x − πF (x) ∈ F ⊥
πF (x − πF (x)) = 0 ⇒ πF (x) − πF2 (x) = 0 ⇒ πF (x) = πF2 (x). Donc πF2 = π.
b) Soit x ∈ ker πF ⇔ πF (x) = 0 ⇔ x − πf (x) ∈ F ⊥ ⇔ x ∈ F ⊥ . Donc ker πF = F ⊥
Ainsi x ∈ F ⇔ πF (x) = x ⇔ x ∈ im πF , donc im πF = F .
c) ∀x ∈ E, x = πF (x)+x−πF (x) = πF (x)+πF ⊥ (x) ⇒ idE = πF +πF ⊥ ⇒ πF ⊥ = idE −πF .
d) πF ◦ πF ⊥ = πF ⊥ ◦ (idE −πF ) = πF − πF2 = 0
67
68
CHAPITRE 5. PROJECTION ORTHOGONAL
5.2
Détermination de la projection orthogonale
Soit E un espace euclidien, F un sous-espace vectoriel de E, β = {e1 , e2 , . . . , ep } une
base orthogonale de F .
Théorème 5.2.1. Soit (E, <, >) un espace euclidien, F un sous-espace vectoriel de E et
p
P
β = {e1 , e2 , . . . , ep } une base orthogonale de F. Alors on a : πF (x) =
< x, ei > ei et
πF ⊥ (x) = x −
p
P
i=1
< x, ei > ei
i=1
Démonstration. Complétons β par une base de orthogonale de F ⊥ , β 0 = {ep+1 , . . . , en }
pour avoir une base A = {e1 , e2 , . . . , ep , ep+1 , . . . , en } de E orthogonale
p
p
n
n
P
P
P
P
< x, ei > ei =
< x, ei > ei +
∀x ∈ E, x =
< x, ei > ei ⇒ πF (x) =
< x, ei >
i=1
ei et πF ⊥ (x) =
p+1
i=1
n
P
< x, ei > ei = x −
i=1
< x, ei > ei
i=1
i=p+1
Exemple 5.2.2.
p
P
1) E = R4 , F = {(x, y, z, t) ∈ R4 /x = y = z = t}. Donc F =
vect(u1 ) avec u1 = (1, 1, 1, 1). Posons e1 = 12 (1, 1, 1, 1). Donc β = {e1 } est une base
orthonormale de F ; ∀u = (x, y, z, t) ∈ R4 , πF (u) =< u, e1 > e1
πF (u) = ( 12 x+ 12 y + 12 z + 12 t)e1 = 14 (x+y +z +t, x+y +z +t, x+y +z +t, x+y +z +t).
2) E = R4 muni du produit scolaire usuel, F = {(x, y, z, t) ∈ R4 /x + y + z + t = 0}
e1 =
√1 (−1, 1, 0, 0); e2
2
=
√1 (−1, −1, 2, 0); e3
6
=
1
√
(−1, 1, −1, 3);
2 3
4
β = {e1 , e2 , e3 }
est une base orthonormée de F. On a ∀X = (x, y, z, t) ∈ R ;
πF (X) =< X, e1 > e1 + < X, e2 > e2 + < X, e3 > e3 = − √12 (x − y)(− √12 , √12 , 0, 0) −
√1 (x
6
+ y − 2z)(− √16 , − √16 , √26 , 0) −
1
√
(x
2 3
+ y + z − 3t)(− 2√1 3 , − 2√1 3 , − 2√1 3 , 2√3 3 )
πF (X) = 41 (3x − y − z − t, −x + 3y − z − t, −x − y + 3z − t, −x − y − z + 3t)
Définition 5.2.3. Soit (E, <, >) un espace euclidien, F un sous-espace vectoriel de E
et x ∈ E. On appelle distance de x à F, le réel noté d(x, F ) et défini par d(x, F ) =
inf y∈F kx − yk
Le théorème suivant donne une caractérisation de la projection orthogonale.
Théorème 5.2.4. Soit (E, <, >) un espace euclidien et F un sous-espace vectoriel de E.
Alors ∀x ∈ E, ∃!y0 ∈ F tel que kx − y0 k= inf y∈F kx − yk= d(x, F ),
y0 = πF (x) la projection orthogonale de x sur F est la meilleure approximation de x par
un élément de F.
5.2. DÉTERMINATION DE LA PROJECTION ORTHOGONALE
69
Démonstration. Soit x ∈ E, x = πF (x) + (idE −πF )(x)
∀y ∈ F, x − y = πF (x) − y + (idE −πF )(x). D’après
Pythagore, kx − yk2 = kπF (x) − yk2 +kidE −πF (x)k2 ⇒ kx − yk2 ≥ kπF (x) − xk2
⇒ kπF (x) − xk≤ kx − yk
On a légalité si πF (x) − y = 0E c’est à dire si y = πF (x). Comme πF (x) ∈ F , on a
miny∈F kx − yk= kx − πF (x)k. En posant y0 = πF (x), on a d(x, F ) = kx − y0 k. L’unicité
de y0 découle de l’unicité du projetté orthogonal.
Théorème 5.2.5. Soit (E, <, >) un espace euclidien F et G deux sous-espaces vectoriels
de E tel que G ⊂ F . Soit x ∈ E, posons x0 = πF (x) et x∗ = πG (x). Alors on a :
1) x0 − x∗ = πF ∩G⊥ (x) ;
2) πF = πG + πF ∩G⊥
Démonstration.
1) Supposons que G ⊂ F . Soit x ∈ F , posons x0 = πF (x) et
∗
x = πG (x)
On a x0 = πF (x) ∈ F ; x∗ = πG (x) ∈ G ⊂ F ⇒ x∗ ∈ F ⇒ x0 − x∗ ∈ F
(1)
x − x0 ∈ F ⊥ ⊂ G⊥ ⇒ x − x0 ∈ G⊥
Or x∗ = πG (x) ⇒ x − x∗ ∈ G⊥ ⇒ (x − x∗ ) − (x − x0 ) ∈ G⊥ ⇒ x0 − x∗ ∈ G⊥ (2)
(1) et (2) ⇒ x−x∗ ∈ F ∩G⊥ . De plus x−(x0 −x∗ ) = x−x0 +x∗ ∈ F ⊥ +G = (F ∩G⊥ )⊥ .
Donc πF ∩G⊥ (x) = x − x∗ .
2) ∀x ∈ E, πF ∩G⊥ (x) = x0 − x∗ = πF (x) − πG (x) ⇒ πF (x) = πG (x) + πF ∩G⊥ (x) donc
πF = πG + πF ∩G⊥
Remarque 5.2.6. Soit (E, <, >) un espace euclidien et π un projecteur de E. Alors π
est un projecteur orthogonal si ker π et im π sont orthogonaux.
Théorème 5.2.7. Soit (E, <, >) un espace euclidien et π un projecteur de E. Alors les
énoncés suivants sont équivalents :
1) π est un projecteur orthogonal ;
2) ∀x ∈ E, ∀y ∈ E, < π(x), (y >=< x, π(y) >) ;
3) ∀x ∈ E, kπ(x)k≤ kxk
Démonstration. Comme π est un projecteur, ker π ⊕ im π = E et
∀x ∈ E, x = x − π(x) + π(x)
1) ⇒ 2) Supposons que π est un projecteur orthogonal et ker π et im π sont orthogonaux
70
CHAPITRE 5. PROJECTION ORTHOGONAL
(x, y) ∈ E 2 , < x − π(x), π(y) >= 0 ⇒< x, π(y) > − < π(x), π(y) >= 0
⇒< x, π(y) >=< π(x), π(y) >
(i).
De même < π(x), y − π(y) >= 0 ⇒< π(x), y > − < π(x), π(y) >= 0
Donc < π(x), y >=< π(x), π(y) >
(ii)
(i) et (ii) ⇒< x, π(y) >=< π(x), y >
2) ⇒ 3) Supposons < π(x), y >=< x, π(y) >, ∀(x, y) ∈ E 2 et montrons que x − π(x) et
π(x) sont orthogonaux.
< π(x), x − π(x) >=< x, π(x − π(x)) >=< x, π(x) − π 2 (x) >=< x, 0E >= 0, donc π(x)
et x − π(x) sont orthogonaux, d’après le Théorème de Pythagore,
kxk2 = kπ(x)k+kx − π(x)k2 ⇒ kxk2 ≥ kπ(x)k2 ⇒ kπ(x)k≤ kxk
3) ⇒ 1) : Supposons que ∀x ∈ E, kπ(x)k≤ kxk et montrons que (ker π)⊥ = im π.
Comme π est un projecteur,
E = ker π ⊕ im π ⇒ dim im π = dim E − dim ker π = dim(ker π)⊥
Donc pour montrer que im π = (ker π)⊥ , il suffit de montrer que (ker π)⊥ ⊂ im π
Raisonnons par absurde en supposant qu’il existe x0 ∈ (ker π)⊥ tel que x0 ∈
/ im π.
y0 = x0 − π(x0 ) ∈ ker π et y0 6= 0E (car x0 ∈
/ im π)
π(x0 ) = x0 −y0 , kπ(x0 )k2 = kx0 k+ky0 k2 ⇒ kπ(x0 )k2 > kx0 k2 ⇒ kπ(x0 )k> kx0 k ce qui contre
dit la supposition.
Par suite (ker π)⊥ im π ⊂ im π et comme dim im π = dim(ker π)⊥ On a im π = (ker π)⊥
donc π est un projecteur orthogonal.
5.3
Matrice d’une projection orthogonale
Soit (E, <, >) un espace euclidien, β = {e1 , e2 , . . . , en } une base orthonormée de E et
soit {v1 , v2 , . . . , vn } une famille libre de vecteurs de E. On pose F = Vect(v1 , v2 , . . . , vn ).
Téléchargement