Algèbre linéaire pré

publicité
Psi 945 – 2015/2016
http://blog.psi945.fr
DM 4 – corrigé
Algèbre linéaire pré-réduction
Dans ce corrigé, on utilisera la notation 1 Pas pour désigner la matrice de passage de E vers F, c’estE→F
à-dire la matrice dont les colonnes représentent les coordonnées des vecteurs de F dans la base E, soit
encore la matrice représentant l’identité entre les bases F et E : Pas = Mat(IdE , F, E).
E→F
1
Du calcul matriciel
1. On calcule le rang de A de

1
−1

A=
2
1
3
L3 ←L3 +L2
...
façon standard, en pivotant :


1 2
1
3
2 1 3 1
0 3
3
4
1 2 1 1
 L2 ←L2 +L1 
/ 0 −3 −1 −4
1 1 2 3
...


0 3
1
4
5 2 7 0
0 −3 1 −4
3 4 5 7



1 2 1 3 1
1 2 1
0 3 3 4 2 
0 3 3



/ 0 0 2 0 3  L4 ←L4 +L3 / 0 0 2
 L5 ←L5 −L3 

0 0 −2 0 −3
0 0 0
0 0 2 0 3
0 0 0

1
2

1

−1
4

3 1
4 2

0 3
,
0 0
0 0
et comme le rang d’un matrice est inchangé par opérations élémentaires :
Le rang de A vaut 3.
→
−
−
2. On sait déjà que le noyau de u est de dimension 2. On le déterminer on résolvant u(→
x) = 0,
que l’on va résoudre matriciellement. Au passage, les opérations effectuées pour rendre le système
triangulaire sont les mêmes que lors du calcul du rang, ce qui nous simplifie bien la tâche :

x1 + 2x2 + x3 + 3x4 + x5 = 0
→
−
−
3x2 + 3x3 + 4x4 + 2x5 = 0
u(→
x ) = 0 ⇐⇒ AX = 0 ⇐⇒

2x3
3x5 = 0

1
7

x1 = −2x2 − x3 − 3x4 − x5 = − x4 − x5


3
6

1
4
5
⇐⇒
x2 = − (−3x3 − 4x4 − 2x5 ) = − x4 + x5

3
3
6


3

x 3 =
− x5
2
Et donc :
−
−
Ker (u) = (−x4 /3 − 7x5 /6, −4x4 /3 + 5x5 /6, −3x5 /2, x4 , x5 ) x4 , x5 ∈ R = Vect (→
g1 , →
g2 ) ,
1 4
7 5 3
−
−
−
−
avec →
g1 = − , − , 0, 1, 0 et →
g2 = − , , − , 0, 1 . La famille (→
g1 , →
g2 ) est clairement libre 2 ,
3 3
6 6 2
et donc :
−
−
Une base du noyau de u est (→
g ,→
g ).
1
2
On aurait également pu pivoter selon les colonnes, en gardant l’information sur les valeurs des
colonnes u(...).
1. Non standard ; mais il n’existe pas de notation standard !
2. Sans cet argument : on connaît la dimension du noyau, grâce au théorème du rang...
1
−
−
−
−
−
−
−
3. Notons (→
e1 , ..., →
e5 ) la base canonique de R5 . La famille (→
e1 , →
e2 , →
e3 , →
g1 , →
g2 ) constitue une base de E
(regarder sa matrice dans la base canonique : elle est triangulaire). Ainsi :
−
−
−
Un supplémentaire du noyau de u est Vect (→
e1 , →
e2 , →
e3 ).
4. D’après le cours, on sait que u induit un isomorphisme entre tout supplémentaire
du noyau et Im (u).
→
− →
− →
−
−
Une base de ce dernier est donc, d’après la question précédente : f , f , f
avec f = u(→
e ),
1
2
3
1
1
−
−
f2 = u(→
e2 ), et f3 = u(→
e3 ).
→
− →
−
Pour
la compléter,
il manque deux vecteurs... et si on tentait ( e1 , e2 ) ? On aimerait bien que
→
−
→
−
→
−
→
−
−
e1 , →
e2 , f1 , f2 , f3 soit de rang 5... et bien vérifions !

1
0

0

0
0
0
1
0
0
0
1
−1
2
1
3

2 1
1 2

1 1

5 2
3 4

1 0
0 1
L4 ←2L4 −L3 
/ 0 0
L5 ←2L5 −3L3 
0 0
0 0
1
−1
2
0
0
2
1
1
9
3

1
2

1

3
5

1
0
L5 ←3L5 −L4 
/ 0

0
0
0
1
0
0
0
1
−1
2
0
0
2
1
1
9
0

1
2

1
,
3
12
Ainsi :
→
− →
− →
−
→
−
−
e1 , →
e2 , f1 , f2 , f3 est de rang 5, donc constitue une base de E.
Était-ce un coup de chance que (e1 , e2 ) conviennent ? Non pas vraiment, et un dessin devrait vous en
convaincre... Et s’ils n’avaient pas convenu ? Alors on aurait pivoté sur (f1 , f2 , f3 ) pour obtenir une
forme échelonnée (par exemple dans la base canonique) pour pouvoir ensuite compléter facilement.
→
− →
− →
− − →
−
−
−
−
−
e1 , −
e2 (attention à
5. Notons E la base canonique de E, E1 = (→
e1 , →
e2 , →
e3 , →
g1 , →
g2 ) et F = f1 , f2 , f3 , →
l’ordre des vecteurs !). Par construction des bases E1 et F, on a Mat(u, E1 , F) = J3 , de sorte qu’en
notant P1 = Pas et, Q1 = Pas , notre diagramme préféré
E→E1
E→F
u
E −−−−→ E
A
x



IdE P1
IdE yQ−1
1
u
E1 −−−−→ F
J3
et le théorème associé nous assurent : J3 = Q−1
1 AP1 . Il reste alors à prendre :


1
0 −1/3 −7/6
0 1 0 −4/3 5/6 


0 0 1
0
−3/2
Q = P1 = Pas = 


E→E1
0 0 0
1
0 
0 0 0
0
1
et P = Q−1
= Pas : on calcule cette matrice en exprimant les vecteurs de la base canonique à
1
F →E
l’aide de ceux de F. Pour cela, on part des relations définissant F à l’aide de E. Et c’est un peu
casse-pieds à écrire et infect à typographier... je ne laisse donc que le résultat :


0 0 7/9 −1/18 −1/6
0 0 1/9
5/18 −1/6


0
0
−2/3
−1/6
1/2 
P = Pas = 


F →E
1 0 −1/3 −1/3
0 
0 1
2
0
−1
Et là je me dis que je vais bien m’amuser pour corriger les copies...
2

1 2
−1 1

6. Bien sûr, P −1 = Q1 = Pas = 
2 1
E→F
1 5
3 3
question précédente... mais là je veux bien
à résoudre...) :
 →
−
e1



→
−

e2

→
−
e3

→
−
→
−
−
4
1

e
−
e
+→
e4
−
 3 1
3 2

 7→
−
−
−
−
5→
3→
− 6 e1 + 6 e2 − 2 e3
+→
e5

1 1 0
2 0 1

−1
1 0 0
= Pas se calcule comme dans la
 et Q
E1 →E

2 0 0
4 0 0
détailler les calculs (le système n’est pas trop méchant
→
−
−
=→
e1
e1 =



→
−
→
−

= e2
 e2 =
−
−
=→
e3 ⇐⇒ →
e3 =

→
−
→
−

= g1
e4 =


→
−
−
=→
g2
e5 =
→
−
e1
−
1→
3 e1
−
7→
6 e1
→
−
e2
−
+ 43 →
e2
5→
−6−
e2
→
−
e3
−
+ 32 →
e3
−
+→
g1
−
+→
g2
De sorte que
Q−1
2

1 0 0 1/3
0 1 0 4/3

= Pas = 
0 0 1 0
E1 →E
0 0 0 1
0 0 0 0

7/6
−5/6

3/2 

0 
1
Deux résultats plus ou moins classiques
1. (a) Ben... la famille (x, λx) est assurément liée...
(b) Soit i ∈ [[1, n]]. La famille (ei , u(ei )) est liée et ei 6= 0, donc il existe λi tel que u(ei ) = λi ei .
La matrice de u dans la base E est donc diagonale.


λ1
(0)


λ2


Mat(u, E) = 

.
.


.
(0)
λn
(c) D’une part, u(e1 + e2 ) = λ1 e1 + λ2 e2 , et d’autre part il existe λ ∈ K tel que u(e1 + e2 ) =
λ(e1 +e2 ). On a alors (λ1 −λ)e1 +(λ2 −λ)e2 = 0, donc par liberté de (e1 , e2 ) : λ1 −λ = λ2 −λ = 0
puis λ1 = λ = λ2 . De la même façon, λi = λ1 pour tout i ∈ [[2, n]], donc Mat(u, E) est en fait
une « matrice scalaire » :
Mat(u, E) = λ1 In = Mat(λ1 IdE , E),
et donc :
u = λ1 IdE , et u est bien une homothétie.
2. (a) Encore une fois, il est clair que pour tout x ∈ E, (λx + ϕ(x)y, x, y) est liée !
(b) On ne peut a priori rien dire sur f (y) : le fait que (f (y), y, y) soit liée est une information assez
faible ! Par contre, (u(f2 ), f1 , f2 ) est liée alors que (f1 , f2 ) est libre, donc il existe (λ2 , µ2 ) ∈ K2
tel que u(f2 ) = λ2 f1 + µ2 f2 . Ceci est également valable pour u(fk ) dès que k > 2.


α1 λ2 · · · λn
 α2 µ2
(0)


On a donc Mat(u, F) =  .

..
 ..

.
αn
(0)
µn
(c) D’une part, u(f2 + f3 ) = (λ2 + λ3 )f1 + µ2 f2 + µ3 f3 , mais d’autre part, il existe λ, µ ∈ K tels
que u(f2 + f3 ) = λf1 + µ(f2 + f3 ), donc
(λ1 + λ2 − λ)f1 + (µ2 − µ)f2 + (µ3 − µ)f3 = 0,
et la liberté de (f1 , f2 , f3 ) nous assure que µ2 − µ = µ3 − µ = 0, donc µ2 = µ3 , et par le même
procédé, tous les µi sont égaux, et donc en notant µ cette valeur commune :
3

α1
 α2

Mat(u, F) =  .
 ..
λ2
µ
αn
(0)
···
..
.

λn
(0)



µ
(d) D’une part, u(f1 + f2 ) peut se lire sur la matrice, mais d’autre part il existe λ, µ0 ∈ K tels que
u(f1 + f2 ) = λf1 + µ0 (f1 + f2 ), et donc :
((α1 + λ2 ) − (λ + µ0 )) f1 + ((α2 + µ) − µ0 ) f2 + α3 f3 + · · · + αn fn = 0.
La liberté de F nous assure alors que pour tout i > 3, on a
on obtiendrait de même α2 = 0, et ainsi :

α1 λ2 · · ·

µ

Mat(u, F) = 
..

.
(0)
αi = 0. En considérant u(f1 + f3 ),

λn
(0)



µ

λ1
0

(e) On a maintenant, en notant λ1 = α1 − µ : Mat(u − µIdE , F) =  .
 ..
λ2
···
···
···

λn
0

.. .
. 
0 ··· ··· 0
Soit ϕ l’unique application linéaire (de E dans R)définie par l’image de F de la façon suivante :
pour tout i ∈ [[1, n]], ϕ(fi ) = λi .
Le cours nous assure qu’il existe bien une unique application linéaire vérifiant les relations
précédentes.
On a alors pour tout i ∈ [[1, n]], (u − µ)(fi ) = λi f1 = ϕ(fi )f1 . Ainsi, l’application x 7→
u(x) − (µx + ϕ(x)f1 ) est linéaire et nulle sur la base F, donc est nulle tout court, et ainsi (en
se rappelant que f1 = y) :
u est l’application x 7→ µx + ϕ(x)y.
3. Si E est de dimension infinie, on peut reprendre tout ce que l’on a fait sauf les considérations
matricielles. Si on admet l’existence d’une base (ei )i∈I (ce qui est vrai et non trivial), alors les
preuves précédentes restent valables, à quelques modifications syntaxiques près, et en enlevant les
considérations matricielles, qui n’étaient finalement là que pour « visualiser » les choses.
3
De la réduction sans le cours
3.1
Réduction d’un endomorphisme de R2
15
60
est de rang 1 (deux colonnes/lignes proportionnelles, ou un
−5 −20
tour de pivot), donc est non inversible, donc u − 2IdE n’est pas bijective donc pas injective. Plus
précisément,
le noyau
de u− 2Id
Eest de dimension 2 − 1 = 1, et contient visiblement f1 = (−4, 1)
15
60
−4
0
puisque
=
(autre point de vue : la matrice de v = u − 2IdE dans la base
−5 −20
1
0
E nous indique que v(e2 ) = 4v(e1 ), donc v(e2 − 4e1 ) = 0... et si on ne voit vraiment rien, on résout
(A − 2I2 )X = 0).
1. Mat(u − 2IdE , E) =
Ker (u − 2IdE ) = Rf1 , avec f2 = (−4, 1).
20
60
2. De la même façon, Mat(u + 3IdE , E) =
, donc :
−5 −15
Ker (u + 3IdE ) = Rf2 , avec f2 = (−3, 1).
4
3. F = (f1 , f2 ) est libre (deux vecteurs non colinéaires) dans E qui est de dimension 2, donc c’est une
base de E. Par ailleurs, f1 ∈ Ker (u − 2IdE ), donc u(f1 ) = 2f1 , et de même, u(f2 ) = −3f2 . Ainsi :
2 0
D = Mat(u, F) =
0 −3
4. P est par définition la matrice représentant les coordonnées de f1 et f2 dans la base E, et donc :
−4 −3
P = Pas =
1
1
E→F
5. On est exactement dans le cadre du théorème de changement de base :
u
E, E −−−−→ E, E
A

x


IdE yP −1
IdE P
u
E, F −−−−→ E, F
D
A = Mat(u, E), D = Mat(u, F), et P = Pas , donc D = P −1 .A.P , ou encore :
E→F
A = P.D.P −1
6. P −1 = Pas est la matrice représentant les coordonnées de e1 et e2 dans la base F. Or f1 −f2 = −e1 ,
F →E
donc e1 = −f1 + f2 . Mais f1 = −4e1 + e2 , donc e2 = f1 + 4e1 = −3f1 + 4f2 , et ainsi :
−1 −3
−1
P = Pas = Mat ((e1 , e2 ), F) =
1
4
F →E
3.2
Quatre applications
2
1. (a) On a sans problème D =
4
0
0
8
3
,D =
9
0
0
, puis par récurrence immédiate 3 :
−27
n
2
0
n
D =
0 (−3)n
∀n ∈ N,
(b) On peut commencer par observer :
A2 = P.D.P −1 .P.D.P −1 = P.D2 .P −1 ;
A3 = P.D2 .P −1 .P.D.P −1 = P.D3 .P −1
puis montrer par une récurrence (qu’on peut encore déclarer immédiate) :
∀n ∈ N,
An = P.Dn .P −1 .
Un autre point de vue plus direct consistait à voir que An = Mat(u, E)n , Dn = Mat(un , F),
et P = Pas , donc d’après la formule de changement de base, Dn = P −1 .An .P , ou encore :
E→F
An = P.Dn .P −1 .
un
E, E −−−−
→ E, E
An
x



IdE P
IdE yP −1
un
E, F −−−−
→ E, F
n
D
(c) Il n’y a plus qu’à recoller les morceaux :
n
n
−4 −3
2
0
−1 −3
4.2 − 3(−3)n
n
A =
= ··· =
n
1
1
0 (−3)
1
4
−2n + (−3)n
3. Allez, je vous l’accorde !
5
−12.2” − 12(−3)n
−3.2n + 4(−3)n
2. (a) Si u ◦ v = v ◦ u, alors les matrices dans la base E de u ◦ v et de v ◦ u sont égales, donc
AB = BA. Réciproquement, si AB = BA, alors Mat(u ◦ v, E) = Mat(v ◦ u, E), et l’injectivité
de w 7→ Mat(w, E) nous assure que u ◦ v = v ◦ u ;
ce qui prouve l’équivalence demandée.
(b) (f1 , f2 ) constitue une base E. On sait alors que si on la casse en deux, les deux sous-espaces
engendrés constituent deux sous-espaces supplémentaires, ce qui nous donne ici directement
le résultat souhaité :
E = E1 ⊕ E2
(c) Supposons d’abord : u ◦ v = v ◦ u. Pour montrer que E1 est stable par v, fixons f ∈ E1 , et
montrons que v(f ) ∈ E1 , c’est-à-dire : v(f ) ∈ Ker (u − 2IdE ). On calcule pour cela :
u (v(f )) = u ◦ v(f ) = v ◦ u(f ) = v (u(f )) = v(2f ) = 2v(f ),
et ainsi, v(f ) ∈ Ker (u − 2IdE ), ce qu’il fallait démontrer. La stabilité de E2 par v se traite de
façon identique.
Supposons maintenant que E1 et E2 sont stables par v, et montrons que u ◦ v = v ◦ u. On
fixe pour cela x ∈ E : il peut se décomposer (d’après la question précédente) x = x1 + x2 ,
avec x1 ∈ E1 et x2 ∈ E2 . On a alors u(x1 ) = 2x1 , mais v(x1 ) ∈ E1 , donc on a aussi
u (v(x1 )) = 2v(x1 ), avec des relations similaires pour x2 . Ainsi :
u◦v(x) = u (v(x1 + x2 )) = u (v(x1 ) + v(x2 )) = u (v(x1 ))+u (v(x2 )) = 2v(x1 )−3v(x2 ) = v(2x1 −3x2 )
alors que :
v ◦ u(x) = v (u(x1 + x2 )) = v (u(x1 ) + u(x2 )) = v(2x1 − 3x2 ).
On a bien montré que pour tout x ∈ E, u ◦ v(x) = v ◦ u(x).
u ◦ v = v ◦ u si et seulement si E1 et E2 sont stables par v.
(d) E1 = Vect(f1 ), donc la stabilité de E1 par v se traduit par le fait que v(f1 ) ∈ E1 , c’est-àdire l’existence de λ ∈ R tel que v(f1 ) = λf1 . Le même raisonnement s’applique évidemment
pour f2 , et ainsi
: u◦ v = v ◦ u si et seulement s’il existe deux scalaires λ et µ tels que :
λ 0
Mat(v, F) =
.
0 µ
0
u ◦ v = v ◦ u si et seulement si Mat v, F) est diagonale.
(e) Il est clair que deux matrices diagonales commutent. Si B est de la forme P D1 P −1 , avec D1
diagonale, on a donc :
AB = P.D.P −1 .P.D1 .P −1 = P.DD1 .P −1 = P.D1 D.P −1 = P.D1 .P −1 .P.D.P −1 = BA.
Réciproquement, supposons : AB = BA. On a alors u ◦ v = v ◦ u. Mais alors, Mat(v, F) est
diagonale d’après de qui précède. Notons-la D1 : la formule de changement de base nous donne
Mat(v, E) = P. Mat(v, F).P −1 , c’est-à-dire B = P.D1 .P −1 .
B commute avec A si et seulement si B est de la forme P D1 P −1 , avec D1 diagonale.
(f) Il est clair que si B = λA + µI2 , alors AB = BA (ben oui : calculer l’un et l’autre !).
Réciproquement,
supposons AB = BA. On a alors B = P.D1 .P −1 , avec D1 de la forme
α 0
. Si on a bien compris que par deux points, on peut toujours faire passer une droite( !),
0 β
ou bien en résolvant un bien difficile système (2, 2) ou invoquer Lagrange et ses polynômes
d’interpolation... on peut affirmer qu’il existe deux réels λ et µ tels que 2λ + µ = α et
−3λ + µ = β. On a alors λD + µI2 = D1 , donc :
B = P.D1 .P −1 = P (λD + µI2 ) P −1 = λP.D.P 1 + µP.P −1 = λA + µI2 .
6
B commute avec A si et seulement si B est de la forme λA + µI2 .
3. (a) Sans problème :
(x, y) vérifie (D) ⇐⇒
∀t ∈ R,
X 0 (t) = AX(t)
⇐⇒
∀t ∈ R,
X 0 (t) = P.D.P −1 X(t)
⇐⇒
∀t ∈ R,
P −1 X 0 (t) = D.P −1 X(t)
⇐⇒
∀t ∈ R,
⇐⇒
∀t ∈ R,
X10 (t) = D.X1 (t)
0
x1 (t) = 2x1 (t)
y10 (t) = −3y1 (t)
(D0 )
Le lecteur est prié de se convaincre de ces équivalences autrement que « ben oui ceci implique
bien cela, puisqu’il le dit ».
Ce système est en effet considérablement plus simple : il n’y a plus de dépendances mutuelles.
(b) Si on en croit le programme de terminale, le système (D0 ) est équivalent à l’existence de deux
réels α et β tels que pour tout t ∈ R, x1 (t) = αe2t et y1 (t) = βe−3t . Mais X = P X1 , donc :
x(t) = −4αe2t − 3βe−3t
(x, y) vérifie (D)
⇐⇒
∃α, β ∈ R; ∀t ∈ R,
y(t) =
αe2t + βe−3t
(c) Le calcul de P −1 n’était pas nécessaire : à la fin, on a seulement eu besoin de : X = P X1 .
un
Un
0
4. (a) Le principe est le même que plus haut : en notant Zn =
et Zn =
= P −1 Zn :
vn
Vn
(u, v) vérifie (R) ⇐⇒
∀n ∈ N,
Zn+1 = AZn
⇐⇒
∀n ∈ N,
Zn+1 = P.D.P −1 Zn
⇐⇒
∀n ∈ N,
P −1 Zn+1 = D.P −1 Zn
⇐⇒
∀n ∈ N,
⇐⇒
∀n ∈ N,
0
Zn+1
= D.Zn0
Un+1 = 2Un
Vn+1 = −3Vn
(R0 )
(b) Si on fait cette fois confiance au programme de première, on peut affirmer que (R0 ) est
équivalente à l’existence de α, β ∈ R tels que pour tout n ∈ N, Un = α2n et Vn = β(−3)n .
(c) D’après les équivalences précédentes, et puisque Zn = P Zn0 :
un
(u, v) vérifie (R)
⇐⇒
∃α, β ∈ R; ∀n ∈ N,
vn
3.3
= −4α.2n − 3β(−3)n
=
α.2n + β(−3)n
Rejouons dans R3
1. On échange la première et la troisième ligne, pour avoir un gentil pivot :




−1
−4
8−λ
−1
−4
8−λ
−5 − λ
10  = rg  0
3−λ
−6 + 2λ 
rg(A − λI3 ) = rg  −2
−3 − λ
−4
10
0 8 + 4λ λ2 − 5λ − 14
Dans la deuxième ligne, on peut factoriser λ −
3. Ainsi :



−1 −4
5
−1 −4
5
0
0 , c’est-à-dire celui de  0
20 −20,
– Si λ = 3, alors le rang de A−λI3 est celui de  0
0
20 −20
0
0
0
c’est-à-dire 2
1
– Si λ 6= 3, alors le rang de A − λI3 est celui (après l’opération L2 ←
L2 , qui conserve le
3
−
λ


−1
−4
8−λ
, c’est-à-dire (après l’opération L3 ← L3 − (8 + 4λ)L2 )
1
−2
rang) de  0
2
0 8 + 4λ λ − 5λ − 14
7


−1 −4 8 − λ
1
−2 , avec d = λ2 − 5λ − 14 + 2(8 + 4λ) = λ2 + 3λ + 2 = (λ + 1)(λ + 2).
celui de  0
0
0
d
Ainsi, si λ ∈
/ {−1, −2} alors d 6= 0, donc A − λI3 est de rang 3. Et si λ vaut −1 ou −2 alors
d = 0, donc A − λI3 est de rang 2.
(
2 si λ ∈ {−2, −1, 3}
rg(A − λI3 ) =
3 sinon
2. Inspirés par la première partie de ce problème et les calculs précédents, on note u l’application
linéaire canoniquement associée à A, et on cherche les noyaux de u − λIdE , avec λ ∈ {−2, −1, 3}.
On sait déjà qu’ils sont de dimension 3 − 2 = 1, donc ce sont des droites. Il suffit alors de trouver
un élément non nul de chacun de 
ces noyaux... 
−1 −4 10
– Mat(u + 2IdE , E) = A + 2I3 = −2 −3 10, donc :
−1 −4 10

(x1 , x2 , x3 ) ∈ Ker (u + 2IdE ) ⇐⇒
⇐⇒
 
−1 −4 10
x1
−2 −3 10 x2  = 0 ⇐⇒ −x1
−1 −4 10
x3
(
x1 = −4x2 + 10x3 = 2x3
x2 = 2x3
−
4x2
5x2
+ 10x3
− 10x3
Et ainsi (après un petit coup de Ker (u + 2IdE ) = {... | ... ∈ ...}) :
Ker (u + 2IdE ) = Vect(f1 ),

−2 −4
– De même : Mat(u + IdE , E) = A + I3 = −2 −4
−1 −4
avec f1 = (2, 2, 1).

10
10, puis (left to the reader) :
9
Ker (u + IdE ) = Vect(f2 ), avec f2 = (1, 2, 1).


−6 −4 10
– Et enfin, Mat(u − 3IdE , E) = A − 3I3 = −2 −8 10, puis :
−1 −4 5
Ker (u − 3IdE ) = Vect(f3 ), avec f3 = (1, 1, 1).
4
3
On montre ensuite que F = (f1 , f2 , f3 ) est
 une base
 de R , en calculant
 le rang
 de cette famille,
2 1 1
2 1 1
qui est aussi le rang de la matrice P = 2 2 1 qui est celui de 0 1 0, mais aussi celui
1 1 1
0 1 1


2 1 1
de 0 1 0. Ce rang vaut donc 3 : F est alors génératrice, donc constitue une base de E. Mais
0 0 1


−2 0 0
par définition des fi , on a Mat(u, F) =  0 −1 0 = D, et la formule de changement de base
0
0 3
nous donne alors A = P.D.P −1 , ce qui était le résultat attendu.




2 1 1
−2 0 0
En prenant P = 2 2 1, on a A = P  0 −1 0 P −1
1 1 1
0
0 3
4. Nous savons maintenant que le cours est fait... qu’en tant que famille de vecteurs propres associés à des valeurs
propres distinctes, elle est libre...
8
=
=
0
0
3. L’implication « B = αA2 + βA + γI3 ⇒ AB = BA » est aussi évidente qu’une heure auparavant...
Pour le sens non trivial, on suppose AB = BA et on reprend le plan de la partie 3.2, en notant v
l’endomorphisme canoniquement associé à B ∈ M3 (R) :
(a) AB = BA se traduit géométriquement par u ◦ v = v ◦ u.
(b) De même, la relation u ◦ v = v ◦ u implique que les droites engendrées par f1 , f2 et f3 sont
stables par v, essentiellement car ces droites sont des noyaux de u − λIdE . La réciproque est
inutile ici, mais reste vrai parce que F est une base de E.
(c) On en déduit que B est de la forme P.D1 .P −1 , avec D1 une matrice diagonale.


a 0 0
(d) Notant D1 = 0 b 0, il existe α, β, γ ∈ R tels qu’en posant P = αX 2 + βX + γ, on ait
0 0 c
P (−2) = a, P (−1) = b et P (3) = c : c’est le théorème d’interpolation de Lagrange qui le
dit... mais on peut le retrouver en résolvant un système à trois équations et trois inconnues
(mouais... on va préférer Lagrange, non ?).
On a alors :
B = P.D1 .P −1 = P αD2 + βD + γI3 P −1 = αP.D2 .P −1 +βP.D.P −1 +γP.P −1 = αA2 +βA+γI3 .


x(t)
4. Notant X(t) = y(t), le système différentiel se traduit X 0 = AX, soit encore, en posant
y(t)


x1 (t)
X1 (t) =  y1 (t)  = P −1 X(t) :
z1 (t)
 0
x1 = −2x1
X 0 1 = DX, c’est-à-dire y10 = −y1 ce qui est équivalent à l’existence de trois constantes
 0
z1 = 3z1
x1 (t) = αe−2t
α, β, γ ∈ R telles que pour tout t ∈ R, y1 (t) = βe−t . Les conditions initiales se traduisent

3t
z1 (t) = γe

α
X1 (0) = P −1 X(0), ce qui permet d’obtenir directement β  si on a calculé P −1 (ce qui n’est pas
γ
le cas ici, mais qui serait assez aisé). On va se contenter de résoudre le système P X1 (0) = X(0) :


   
1
2 1 1
α
α = −1
2 2 1 β  = −1 ⇐⇒ · · · ⇐⇒
β = −2

γ
2
γ = 5
1 1 1
Le système différentiel proposé, avec les conditions initiales imposées, possède donc une unique
solution :




x(t)
−2e−2t − 2e−t + 5e3t
y(t) = X(t) = P X1 (t) = −2e−2t − 4e−t + 5e3t 
∀t ∈ R,
−e−2t − 2e−t + 5e3t
y(t)
 
 
un
Un
0
5. De façon assez originale, on note Zn =  vn  et Zn0 =  Vn  = P −1 Zn : on a Zn+1
= D.Zn0 ,
wn
Wn
donc les suites U , V et W sont géométriquesde raisons
−2,
  −1
 et3. Les
 conditions initiales se
2 1 1
U0
1
traduisent par ailleurs Z00 = P Z0 , soit encore 2 2 1  V0  = −1, système qui a déjà été
1 1 1
W0 
2
   
  
U0
−1
Un
−1(−2)n
résolu ! On a donc  V0  = −2 puis  Vn  = −2(−1)n 
W0
5
Wn
5.3n
9
Il existe donc un unique triplet de suites vérifiant les relations de récurrences et les conditions
initiales de l’énoncé :
 


un
−2(−2)n − 2(−1)n + 5.3n
 vn  = Xn0 = P Xn = −2(−2)n − 4(−1)n + 5.3n 
∀n ∈ N,
wn
−(−2)n − 2(−1)n + 5.3n
3.4
Un générateur automatique d’exercices
1. Pour inverser T1 , on peut la voir comme la matrice de passage entre deux bases de R3 , disons
T1 = Pas . On a alors T1−1 = Pas . Mais si on a bien compris comment on résout un système
E→F
triangulaire tel que

e1




α

 2,1 e1
α3,1 e1






αn,1 e1
F →E
+
e2
+ α3,2 e2
+
= f1
= f2
= f3
e3
..
.
αn,n−1 en−1
···
+
+
en
= fn
X
on est bien convaincu qu’on aura pour tout k ∈ [[1, n]], ek de la forme fk +
βk,i fi avec les βk,i
i<k
entiers. Cela se prouverait par récurrence (avec prédécesseurs). On a ainsi :


1 β2,1 · · ·
βn,1
0

1


T1−1 = Pas =  .
 ∈ Mn (Z).
.
.. β
F →E
 ..

n,n−1
0
(0)
1
2. Prouvons ce résultat à la frontière du cours...
On a T1 .T1−1 = In , donc en transposant : t (T1−1 )t T1 = t In = In , et de même, T1−1 T1 = In fournit
t
T1 t (T1−1 ) = t In = In . Ainsi :
t
T1 est inversible, d’inverse t (T1−1 ).
3. P est le produit de deux matrices inversibles, donc est inversible. Par ailleurs, P −1 = (T1 T2 )−1 =
T2−1 T1−1 = t (T1−1 )T1−1 est le produit de deux matrices à coefficients entiers d’après la question 1,
donc est elle-même à coefficients entiers.
P −1 ∈ Mn (Z)
4. from numpy import *
T1 = array([[1, 2, -1], [0, 1, 1], [0, 0, 1]])
P = dot(T1, transpose(T1))
D = array([[5, 0, 0], [0, -4, 0], [0, 0, -2]])
C = dot(P, dot(D, linalg.inv(P)))
"""
>>> print P
[[ 6 1 -1]
[ 1 2 1]
[-1 1 1]]
>>> print C
[[ 44. -94. 140.]
[ 15. -36.
49.]
[ -3.
4.
-9.]]
>>> print(linalg.inv(P).dot(C).dot(P))
[[ 5.00000000e+00
1.06581410e-14
1.06581410e-14]
[ 1.63424829e-13 -4.00000000e+00 -7.46069873e-14]
[ -2.23820962e-13
4.61852778e-14 -2.00000000e+00]]
"""
10
Téléchargement