corrigé

publicité
Psi 945 – 2015/2016
http://blog.psi945.fr
DS 3 – corrigé
Le corrigé de l’exercice d’E3A a été rédigé par Gilles Deyris (lycée Paul Valéry) ; celui de l’épreuve de
Centrale par Thierry Legay (lycée d’Arsonval).
Exercice (E3A 2013 MP – maths B)
1) a) C’est immédiat.
b) Il est clair que Ker ϕ ne contient que la colonne nulle, donc ϕ est injective ;
elle réalise donc une bijection de Ker A dans ϕ(Ker A).
X
∈ C2n , avec X et Y dans Cn . Alors :
D’autre part, soit Z =
Y
Z ∈ Ker MA ⇐⇒
0 In
A 0
X
= 0 ⇐⇒ Y = 0 et AX = 0 ⇐⇒ X ∈ Ker A et Z = ϕ(X)
Y
et donc Ker MA = ϕ(Ker A), ce qui achève la démonstration.
c) Si B ∈ Mp (C), la formule du rang, appliquée à l’endomorphisme canoniquement associé à B,
donne dim Ker B + rgB = p.
Les deux questions précédentes montrent que les sous-espaces Ker A et Ker MA sont isomorphes,
donc ont même dimension.
Compte tenu des dimensions de ces matrices, on en déduit n−rgA = 2n−rgMA , soit rgMA = n + rgA.
A 0
2
.
2) a) On obtient immédiatement MA =
0 A
P 0
−1
b) On choisit, dans Mn (C), P inversible et D diagonale telles que A = P DP . Posons Q =
0 P
−1
In 0
D 0
P
0
=
et E =
. On vérifie immédiatement que Q
= I2n , donc que
0 In
0 D
0
P −1
−1
A 0
P
0
−1
;
et
que
QEQ
=
Q est inversible, d’inverse
= MA 2 . Puisque E est
0 A
0
P −1
diagonale, MA 2 est bien diagonalisable.
2
c) On vérifie immédiatement que l’inverse de MA est
A−1
0
0
.
A−1
2
2
d) Notons λ1 , . . . , λp les
distinctes de
Qpvaleurs propres deux à deux
QpMA . 2Puisque MA est diagonali2
sable, le polynôme k=1 (X − λk ) annule MA , et donc R = k=1 (X − λk ) annule MA .
Puisque MA 2 est inversible, ses valeurs propres sont non nulles, et donc chaque λk a deux racines
carrées distinctes µk et −µk ; de plus, les λk étant distincts, les 2p nombres µ1 , −µ1 , . . . , µp , −µp
sont deux à deux
Qdistincts.
p
On a alors R = k=1 (X − µk )(X + µk ), ce qui montre que R est scindé à racines simples. Puisque
MA admet un polynôme annulateur scindé à racines simples, on sait alors que MA est diagonalisable.
3) a) Soit (X1 , . . . , X2n ) une base de C2n constituée de colonnes propres pour MA , associées aux valeurs
propres λ1 , . . . , λ2n . Pour simplifier les écritures, on suppose qu’il existe p tel que λk 6= 0 si k 6 p,
et λk = 0 pour k > p.
L’espace Im MA est alors engendré par les colonnes (AX1 , . . . , AX2n ) = (λ1 X1 , . . . , λ2n X2n ). Il
est clair qu’on peut supprimer dans cette famille les vecteurs nuls, et diviser chacun des vecteurs res1
tants par le λk associé, sans modifier le sous-espace engendré. On a donc Im MA = Vect(X1 , . . . , Xp ).
Les vecteurs Xk forment aussi une base de vecteurs propres pour MA 2 , associés aux valeurs propres
λk 2 . Le même raisonnement montre que l’image de MA 2 est engendrée par ceux de ces vecteurs qui
sont associés à une valeur propre non nulle ; on en déduit Im MA 2 = Vect(X1 , . . . , Xp ) = Im MA .
b) La question précédente montre, grâce à la formule du rang, que Ker MA et Ker MA 2 ont même
dimension.
De plus, si X ∈ Ker MA , alors MA 2 X = MA (MA X) = 0, donc Ker MA ⊂ Ker MA 2 .
On en déduit que Ker MA = Ker MA 2 .
0
est dans Ker MA 2 , donc dans Ker MA
X
d’après la question précédente.
Y
, donc X = 0. Par suite,
Mais on a vu en 1 que les éléments de Ker MA sont de la forme
0
Ker A = {0}, ce qui suffit à prouver que A est inversible.
d) Notons u l’endomorphisme de C2n canoniquement associé à MA 2 . Puisque MA est diagonalisable,
MA 2 l’est aussi, et donc aussi u.
D’autre part, la forme de la matrice MA 2 montre que le sous-espace F de C2n engendré par les
n premiers vecteurs de la base canonique est stable par u ; puisque u est diagonalisable, on sait
qu’alors l’endomorphisme ũ induit par u sur F l’est aussi.
Mais la matrice de ũ est A, et donc A est diagonalisable.
c) Soit X ∈ Ker A. Un calcul immédiat montre que
4) On a démontré : MA est diagonalisable ⇐⇒ A est diagonalisable et inversible.
Problème (Centrale 2013 PSI – maths 2)
PARTIE I : Réduction des matrices réelles d’ordre 2
I.A - Généralités
b
I.A.1) Soit A ∈ M2 (R), A =
. Un calcul rapide donne directement
d
b χA (λ) = a − λ
= X 2 − (a + d)X + (ad − bc) = λ2 − tr(A)λ + det A .
c
d − λ
a
c
I.A.2) Le discriminant du polynôme caractéristique est donc ∆ = tr(A)2 − 4 det A.
– Supposons d’abord A diagonalisable dans M2 (C).
Alors, dans le cas ∆ = 0, A admet une seule valeur propre λ0 (d’ailleurs, λ0 est nécessairement un réel puisque A est à coefficients réels) ; étant diagonalisable, elle est semblable à
λ0 I2 , soit A = P −1 (λ0 I2 )P avec P ∈ GL2 (C), d’où A = λ0 I2 .
– Supposons la propriété de l’énoncé réalisée, c’est-à-dire ∆ 6= 0 ou ∃λ0 ∈ C tq A = λ0 I2 .
– Dans le cas ∆ 6= 0, le polynôme caractéristique de A admet deux racines simples dans C,
donc A admet deux valeurs propres distinctes dans C et est par suite diagonalisable dans
M2 (C).
– Dans le second cas, A est diagonale donc a fortiori diagonalisable.
Dans les deux cas, A est diagonalisable ce qui montre l’implication cherchée.
I.A.3) Le raisonnement est similaire à celui ci-dessus ; il faut juste remarquer en plus que, lorsque
A est diagonalisable dans M2 (R), elle admet nécessairement 1 ou 2 valeurs propres réelles,
donc son polynôme caractéristique est scindé dans R[X] et a donc un discriminant positif (et
réciproquement).
I.B - Applications
2
I.B.1) On a Xk+1 = AXk avec A =
4
1
−2
.
1
I.B.2) Par récurrence immédiate : ∀k ∈ N , Xk = Ak X0 .
I.B.3) Ici χA (λ) = λ2 − tr(A)λ + det A = λ2 − 5λ + 6 = (λ − 2)(λ − 3). A ayant deux valeurs
propres distinctes, elle est diagonalisable.
0
1
la base canonique de M2,1 (R).
et E2 =
Notons E1 =
1
0
2 −2
1 −2
A − 2I2 =
donc V2 = E1 + E2 ∈ Ker(A − 2I2 ) ; A − 3I2 =
donc V3 =
1 −2
1 −1
2E1 + E2 ∈ Ker(A − 3I2 ).
1 2
La famille (V2 , V3 ) est une base de vecteurs propres de A et si l’on note P =
la matrice
1 1
de passagede labase canonique à cette base de vecteurs propres , on a donc A = P DP −1
2 0
avec D =
.
0 3
−1 2
I.B.4) On aura donc (classiquement) : ∀k ∈ N , Ak = P Dk P −1 . On calcule P −1 =
1 −1
!
k
k
k
k
2.3
−
2
−2.3k + 2k+1
2
0
1 2
−1 2
2
0
k
k
puis D =
et enfin A =
×
×
=
1 −1
1 1
0 3k
0 3k
3k − 2k
−3k + 2k
.
1
uk
d’où
= Ak
I.B.5) Puisque Xk = Ak X0 on aura
vk
2
∀k ∈ N , uk = 3.2k − 2.3k
et
vk = 3.2k − 3k .
PARTIE II : Réduction de matrices d’ordre 3 ou 4
II.A - Le cas n = 3


0 0 1
II.A.1) J 2 = 1 0 0 et J 3 = I3 .
0 1 0
Soit k ∈ N. La division euclidienne de k par 3 s’écrit k = 3q + r avec r ∈ {0, 1, 2}, d’où
q
J k = J 3q+r = (J 3 ) J r = I3 Jr = J r .
II.A.2) La somme des racines n-ièmes de l’unité est nulle pour n > 2. Ici, 1, j et j 2 sont les racines
cubiques de l’unité, et 1 + j + j 2 = 0.
II.A.3) Un calcul simple donne χJ (λ) = 1 − λ3 d’où SpC (J) = {1, j, j 2 }.
II.A.4) J admettant trois valeurs propres distinctes dans C est diagonalisable dans M3 (C).
 
   
1
1
1
On a clairement J. 1 = 1 donc Ker(J − I3 ) est la droite vectorielle de base V1 = 1.
1
1
1

 
x
−jx
+
y
=
0

y = jx
Soit V = y . J.V = jV ⇐⇒ −jy + z = 0 ⇐⇒
donc Ker(J − jI3 ) est la
z = j2x

z
x
−
jz
=
0
 
1
droite vectorielle de base V2 =  j .
j2
 
1
De la même façon, Ker(J − j 2 I3 ) est la droite vectorielle de base V3 = j 2  (on rappelle
j
que j 2 = j). (V1 , V2 , V3 ) est une base de vecteurs propres de J dans laquelle l’endomorphisme
3
canoniquement associé à J a pour matrice D = diag(1, j, j 2 ), c’est-à-dire que l’on a J =
P DP −1 avec P matrice de passage de la base canonique à la base (V1 , V2 , V3 ) soit P =




1 0 0
1 1 1
1 j j 2  et D = 0 j 0  .
1 j2 j
0 0 j2
II.A.5)
a) A(a, b, c) = aI3 + bJ + cJ 2 .
b) Puisque J = P DP −1 et J 2 = P D2 P −1 on aura A(a, b, c) = P (aI3 + bD + cD2 )P −1 , avec


a+b+c
0
0
 diagonale, donc A(a, b, c) est
0
a + bj + cj 2
0
aI3 + bD + cD2 = 
2
0
0
a + bj + cj
diagonalisable, et la matrice de passage P ne dépend pas de a, b, c.
c) Les valeurs propres de A(a, b, c) sont donc les éléments diagonaux de la matrice aI3 +
bD + cD2 à savoir a + b + c, a + bj + cj 2 et a + bj 2 + cj.
d) On en déduit ensuite : det A = det(aI3 +bD +cD2 ) = (a+b+c)(a+bj +cj 2 )(a+bj 2 +cj).
Le calcul direct du déterminant donne aussi det A = a3 +b3 +c3 −3abc, d’où la jolie identité
remarquable :
∀(a, b, c) ∈ C3 , a3 + b3 + c3 − 3abc = (a + b + c)(a + bj + cj 2 )(a + bj 2 + cj).
II.A.6)
a) E est l’ensemble des combinaisons linéaires de I3 , J et J 2 ; c’est donc le sous-espace
vectoriel de M3 (C) engendré par ces 3 matrices.
b) (I3 , J, J 2 ) est donc une famille génératrice de E ; d’autre part il est immédiat de vérifier
que
aI3 + bJ + cJ 2 = O3 =⇒ a = b = c = 0 donc c’est aussi une famille libre et par suite c’est
une base de E. D’où dim E = 3.
II.B - Le cas n > 3 quelconque
II.B.1) Compte tenu de la définition de u et de

0 1 0 ...
 ..
. 0 1 ...


.. ..
dans une base, on a : U =  ...
.
.


..
0
.
1 0 ... ...
II.B.2)
u(xω )
=
u
n
X
ω k−1 ek
k=1
=
ω n en +
n−1
X
k=1
!
la définition de la matrice d’un endomorphisme

0

0


.
0


1
0
= u(e1 ) +
ω k ek =
n
X
k=2
n
X
ω k−1 u(ek ) = en +
n
X
ω k−1 ek−1
k=2
ω k ek
k=1
donc u(xω ) = ωxω .
II.B.3) Le calcul précédent montre que toute racine n-ième de l’unité, ω, est valeur propre de u
(car xω 6= 0 en est un vecteur propre associé).
u possède donc n valeurs propres distinctes, et dim(Cn ) = n ; par suite, u est diagonalisable.
2ikπ
Si l’on note ωk = e n pour k ∈ J0, n − 1K les n racines n-ièmes
de l’unité, une base de
vecteurs propres de u est formée des vecteurs xω0 , xω1 ) , . . . , xωn−1 .
4
II.B.4) Pour tout k ∈ J0, n − 1K, u(xωk ) = ωk xωk donc un (xωk ) = ωkn xωk = xωk . Les xωk formant
une base de Cn , on en déduit que un = IdCn (on pouvait aussi calculer directement les un (ei ),
nul besoin de diagonaliser).
II.C - Le cas n = 4

0
0
II.C.1) U = 
0
1
1
0
0
0
0
1
0
0

0
0

1
0

0

0
U2 = 
1
0
0
0
0
1
1
0
0
0

0
1

0
0

0

1
U3 = 
0
0
0
0
1
0
0
0
0
1

1
0

0
0
U 4 = I4 .
II.C.2) Les racines quatrièmes de l’unité sont 1, i, −1 et i. D’après les résultats de II.B, U est
diagonalisable, et U = P DP −1 , où D = diag(1, i, −1, −i) et où P 
est la matrice de passage
 de
1 1
1
1
1 i
−1
−i 

la base canonique à la base xω0 , xω1 , xω2 , xω3 c’est-à-dire P = 
12 i2 (−1)2 (−i)2  =
13 i3 (−1)3 (−i)3


1 1
1
1
1

i
−1
−i


1 −1 1 −1 .
1 −i −1
i
Puisque V = aI4 + bU + cU 2 + dU 3 , on aura V = P (aI4 + bD + cD2 + dD3 )P −1 . Puisque
la matrice aI4 + bD + cD2 + dD3 est diagonale, la matrice V est diagonalisable ; ses valeurs
propres sont les termes diagonaux de la matrice aI4 + bD + cD2 + dD3 , c’est-à-dire a + b +
c + d, a + ib − c − id, a− b + c − d et a − ib − c − id, une base de vecteurs propres associés
étant xω0 , xω1 , xω2 , xω3 .
PARTIE III : Théorème de Cayley-Hamilton
III.A Le polynôme caractéristique de A étant scindé dans C[X], il résulte d’un théorème du cours que
A est trigonalisable dans Mn (C), c’est-à-dire qu’il existe P ∈ GLn (C) et T ∈ Mn (C) triangulaire
supérieure telles que A = P T P −1 .
III.B T et A étant semblables ont le même polynôme caractéristique. Il fallait peut-être le redémontrer :
χA (λ)
=
=
det(A − λIn ) = det(P T P −1 − λIn ) = det(P (T − λIn )P −1 )
det(P ) det(T − λIn ) det(P −1 ) = det(T − λIn ) = χT (λ)
III.C Immédiat.

III.D T Ek+1 est la (k + 1)-ième colonne de la matrice T donc T Ek+1
(k+1)-ième ligne, d’où T Ek+1 −λk+1 Ek+1
×
×
..
.












λ
=
 k+1  où λk+1 est situé à la
 0 


 . 
 .. 
0
 
×
 .. 
.
 
×
 

=
 0  ; les coordonnées de ce vecteur sur Ek+1 , . . . , En
0
 
.
 .. 
0
sont nulles, donc il appartient bien à Vect(E1 , E2 , . . . , Ek ).
5
III.E Pour tout k ∈ J1, nK notons Fk = Vect(E1 , . . . , Ek ) et F0 = {0Cn }.
D’après la question précédente, pour k > 2, (T −λk In )(Ek ) ∈ Fk−1 ; mais puisque T est triangulaire
supérieure, les sous-espaces vectoriels Fk sont stables par T (propriété du cours) donc on a aussi
(T − λk In )(Fk−1 ) ⊂ Fk−1 et par suite : (T − λk In )(Fk ) ⊂ Fk−1 .
Puisque (T − λ1 In )E1 = λ1 E1 − λ1 E1 = 0Cn on a (T − λ1 In )(F1 ) = F0 , et finalement la propriété :
(T − λk In )(Fk ) ⊂ Fk−1 est vraie pour tout k ∈ J1, nK.
On aura donc, pour tout k ∈ J1, nK : (T − λk In )(Fk ) ⊂ Fk−1
puis pour k > 2 : (T − λk−1 In )(T − λk In )(Fk ) ⊂ (T − λk−1 In )(Fk−1 ) ⊂ Fk−2
puis pour k > 3 : (T − λk−2 In )(T − λk−1 In )(T − λk In )(Fk ) ⊂ (T − λk−2 In )(Fk−2 ) ⊂ Fk−3 etc...
et finalement par récurrence, avec les notations de l’énoncé : Mk (Fk ) ⊂ F0 soit Mk (Fk ) = {0Cn }.
III.F En particulier Mn (Fn ) = {0Cn } et puisque Fn = Vect(E1 , . . . , En ) = Cn on a Mn = On .


n
n
n
Y
Y
Y
(T − λj In ) =
P −1 (A − λj In )P = P −1  (A − λj In ) P , on en déduit
Puisque Mn =
j=1
n
Y
j=1
j=1
(A − λj In ) = On et, puisque χA = (−1)n
n
Y
(X − λj ), on démontré le théorème de Cayley-
j=1
j=1
Hamilton : χA (A) = On .
PARTIE IV : Méthodes numériques de calcul.
IV.A - Le calcul du polynôme caractéristique
IV.A.1) D’après le théorème de Cayley-Hamilton on a : An = an−1 An−1 + an−2 An−2 + . . . + a0 In
donc en multipliant par X0 à droite, on obtient l’égalité demandée.
IV.A.2) En considérant la matrice à écrite par blocs sous la forme à = X0 AX0 . . . An−1 X0 ,
c’est-à-dire dont la j-ièmecolonne est Aj−1 X0 , l’égalité de la question précédente s’écrit
a0
 a1 


ÃX = B avec X =  .  et B = An X0 .
 .. 
an−1
IV.A.3) Si la famille X0 , AX0 , . . . , An−1 X0 est libre, les colonnes de la matrice à sont indépendantes ; à est donc inversible et le système ÃX = B est de Cramer (c’est-à-dire possède une
solution unique).
L’énoncé est ici inachevé ! En effet, on ne voit pas bien à quoi servent ces questions !
On pouvait remarquer que, si l’on part d’un vecteur X0 quelconque, on peut alors calculer
la matrice à en calculant simplement les Ak X0 pour k ∈ J0, n − 1K, puis, en résolvant
le système ÃX = An X0 , on trouve le vecteur X c’est-à-dire les coefficients du polynôme
caractéristique (sauf si par malheur le choix de X0 conduit à un système qui n’est pas de
Cramer !). C’est la méthode de Krylov.
IV.B - Le calcul approché des valeurs propres
IV.B.1) On montre que F est un sous-espace vectoriel de l’espace vectoriel RN des suites réelles :
– F est non vide, car il contient la suite nulle.
– Soient x et y deux suites de F , et λ ∈ R. On a alors, pour tout entier k > 0 :
λx + y n+k = λxn+k + yn+k
= λ an−1 xk+n−1 + an−2 xk+n−2 + . . . a0 xk + an−1 yk+n−1 + an−2 yk+n−2 + . . . a0 yk
= an−1 λx + y k+n−1 + an−2 λx + y k+n−2 + . . . + a0 λx + y)k
ce qui prouve que la suite λx + y appartient à F et démontre le résultat annoncé.
6
IV.B.2) Pour tout j ∈ J1, nK λj est une valeur propre de A, donc est racine de son polynôme
n−1
P
=
ai λij . On aura alors, pour tout entier k > 0 : λn+k
caractéristique c’est-à-dire λnj =
j
i=0
n−1
P
i=0
ai λi+k
,
j
ce qui signifie que la suite λkj
k∈N
est élément de F .
IV.B.3)
• Démontrons d’abord
admises par l’énoncé :
les propriétés
F −→ Rn
– L’application ϕ :
est linéaire (vérification facile) et bijective,
y 7−→ (y0 , y1 , . . . , yn−1 )
puisque toute suite élément de F est entièrement déterminée, et ce de façon unique, par la
donnée de ses n premiers termes.
Donc ϕ est un isomorphisme d’espaces vectoriels, d’où dim F = dim Rn = n.
– Les λj étant n réels distincts, montrons que les suites λkj k∈N forment une famille libre.
Pour cela, supposons qu’il existe une combinaison linéaire de ces suites qui soit égale à
la suite nulle, c’est-à-dire qu”il existe n scalaires αi tels que, pour tout k ∈ N, on ait
n
P
αj λkj = 0.
j=1

α1 + α2 + . . . + αn
= 0




= 0
 α 1 λ1 + α 2 λ2 + . . . + α n λn
α1 λ21 + α2 λ22 + . . . + αn λ2n
= 0 .
En particulier, lorsque k ∈ J0, n − 1K, on a


.
.
.
.
..



α1 λ1n−1 + α2 λ2n−1 + . . . + αn λnn−1 = 0


1
1
...
1
 λ1
λ2
...
λn 
 2

2
2 
 λ1
λ
.
.
.
λ
n ,
2
Il s’agit d’un système linéaire homogène dont la matrice est 
 ..
.. 
 .
... ...
. 
n−1
n−1
n−1
λ1
λ2
. . . λn
qui est une matrice de Vandermonde inversible, les λj étant distincts. Par suite ce système
possède pour seule solution α1 = α2 = . . . = αn = 0, ce qui démontre le résultat annoncé.
• D’après ce qui précède, les suites λkj k∈N pour j ∈ J1, nK forment une famille libre de n
éléments dans l’espace vectoriel F de dimension n, donc en forment une base. Toute suite y
de F s’écrit donc comme combinaison linéaire de façon unique de ces suites, c’est-à-dire qu’il
n
P
existe n réels α1 , α2 , . . . , αn tels que, pour tout k ∈ N, yk =
αj λkj .
j=1
k
n
P
λj
yk
.
αj
II.B.4) a) Avec les notations précédentes, on a, pour tout k ∈ N, k = α1 +
λ1
λ1
j=2
k
λj yk
λj
Puisque pour j > 2 < 1 on a lim
= 0 d’où lim
= α1 . Puisque
k→+∞ λk
k→+∞ λ1
λ1
1
α1 6= 0 on en déduit yk ∼ α1 λk1 .
k→+∞
b) λ1 est non nulle puisque l’énoncé a supposé |λ1 | > |λ2 | > . . .. On a donc pour tout entier
k α1 λk1 6= 0 et l’équivalent trouvé ci-dessus implique que yk est non nul au moins à partir
d’un certain rang (résultat du cours).
c) On peut donc pour k assez grand considérer le quotient
yk+1
= λ1 .
k→+∞ yk
yk+1
yk+1
, et l’on aura
yk
yk
∼
k→+∞
α1 λk+1
1
α1 λk1
puis lim
II.B.5) Je vois ici deux réponses possibles, pas très satisfaisantes (erreurs d’arrondi nombreuses
et qui s’accumulent !) :
– Une fois λ1 obtenu, on peut effectuer la division euclidienne du polynôme caractéristique
χA (λ) par λ − λ1 , et réitérer le processus avec le nouveau polynôme obtenu et de nouvelles
suites définies par récurrence...
7
– On peut aussi considérer la suite (zk ) définie par zk = yk − α1 λk1 (où α1 aura été calculé
n
P
yk
en utilisant lim
= α1 ). Ainsi, zk =
αj λkj et, en supposant que α2 est non nul, on
k
k→+∞ λ1
j=2
zk+1
aura alors, de la même façon que ci-dessus, lim
= λ2 .
k→+∞ zk
IV.C - Illustration sur un exemple
IV.C.1) Pour la matrice A de l’exemple, on trouve χA (λ) = λ2 − 3λ + 2, λ1 = 2 et λ2 = 1.
IV.C.2) D’après Cayley-Hamilton on a A2 = 3A−2I2 ; la relation de récurrence associée est donc :
yk+2 = 3yk+1 − 2yk .
IV.C.3) Un petit programme naïf en Python, où l’on stocke les éléments de la suite dans une
liste, pourrait être le suivant :
les_y = [0, 1]
for k in range(2, 10):
suivant = 3*les_y[-1] -2*les_y[-2]
les_y.append(suivant)
"""
>>> les_y
[0, 1, 3, 7, 15, 31, 63, 127, 255, 511]
"""
NdSG : ici c’est assez niais : yk = 2k − 1 ! ! !
IV.C.4) On peut écrire un
programme un peu plus élaboré qui détermine la valeur de l’entier k
yk+2
y
k+1
< ε où ε est donné. Pour cela, il suffit de ne stocker à tout instant que
−
tel que yk+1
yk les valeurs de yk , yk+1 et yk+2 . Puisque y0 = 0, on commencera à k = 1 :
k = 1
yk, yk1, yk2 = 1.0, 3.0, 7.0 # représentent y[k] , y[k+1] et y[k+2]
eps = 10**(-5) # erreur entre deux termes successifs, fixée par l’utilisateur
r1 = yk1/yk
r2 = yk2/yk1
while abs(r2-r1) > eps :
k = k+1
yk3 = 3*yk2 - 2*yk1
r1, r2 = r2, yk3/yk2
yk, yk1, yk2 = yk1, yk2, yk3
"""
>>> k, yk, r1, r2
(16, 65535.0, 2.0000152590218967, 2.0000076294527394)
"""
8
Concours Centrale-Supélec 2013 filière TSI
Mathématiques 2
Présentation du sujet
Le sujet de cette année, sans fil directeur précis, traitait globalement des puissances de matrices.
Les parties I et II, plutôt calculatoires, proposent de réduire sur des exemples des matrices d’ordre
2, 3 et 4 avant d’exploiter ces réductions pour des calculs de puissances matricielles. La partie III
donne une démonstration du théorème de Cayley-Hamilton, qui aboutit dans la dernière partie au
calcul des coefficients du polynôme caractéristique et des valeurs propres d’une matrice.
Les compétences des candidats sont essentiellement sollicitées pour la réduction des endomorphismes et le calcul matriciel.
Analyse globale des résultats
Ils sont assez positifs dans l’ensemble. Un nombre non négligeable de copies aborde toutes les
questions et la plupart sont bien fournies. La partie I a sans doute mis en confiance les candidats
puisqu’elle reprend sur un exemple le thème archi-classique des puissances énièmes d’une matrice
dans le cas où celle-ci est diagonalisable, et ce en dimension 2. L’aspect pratique et calculatoire
des questions a permis à la grande majorité des étudiants de traiter convenablement cette partie
et le début de la suivante, avec cependant des différences notables au niveau de la rédaction.
Cela dit, les autres parties, un peu plus théoriques, ont souvent été traitées avec succès par de
nombreux candidats, et permettent d’échelonner assez clairement les copies suivant leur valeur.
Enfin, le sujet était de longueur raisonnable, et certaines copies ont abordé la totalité des questions.
Commentaires sur les réponses apportées et conseils aux candidats
Au sujet des calculs, il nous faut signaler que l’emploi des calculatrices doit demeurer une aide,
et non un substitut à la présentation et à la réflexion. Ainsi, s’il est acceptable de calculer un
produit (ou à la rigueur un inverse) de matrices à l’aide de la machine, le jury a systématiquement
sanctionné les candidats n’écrivant pas ces produits sur leur feuille, ou donnant sans explication les
valeurs propres et les vecteurs propres des matrices. Certains d’entre eux, encore moins honnêtes,
valident le résultat donné par leur calculatrice avec des calculs plus ou moins fantaisistes, voire
en contradiction. Rappelons que la démarche est aussi importante que le résultat, et que le jury
n’attend pas un formulaire de réponses. Il y a les QCM pour ça.
Soulignons-le donc une bonne fois pour toutes : il est fondamental de faire apparaître au correcteur
de manière claire et concise les étapes qui mènent au résultat.
Partie I
I.A.1 Parfaitement traitée par l’immense majorité des candidats.
I.A.2 et I.A.3 Réponses assez décevantes dans l’ensemble. La confusion est beaucoup trop fréquente entre condition nécessaire et condition suffisante. Ainsi, une matrice se retrouve diagonalisable si et seulement si son polynôme caractéristique a deux racines distinctes ! Un certain nombre
d’étudiants n’a pas compris les questions posées et donne une autre réponse qui les arrange. On
Mathématiques 2
E–17
Concours Centrale-Supélec 2013 filière TSI
ne saura donc trop conseiller de lire attentivement les questions du sujet et de ne pas se dérober
dans les réponses.
I.B.1 à I.B.5 Bien fait dans l’ensemble, avec plus ou moins de détails. À noter que les formules
concernant les puissances énièmes de matrices semblables et l’expression des suites définies par
une relation de récurrence matricielle nécessitaient une démonstration par récurrence, dont se sont
dispensés (à tort) de nombreux candidats.
Partie II
II.A.2 Curieusement, certains candidats démontrent le résultat, ce qui est tout à leur honneur
mais cela n’est pas demandé. C’est en tout cas moins grave que l’inverse, beaucoup plus fréquent
dans les copies.
II.A.3 et II.A.4 Le jury tient à rappeler que, contrairement à la question précédente, les valeurs
propres et vecteurs propres de � ne doivent pas être donnés sans un minimum de justifications.
Dans le cas contraire, cela aurait été précisé dans le sujet !
II.A.5 Si le début est bien réussi dans l’ensemble (car calculatoire), la suite distingue les candidats
ayant bien compris le rôle des matrices � , � et � 2 . Nous notons au passage que trop de candidats
pensent que toute somme de matrices diagonalisables est diagonalisable.
II.B.1 à II.B.4 Partie un peu plus théorique. De nombreuses réponses intéressantes, mais le lien
n’a pas toujours été fait avec la question II.C.
II.C.2 Quelques réponses parfaitement rédigées. Cependant, dans un petit nombre de copies, on
trouve encore une fois les valeurs propres et les vecteurs propres sortis de nulle part, tandis que
le travail préalable indispensable introduit par l’énoncé en II.B n’a pas du tout été compris. Il
est bien évident ici que ces réponses non justifiées n’ont pas de valeur. Encore une illustration de
l’utilisation sans discernement des calculatrices !
Partie III
III.A à III.C Assez bien fait dans une grande proportion des copies.
III.D et III.E Plus ou moins réussies, suivant que le candidat a compris ou non la signification
du produit matriciel.
III.F Peu de réponses correctes. On retrouve souvent le raisonnement fallacieux suivant lequel un
produit de matrices est nul si et seulement si l’une des matrices est nulle !
Partie IV
IV.B.1 à IV.B.4 Beaucoup de réponses intéressantes, avec des différences tenant à la précision
des raisonnements.
IV.B.5 Aucune bonne réponse.
IV.C.1 à IV.C.4 Si le début est le plus souvent traité, un nombre significatif de candidats réussit
aussi convenablement la partie informatique et numérique.
Mathématiques 2
E–18
Concours Centrale-Supélec 2013 filière TSI
Conclusions
Cette année, les candidats à l’épreuve ont eu l’opportunité de montrer assez largement leurs qualités, puisque toute l’étendue du sujet a été utilisée. Il convient cependant de s’interroger sur la
place des calculatrices qui a pu fausser quelques appréciations, mais ceci n’enlève rien au fait qu’on
a pu apprécier davantage que l’année précédente une meilleure compréhension de l’articulation des
questions. Il est vrai que le nombre limité de thèmes du sujet, et le fait que les parties soient assez
largement indépendantes, ont pu jouer sur cet état de fait.
Mathématiques 2
E–19
Téléchargement