corrigé

publicité
GCP 2001
COMPOSITION de MATHEMATIQUE II
(Série MP)
v
GCP 2001
Math II MP
Partie I
1) En développant par rapport à la première ligne on trouve det CP = (¡1 n a0 , d’où le résultat.
2) Le plus rapide est de développer par rapport à la dernière colonne, on trouve alors
¯
¯
¯
¯ ¡X
0
:::
0 ¯¯
¯ ¡X
0
:::
¯
¯
¯
¯
..
¯
..
¯ 1
¯
.
¡X
¯ 1
.
¡X
¯
¯
¯
¯
¯
.
.
..
..
ÂC P (X) = (¡an¡ 1 ¡ X) ¯ 0
¯ + an¡2 ¯¯ ..
¯
¯
¯ .
¯ .
¯
¯ 0
¯ ..
¯
: ::
1
¡X
¯
¯
¯
¯ 0
¯ 0
¯
:
:
:
0
:::
1 ¡X
¯
0¯¯
¯
¯
¯
¯ ¡:::
¯
¯
0¯¯
1¯
et on reconnaît (¡1)n (X n + an¡1 X n¡1 + : : : + a0 ) = (¡1)n P (X).
remarque : si on développe par rapport à la première ligne on a en notant Ã(a0 ; ¢ ¢ ¢ an ) le déterminant Ã(a0 ¢ ¢ ¢ an ) =
(¡1)n a0 ¡ XÃ(a1 ¢ ¢ ¢ an ) et le résultat par récurrence.
n
Donck = (¡1) .
3) Il faut et il su¢t que le terme dominant de Q soit (¡1)n X n :
² Si A existe on sait par le cours que le terme dominant du polynôme caractéristique est (¡1)n X n
² Réciproquement si le coe¢cient est (¡1) n X n le calcul précédent donne une matrice compagnon qui admet Q comme
polynôme caractéristique en partant de P = (¡1 n Q
a) Les valeurs propres sont les racines de  qui se calcule par un déterminant; or le déterminant est invariant par transposition:
det(tC p ¡ In ) =0det (C p ¡ ¸In )
1
0 1
0
1
0 :::
0
x1
B 0
C
0
1 :::
0 C
B
Bx2 C
B .
B C
.. C
..
..
b) on a t C P = B ..
; si X = B . C il vient le système
.
.
. C
B
C
@ ..A
@ 0
:::
0
1 A
xn
¡a0 ¡a1 : : :
¡an¡1
8
>
> x2
>
>
>
>
< x3
..
.
>
>
>
>
xn
>
>
:
¡a0 x 1
= ¸x1
= ¸x2
= ¸xn¡1
¡: : : ¡ an¡1 x n = ¸x n
(
8i 2 [1: : :n] , xi = ¸ i¡1 x 1
()
(¡a0 ¡ a1 ¸ ¡ : : : ¡ an¡ 1 ¸n¡1 )x 1 = ¸n x1
Donc 0
x1 ne peut
être nul (un vecteur propre n’est pas nul), ¸ est racine de P et tout vecteur propre est multiple de
1
1
B ¸ C
B
C
X¸ = B . . C
@ . A
¸ n¡1
1
c) On vient de constater que les espaces propres sont tous limités à des droites; la matrice t CP est donc diagonalisable si
et seulement si il y a assez de telles droites pour engendrer l’espace entier, c’est à dire si P a n racines distinctes (et donc
simples).
La réciproque est du cours (puisque P = §Ât C P ).
C p est diagonalisable si et seulement si P est scindé à racines simples
t
d)
0 Si P est scindé1à racines simples, comme on vient de le voir une matrice de passage qui diagonalise C P est V =
1
: ::
1
B ¸1
:
:
:
¸
n C
B
C
B ..
C , qui est inversible puisque matrice de passage ! Bien sûr son déterminant est connu.
@ .
A
n¡1
¸n¡1
:
:
:
¸
1
n
5a) Méthode hors programme en PC .
b) Analyse : si f est nilpotente d’ordre n son polynôme caractéristique est (¡1) n X n . Donc P = X n : Ce qui donne l’allure
de la matrice à chercher. Construire la base demandée est alors un grand classique sur les matrices nilpotentes:
On commence par utiliser l’hypothèse: on prend un vecteur e1 tel que f n¡1 (e 1) soit non nul, on alors f n (e1 ) = 0 et on
prend les vecteurs f (e1 ) = e2 ; : : :; f k (e1 ) = ek+1 .
La P
famille ainsi construite (e1 ; : : : ; en ) est une base:En e¤et elle est libre (et son cardinal
Pn est n)i par l’absurde:
n
Si
¸
e
=
0
et
s’il
existe
un
i
tel
que
¸
=
6
0
on
prend
p
le
plus
petit
.
Ainsi
i
i=1 i i
i=p ¸i f (e 1 ) = 0 avec ¸p 6= 0 . En
n¡p¡1
n¡1
composant l’égalité par f
il reste ¸ p f
(e1 ) = 0: Absurde.
Dans cette base, on a bien
0
1
0 0 ::: 0 0
B
.. .. C
B1 0
. .C
B
C
B
. .C
Mat(f ) = B 0 1 . . . .. .. C
B
C
B.
C
@ ..
A
0 :::
1 0
Partie II
6) Par hypothèse, on a pour tout i = 1: : :n
n
X
ai;j x j = ¸x i
n
X
jai;j j:jxj j · ri kXk 1
j=1
Par l’inégalité triangulaire,
j¸xi j ·
j=1
7) Soit i un indice tel que jxi j = kXk1 (il existe car la famille (xi ) est …nie), dans les conditions de la question précédente.
On a alors j¸j · ri, c’est à dire ¸ 2 Di .
Ceci est vrai pour n’importe quelle valeur propre, qui appartiendra donc à l’un des disques Di. Au total,
Sp(A) ½
n
S
Dk
k=1
(qui d’ailleurs n’est autre que le disque Dmax(ri) ).
8) On va se servir de la première partie ! En e¤et, les racines de P sont les valeurs propres de sa matrice compagne CP . Or
r1 = ja0 j
r2 = 1 + ja1 j
:::
rn = 1 + jan j
comme on le lit sur
S la matrice C P . En appliquant la question précédente, on en déduit que toutes les racines de P sont dans
le disque DR = nk=1 Dk où R = max rk .
9) A l’ordre près des exposants on peut supposer que a soit le plus grand des quatre entiers a; b; c; d . Posons
P (X) = X a + X b ¡ X c ¡ X d
La matrice C P ne contient que des 0; §1 et on a avec les notations de la question précédente R = 2.
Les seules racines entières possibles sont donc 0; 1; 2.
2
Reste à exclure le dernier cas: or si 2 est racine, on a (avec par exemple c > d , sinon c et d jouant des rôles symétriques ...)
2b (1 + 2a¡b ) = 2d (1 + 2c¡d )
Donc si b > d on a 2 b¡d (1 + 2 a¡ b ) = (1 + 2 c¡ d ) .Un nombre pair est égal à un nombre impair : absurde.
de même si d > b .
Donc les seules racines dans N de na + nb = nc + nd sont 0 et 1:
Partie III
remarque : On généralise dans cette partie l’étude des suites linéaires récurrentes d’ordre 2 dans le cas où les racines sont
simples. Les questions 10 , 11 , 12 sont les mêmes que la démonstration pour les suites d’ordre 2 . Seule la …n change pour
véri…er qu’on a un base de solutions avec des suites géométriques.
10) Remplaçons u(n) par ¸ n : on a bien ¸n+p + a p¡1 ¸ n+p¡1 + : : : + a0 ¸ n = 0 dès que P (¸) = 0.
11)
² Tout d’abord, ' est linéaire (ses composantes sont des formes linéaires).
² ' est injective car si '(u) = (0) on a u(0) = u(1) = ¢ ¢ ¢ = u(p ¡ 1) = 0 et par une récurrence immédiate 8n 2 N , u(n) = 0
. Donc u est la suite nulle.
² ' est surjective car la donnée de u(0); u(1); ¢ ¢ ¢ u(p ¡ 1) , donne les conditions initiales qui dé…nissent la suite u .
p
² Donc F , isomorphe à C , est de dimension p.
12a) ei (p) = ¡ap¡ 1 ei(p ¡ 1) ¡ : : : ¡ a0 ei (0) = ¡ai.
b) Les ei sont l’image de la base canonique de C p par l’isomorphisme ' ¡1 .
remarque : ou bien véri…er aussi libre et bon cardinal.
p¡1
P
c) La suite u et la suite
u(i)ei sont deux éléments de F qui commencent par les p mêmes termes, à savoir '(u) =
i=0
(u(0); u(1); : : :; u(p ¡ 1)).
Elles sont donc identiques: (récurrence évidente)
13) f (¸u + ¹v) est par dé…nition la suite de terme général
(¸u + ¹v)(n + 1) = ¸u(n + 1) + ¹v(n + 1)
C’est donc ¸f (u) + ¹f (v) ce qui prouve la linéarité de f : ainsi f 2 L(E).
En…n, la relation de récurrence qui dé…nit F devant être vraie pour tout n sera vraie pour tout n + 1 ce qui signi…e que
f (F ) ½ F , F est stable par F .
14) Cela résulte de 12a): en e¤et, e i(p) = ¡ai et donc comme
ei = (0; 0; 0; : : :; 0;
f (ei) = (0; 0; 0; : : :; 0;
1 ; 0; : : :; ¡ai ; : : :)
rg i
rg p
1
; 0; : : :;
¡ai ; : : :) = ei¡1 ¡ aiep¡1
rg i ¡ 1
rg p ¡ 1
En écrivant ceci en colonnes pour i = 0: : :p ¡ 1, on obtient la matrice de f dans la base (ei) et on reconnaît t CP .
0
1
:::
B ¸0
:::
B
15a) D’après 4c), t CP est diagonalisable et une base de vecteurs propres est donnée par les colonnes de V = B . .
@ .
p¡1
où les ¸ i sont les racines de P .
b) Tout élément de F s’écrit dans cette base qui est constituée de suites géométriques (cf 10)
¸1
:::
1
¸ p¡ 1C
C
C
A
p¡ 1
¸ p¡ 1
1
8n 2 N; u(n) = k0 ¸ n0 + : : : + kp¡1 ¸ p¡
p¡ 1
16) Les racines de P (X) = X 3 ¡ (a + b + c)X 2 + (ab + bc + ca)X ¡ abc sont a; b et c.
Ces réels étant supposés distincts, tout est …ni: une base de l’espace F est constituée par les trois suites géométriques
(an ); (bn ); (cn ) et tout élément de F s’écrit
u n = ®a n + ¯b n + °cn
où ®; ¯; ° sont fonction des valeurs initiales u 0 ; u1 ; u 2 .
3
1
Partie IV
Notons que par la première partie, Â A = ÂC A = (¡1)n P .
17 D’après l’étude du I une matrice compagnon est diagonalisable si et seulement si toutes ses valeurs propres sont deux
à deux distinctes. Il su¢t de prendre pour A n’importe quelle matrice diagonalisable ayant au moins une valeur propre
multiple. A = In ou A = 0 sont par exemple solution.
remarque : on peut aussi constater que toute matrice compagnon est de rang supérieur à n-1 . Toute matrice de rang inférieur
à n-2 convient aussi comme contre exemple.
18) Supposons (¤¤), c’est à dire que (U; C U ) et (V; CV ) sont simultanément semblables: comme le rang est invariant par
changement de base, on a donc U ¡ V = P ¡1 (CU ¡ C V ) P soit :
0
1
0 ::: ²
B
.. C
rg(U ¡ V ) = rg(CU ¡ CV ) = rg @ ...
.A
0
:::
²
Cette matrice ne peut être nulle: on aurait rg(U ¡ V ) = 0 et donc U = V ce qui est exclu. Donc elle est de rang 1, ce qui
prouve (¤).
(¤¤) ) (¤)
19) Il su¢t de reprendre un exemple inversible de la question 17 pour U (on est sur que P n’existera pas si U et C U ne sont
pas semblables)
µ puis¶d’a jouter
µ à U¶n’importe quelle matrice de rang 1 . Par exemple
1 0
1 1
Prenons U =
;V =
.
0 1
0 1
20) Par le théorème du rang, H est un hyperplan.
21a) Par l’absurde : si F ½ H on a uF = vF et donc Âu F =  vF . Mais ÂuF j u et Âv F j v , Toute racine de Âu F dans C est
¢
± ¡
racine commune à Âu et Âv (et il existe une telle racine car d  uF = dim F ) > 0 .
Donc F 6½ H.
b) Soit x 2 F n H: alors H et x engendrent E puisque H est un hyperplan et x 2
= H . Cela signi…e que F + H = E .
On utilise deux fois le théorème de la base incomplète en partant d’une base de F \ H que l’on complète dans F , puis dans
H.Il existe une base (f i) [ (gj ) [ (h k ) , (f i) base de F \ H; (fi) [ (gj ) base de F , (h k ) 2 H
Si on prend la matrice de u (et v )dans cette base elle est triangulaire par bloc car F est stable par u .
On a par blocs
µ
¶
µ
¶
U1 ?
V1 ?
Mat(u) =
Mat(v) =
0 U2
0 V2
où les sous-matrices U2 et V 2 coïncident, puisque u(x) = v(x) pour x 2 H (en fait, même les sous-matrices au dessus de
celles-ci sont égales aussi).
En calculant par blocs les polynômes caractéristiques on a  u =  u1 :Âu2 et  v = Âv1  v2 . Toute racine de Âu 1 =  v1 est
racine commune de  u et Âv . Absurde.
c) Les seuls sous-espaces stables à la fois par u et v sont E entier et f0g .
22a) u j est, comme u, un automorphisme, qui conserve la dimension: donc Gj = u¡j (H) est, comme H, un hyperplan.
b) On a dim G0 = dim H = n ¡ 1; dim G0 \ G 1 ¸ n ¡ 2; : : : dim G0 \ : : : \ G n¡ 2 ¸ 1 en vertu du
car si H1 est un hyperplan et F un sev, on a dim(F \ H1 ) ¸ dim F ¡ 1. car F \ H 1 = F ou est un hyperplan de F .
c) Un tel y existe d’après la question précédente.
La famille fy; u(y); : : :; u q (y)g ne peut être libre pour toute valeur de p ( elle est lie dès que q > n), soit donc p maximal tel
que la famille F =fy; u(y); : : :; u p¡ 1 (y)g soit libre et F = Vect (F )
Nous voulons montrer que F = E c’est à dire que p = n.
² On a up (y) 2 F par dé…nition de p . Et par récurrence q ¸ p , uq (y) 2 F
² D’abord notons que e0 ; e1 ; : : :; en¡2 2 H par dé…nition même de y.
Supposons par l’absurde p < n, on a donc F ½ H.
² F est stable par u car l’image par u de la base F est encore dans F : up (y) 2 F
² pour tout x 2 F on a v(x) = u(x) 2 F puisque F ½ H et v F = u F . Donc F est stable par v lui aussi.
² Nous sommes arrivés à une impossibilité d’après 21c).
Donc F = E; p = n et
B 00 = F est une base de E
4
¡
¢
d)On a u (ei) = u u i(y) = u i+1 (y) = ei+1 pour mi· n¡1: La matrice de u dans la base B " est donc une matrice compagnon.
Soit P le polynôme tel que Mat B" (u) = C P . On a P = (¡1)n ÂC p = (¡1)n ÂU . Donc CP = CU
e) Récapitulons: on a montré que le changement de base vers F change U (resp. V ) en C U (resp. C V ). Nous avons donc
montré (¤¤).
Si les polynômes carctéristiques n’ont pas de racine commune (¤) ) (¤¤)
5
Téléchargement