Concours Blanc Algèbre (Corrigé 2)

publicité
Corrigé du Concours Blanc (Algèbre) Sujet 2.
Problème (Mines-Ponts PSI 2006).
Partie 1. Matrices positives.
1. Il est clair tout d’abord que si A est symétrique, alors : ∀ M ∈ Mn,p, t(tM.A.M) = tM.tA.t(tM) = tM.A.M.
Puis si A est positive, alors : ∀ X ∈ Mn,1, (tM.A.M.X|X) = t(tM.A.M.X).X = tX.tM.A.M.X = t(M.X).A.(M.X) ≥ 0.
Donc tM.A.M est bien symétrique positive.
2. On a tout d’abord : ∀ B ∈ Sn, ∃ p ∈ , t(Bp) = (tB)p = Bp, et Bp est symétrique, puis :
∃ X ∈ Mn, ∀ p ∈ , (Bp.X|X) = tX.Bp.X.
Si p est pair : p = 2.q, alors : (Bp.X|X) = tX.Bq.Bq.X = t(Bq.X).(Bq.X) = (Bq.X|Bq.X) ≥ 0, et
si p est impaire : p = 2.q+1, alors : (Bp.X|X) = tX.Bq.B.Bq.X = t(Bq.X).B.(Bq.X) = (B.(Bq.X)|(Bq.X)) ≥ 0.
3. Soit donc : A ∈ Sn.
Alors A est diagonalisable par l’intermédiaire d’une matrice orthogonale P et la matrice diagonale D,
semblable à A comporte les valeurs propres de A sur sa diagonale : D = tP.A.P.
On a alors : ∀ X ∈ Mn, (A.X|X) = t(A.X).X = tX.P.D.tP.X = t(tP.X).D.(tP.X) = tY.D.Y, avec :Y = tP.X.
n
Ce qui s’écrit encore (avec : Y = t(y1, …, yn)) : (A.X|X) =
∑ λ .y
i =1
i
2
i
, où les λi sont les valeurs propres de A.
Si maintenant les valeurs propres de A sont positives (respectivement strictement positives), alors :
• ∀ X ∈ Mn, (A.X|X) ≥ 0 (respectivement, si : X ≠ 0, alors : Y = tP.X ≠ 0, et : (A.X|X) > 0).
Réciproquement, si A est positive (respectivement définie positive), alors :
• pour : Xi = P.Ei ≠ 0, (où Ei est la matrice colonne constituée de 0 avec un seul 1 sur la ième ligne), on a :
(A.Xi|Xi) = tEi.D.Ei = λi,
et cette quantité est toujours positive si A est positive, et strictement positive si A est définie positive.
4. Il suffit de reprendre la diagonalisation précédente de A : A = P.D.tP, où les éléments diagonaux λi de D
sont strictement positifs (puisque ce sont les valeurs propres de A).
Notons alors ∆ la matrice diagonale dont les éléments diagonaux sont λ i , dans le même ordre que D.
Alors, en notant : C = P.∆.tP, on constate que :
• tC = P.∆.tP = C, et C est symétrique,
• Sp(C) = { λ i , 1 ≤ i ≤ n}, et C est définie positive,
• C2 = P.∆2.tP = P.D.tP = A.
5. Partons donc de A et C, symétriques définies positives, telles que : C2 = A.
On commence par remarquer que si µ est valeur propre de C, alors : ∃ X ∈ Mn,1, X ≠ 0, C.X = µ.X.
Mais alors : A.X = C2.X = µ2.X, et µ2 est valeur propre de A.
Comme de plus C est définie positive, µ est positif et µ est donc l’un des éléments de { λ , λ ∈ Sp(A)},
autrement dit : Sp(C) ⊂ { λ , λ ∈ Sp(A)}.
Soit maintenant : λ ∈ Sp(A).
Alors : ∀ X ∈ ker(C – λ .In), C.X = λ .X, donc : A.X = C2.X = λ.X, et : X ∈ ker(A – λ.In).
Donc on a bien : ∀ λ ∈ Sp(A), ker(C – λ .In) ⊂ ker(A – λ.In).
On termine avec un argument de dimension, en notant que :
Mn,1 = ⊕ ker(A − λ.I n ) , et : Mn,1 = ⊕ ker(C − µ.I n ) ⊂
λ∈Sp ( A )
µ∈Sp ( C )
⊕ ker(C − λ .I n ) ⊂
λ∈Sp ( A )
⊕ ker(A − λ.I n ) .
λ∈Sp ( A )
Et la dernière égalité montre que toutes les inclusions intermédiaires sont des égalités.
Autrement dit, puisque tous les noyaux où A intervient ne sont pas réduits à 0, c’est le cas également pour
ceux correspondants pour C ce qui montre tout d’abord que : Sp(C) = { λ , λ ∈ Sp(A)}.
Puis : n =
∑ dim(ker(C −
λ∈Sp ( A )
λ .I n )) ≤
∑ dim(ker(A − λ.I
λ∈Sp ( A )
n
)) = n ,
toutes les inégalités sur les dimensions sont des égalités et :
∀ λ ∈ Sp(A), dim(ker(C – λ .In)) = dim(ker(A – λ.In)), ce qui conduit à l’égalité des espaces eux-mêmes.
6. Si P est une matrice qui permet de diagonaliser A (c'est-à-dire telle que tP.A.P est diagonale), alors elle est
formée de vecteurs propres de A donc également de C ce qui montre que tP.C.P est également une
matrice diagonale.
Si on note alors : D = tP.A.P, et : ∆ = tP.C.P, on constate que : ∆2 = D, et ∆ est unique puisque les valeurs
propres de C doivent être strictement positives, égales donc aux racines des valeurs propres de A.
Donc C est unique et vaut alors : C = P.∆.tP.
7. On suppose A définie positive.
Puisque 0 n’est pas valeur propre de A, A est inversible.
De plus A admet une racine carrée A1/2 qui est aussi définie positive donc inversible.
En notant : A-1/2 = (A1/2)-1, on constate que : (A-1/2).(A-1/2) = (A1/2.A1/2)-1 = A-1, et A-1/2 est alors l’unique racine
carrée de A-1, symétrique définie positive.
8. On l’a obtenu au-dessus en prouvant l’existence de A-1/2.
Partie 2. Ordre de Löwner.
1. Une relation d’ordre est réflexive, antisymétrique et transitive.
• Il est clair que ≼ est réflexive puisque : ∀ A ∈ Sn, A – A = 0, est positive.
• Si pour : (A,B) ∈ Sn2, on a : (A – B) et (B – A) positives, alors les valeurs propres de (A – B) et (B – A)
sont positives, mais étant les opposées les unes des autres, elles sont donc toutes nulles.
Mais (A – B) étant aussi diagonalisable (car symétrique réelle), A – B est nulle et : A = B.
• Si pour : (A,B,C) ∈ Sn3, on a : A ≼ B, et : B ≼ C, alors :
∀ X ∈ Mn,1, ((B – A).X|X) ≥ 0, et : ((C – B).X|X) ≥ 0, en additionnant, on aboutit à : ((C – A).X|X) ≥ 0,
ce qui montre que : A ≼ C, et la relation est transitive.
2. Il suffit de partir de : B ∈ Sn, avec : A ≼ B, et de : C ∈ Mn,p, et de constater que (B – A) est positive donc
(tC.B.C – tC.A.C) = tC.(B – A).C, aussi d’après la question I.1, d’où : tC.A.C ≼ tC.B.C.
3. Supposons que A soit telle que : In ≼ A.
Alors la matrice (A – In) est positive donc ses valeurs propres sont positives.
Mais : Sp(A – In) = {λ – 1, λ ∈ Sp(A)}, puisque : ∀ x ∈ , det((A – In) – x.In) = det(A – (1 + x).In).
Donc : ∀ λ ∈ Sp(A), λ – 1 ≥ 0, et : λ ≥ 1 > 0.
La matrice A est donc bien inversible, et comme les valeurs propres de A-1 sont les inverses des valeurs
propres de A, elles sont toutes inférieures ou égales à 1, et les valeurs propres de (In – A-1) sont donc
positives ce qui prouve que : A-1 ≼ In.
4. Puisque A est inversible, on peut utiliser la question I.1 à nouveau avec la matrice symétrique A-1/2 et
constater que : A-1/2.A.A-1/2 = In, et donc que : In ≼ A-1/2.B.A-1/2.
La matrice A-1/2.B.A-1/2 est donc inversible, B aussi (puisque A-1/2 l’est), et : (A-1/2.B.A-1/2)-1 ≼ In.
On développe ensuite et on réutilise la question I.1 avec à nouveau la matrice A-1/2, pour aboutir à :
A1/2.B-1.A1/2 ≼ In, et : A-1/2.A1/2.B-1.A1/2.A-1/2 ≼ A-1/2.In.A-1/2, soit : B-1 ≼ A-1.
5. Etant symétrique, la matrice D est positive si et seulement si ses valeurs propres le sont.
Or elles sont réelles (car D est symétrique réelle), leur produit vaut [a.c – b2] et leur somme (a + c).
Il est alors clair que le système de conditions cherché est : {a.c ≥ b2, et : a + c ≥ 0}.
En effet, c’est équivalent de dire que les deux valeurs propres sont de même signe, et de somme positive,
donc bien positives toutes deux.
6. Si on veut que D soit positive, cela revient à chercher a et b tels que : a ≥ b2, et : a + 1 ≥ 0, autrement dit
uniquement la condition : a ≥ b2.
Si de plus, on veut que (B – D) soit positive, cela équivaut à la même condition.
1
, et : a =
2
5
1

8  , B2 = 
4
5

0
4
On peut donc penser à prendre : b =
1
.
4
5
5
 1
− 


−
0
 , et : B2 – D2 =  16
8.
On constate alors que : D2 =  16

5
5
11

−

4



4 
8
 8
9
Or : det(B2 – D2) = − < 0, et les valeurs propres de la matrice symétrique (B2 – D2) ne peuvent être
8
toutes deux positives, ce qui prouve que l’on n’a pas : D2 ≼ B2.
Partie 3. Fonctions matriciellement croissantes.
1. On constate que : P.∆.P-1.X = λ.X, donc : ∆.(P-1.X) = λ.(P-1.X).
 y1 
 
Si on note : Y = P .X, et : Y =  M  , alors : ∀ 1 ≤ i ≤ n, λi.yi = λ.y, et : yi = 0, si : λi ≠ λ.
y 
 n
-1
Puis : ∀ 1 ≤ i ≤ n,
• f(λi).yi = 0 = f(λ).yi, si : λi ≠ λ (puisque alors : yi = 0),
• f(λi).yi = f(λ).yi, si : λi = λ.
Donc : f(∆).Y = f(λ).Y, soit : f(∆).P-1.X = f(λ).P-1.X, ou encore : P.f(∆).P-1.X = λ.X = R.X.
2. Il est plus simple ici de raisonner en termes de vecteurs propres.
Si on note RP et RQ les matrices définies dans la question précédente, mais cette fois à l’aide de P et de Q,
alors pour toute base {X1, …, Xn} de Mn,1 formée de vecteurs propres de M, on a :
∀ 1 ≤ i ≤ n, RP.Xi = RQ Xi, soit bien : RP = RQ, (en utilisant au besoin les endomorphismes associés).
3. Puisque ϕr est toujours continue de ]0,+∞) dans +, deux conditions sont à remplir pour que : ϕr ∈ E :
• ϕr doit être intégrable sur [1,+∞), ce qui ici conduit à la condition : r + 1 > 0, soit : r > 0.
• s a s.ϕr(s), doit être intégrable sur ]0,1], ce qui revient ici à : r < 1.
Autrement dit : (ϕr ∈ E) ⇔ (r ∈ ]0,1[).
Ensuite, pour t nul, L ϕr ( t ) existe et vaut 0, et pour : t ≠ 0, la fonction sous l’intégrale est équivalente en +∞
à ϕr(s) dont étant positive, elle est intégrable sur [1,+∞), et elle est équivalente à t.s.ϕr(s) en 0, donc est
intégrable sur ]0,1].
Enfin : ∀ t > 0, on peut utiliser le changement de variable (C1-difféomorphisme de +* dans +*) défini par :
u = s.t, et obtenir : L ϕr ( t ) = t r .L ϕr (1) .
4. Soit : s ≥ 0.
On pose, pour tout : t ≥ 0, fs(t) = 1 −
1
.
1 + s.t
Si A est symétrique et positive, alors on peut diagonaliser A en : A = P.D.tP, avec D diagonale et P
1

1 −
 1 + s.λ 1
0

orthogonale, et : f(A) = P. 
M


0



 1



 1 + s.λ 1
O O
M
 t
 0
. P = In – P. 

O O
0
 M
1 
 0
L 0 1−

1 + s.λ n 

0
L
0



O O
M  t
. P.
O O
0 
1 
L 0
1 + s.λ n 
0
L
0
Or la dernière matrice est la matrice (In + s.A)-1.
0 
1 + s.λ 1 0 L


O O
M  t
 0
En effet : In + s.A = P. 
. P, et le produit de cette dernière matrice avec la
M
O O
0 


 0

L
0
1
+
s
.
λ
n 

précédente vaut bien In (tous les termes diagonaux de (In + s.A) sont strictement positifs donc non nuls).
D’où : f(A) = In – (In + s.A)-1.
5. Si : 0 ≼ A ≼ B, alors on a (B – A) positive, puis s.(B – A) également positive.
On en déduit que [(In + s.B) – (In + s.A)] est encore positive, et comme les valeurs propres de (In + s.A)
sont strictement positives (puisque plus grandes que 1), on a donc : 0 ≺ In + s.A ≼ In + s.B.
La question II.3 donne alors : (In + s.B)-1 ≼ (In + s.A)-1, et la matrice (f(B) – f(A)) vérifie :
f(B) – f(A) = (In + s.A)-1 – (In + s.B)-1, et est donc positive.
Finalement : fs(A) ≼ fs(B), et fs est matriciellement croissante sur +.
6. Soit : A ∈ Sn, positive, D diagonale et P orthogonale telle que : A = P.D.tP.
Alors pour toute matrice colonne : X ∈ Mn,1, on peut poser : X = P.Y, et :
(Lϕ(A).X|X) = tX.Lϕ(A).X = tY.tP.Lϕ(A).P.Y = tY.Lϕ(D).Y,
et si on note λi les valeurs propres de A et yi les coordonnées de Y, cela donne :
(Lϕ(A).X|X) =
n

+∞
i =1

0
∑  ∫
+∞ n

s.λ i
s.λ i
.ϕ(s).ds .y i2 = ∫ ∑
.ϕ(s).y i2 .ds , puisque la somme est finie.
0
1 + s.λ i
i =1 1 + s.λ i

n

s.λ i
1  2
2


1
−
.
y
=
∑
 1 + s.λ  i ∑ 1 + s.λ .y i , d’où :
i =1 
i =1
i 
i
n
+∞
+∞
s.λ i
.y i2 .ds , ce qui donne bien l’égalité voulue.
∫0 ϕ(s).(f s (A).X X).ds = ∫0 ϕ(s).∑
1
+
s
.
λ
i =1
i
n
Par ailleurs : (fs(A).X|X) = tY.fs(D).Y =
7. Supposons maintenant que A et B sont deux matrices symétriques telles que : 0 ≼ A ≼ B.
Alors : fs(A) ≼ fs(B), et : ∀ X ∈ Mn,1, ((fs(B) – fs(A)).X|X) ≥ 0.
Puis en utilisant la linéarité de l’intégrale et du produit scalaire, on constate que :
((Lϕ(B) - Lϕ(A)).X|X) =
∫
+∞
0
ϕ(s).((f s (B) − f s (A)).X X).ds .
Or ϕ est positive et l’intégrale est croissante donc :
∫
+∞
0
ϕ(s).((f s (B) − f s (A)).X X).ds ≥ 0 , et finalement :
((Lϕ(B) - Lϕ(A)).X|X) ≥ 0, autrement dit (Lϕ(B) – Lϕ(A)) est positive et : Lϕ(A) ≼ Lϕ(B).
Lϕ est donc bien matriciellement croissante sur +.
8. On utilise alors la question III.3 pour choisir d’abord : r ∈ ]0,1[.
Puis pour ces valeurs de r, ϕr est dans E donc L ϕ r est matriciellement croissante sur +, et donc :
∀ (A,B) ∈ Sn2, (0 ≼ A ≼ B) ⇒ ( L ϕr (A ) ≼ L ϕr (B) ).
Et comme : L ϕr (A ) = L ϕr (1) .Ar, de même pour B, on en déduit : L ϕr (1) .Ar ≼ L ϕr (1) .Br, et L ϕr (1) étant un
réel strictement positif, on conclut à : Ar ≼ Br.
Les réels cherchés sont donc ceux de l’intervalle ]0,1[.
Téléchargement