Corrigé du Concours Blanc (Algèbre) Sujet 2.
Problème (Mines-Ponts PSI 2006).
Partie 1. Matrices positives.
1. Il est clair tout d’abord que si A est symétrique, alors : M M
n,p
,
t
(
t
M.A.M) =
t
M.
t
A.
t
(
t
M) =
t
M.A.M.
Puis si A est positive, alors : X M
n,1
, (
t
M.A.M.X|X) =
t
(
t
M.A.M.X).X =
t
X.
t
M.A.M.X =
t
(M.X).A.(M.X) 0.
Donc
t
M.A.M est bien symétrique positive.
2. On a tout d’abord : B S
n
, p ,
t
(B
p
) = (
t
B)
p
= B
p
, et B
p
est symétrique, puis :
X M
n
, p , (B
p
.X|X) =
t
X.B
p
.X.
Si p est pair : p = 2.q, alors : (B
p
.X|X) =
t
X.B
q
.B
q
.X =
t
(B
q
.X).(B
q
.X) = (B
q
.X|B
q
.X) 0, et
si p est impaire : p = 2.q+1, alors : (B
p
.X|X) =
t
X.B
q
.B.B
q
.X =
t
(B
q
.X).B.(B
q
.X) = (B.(B
q
.X)|(B
q
.X)) 0.
3. Soit donc : A S
n
.
Alors A est diagonalisable par l’intermédiaire d’une matrice orthogonale P et la matrice diagonale D,
semblable à A comporte les valeurs propres de A sur sa diagonale : D =
t
P.A.P.
On a alors : X M
n
, (A.X|X) =
t
(A.X).X =
t
X.P.D.
t
P.X =
t
(
t
P.X).D.(
t
P.X) =
t
Y.D.Y, avec :Y =
t
P.X.
Ce qui s’écrit encore (avec : Y =
t
(y
1
, …, y
n
)) : (A.X|X) =
=λ
n
1i
2
ii y.
, où les λ
i
sont les valeurs propres de A.
Si maintenant les valeurs propres de A sont positives (respectivement strictement positives), alors :
X M
n
, (A.X|X) 0 (respectivement, si : X 0, alors : Y =
t
P.X 0, et : (A.X|X) > 0).
Réciproquement, si A est positive (respectivement définie positive), alors :
pour : X
i
= P.E
i
0, (où E
i
est la matrice colonne constituée de 0 avec un seul 1 sur la i
ème
ligne), on a :
(A.X
i
|X
i
) =
t
E
i
.D.E
i
= λ
i
,
et cette quantité est toujours positive si A est positive, et strictement positive si A est définie positive.
4. Il suffit de reprendre la diagonalisation précédente de A : A = P.D.
t
P, où les éléments diagonaux λ
i
de D
sont strictement positifs (puisque ce sont les valeurs propres de A).
Notons alors la matrice diagonale dont les éléments diagonaux sont i
λ
, dans le même ordre que D.
Alors, en notant : C = P..
t
P, on constate que :
t
C = P..
t
P = C, et C est symétrique,
Sp(C) = { i
λ
, 1 i n}, et C est définie positive,
C
2
= P.
2
.
t
P = P.D.
t
P = A.
5. Partons donc de A et C, symétriques définies positives, telles que : C
2
= A.
On commence par remarquer que si µ est valeur propre de C, alors : X M
n,1
, X 0, C.X = µ.X.
Mais alors : A.X = C
2
.X = µ
2
.X, et µ
2
est valeur propre de A.
Comme de plus C est définie positive, µ est positif et µ est donc l’un des éléments de {
λ
, λ Sp(A)},
autrement dit : Sp(C) {
λ
, λ Sp(A)}.
Soit maintenant : λ Sp(A).
Alors : X ker(C –
λ
.I
n
), C.X =
λ
.X, donc : A.X = C
2
.X = λ.X, et : X ker(Aλ.I
n
).
Donc on a bien : λ Sp(A), ker(C –
λ
.I
n
) ker(A – λ.I
n
).
On termine avec un argument de dimension, en notant que :
M
n,1
=
)I.Aker(
n
)A(Sp
λ
λ
, et : M
n,1
=
)I.Aker()I.Cker()I.Cker(
n
)A(Sp
n
)A(Sp
n
)C(Sp
λλµ
λλµ
.
Et la dernière égalité montre que toutes les inclusions intermédiaires sont des égalités.
Autrement dit, puisque tous les noyaux où A intervient ne sont pas réduits à 0, c’est le cas également pour
ceux correspondants pour C ce qui montre tout d’abord que : Sp(C) = {
λ
, λ Sp(A)}.
Puis :
n))I.Adim(ker())I.Cdim(ker(n
)A(Sp n
)A(Sp n
=λλ=
λλ
,
toutes les inégalités sur les dimensions sont des égalités et :
λ Sp(A), dim(ker(C –
λ
.I
n
)) = dim(ker(A – λ.I
n
)), ce qui conduit à l’égalité des espaces eux-mêmes.
6. Si P est une matrice qui permet de diagonaliser A (c'est-à-dire telle que
t
P.A.P est diagonale), alors elle est
formée de vecteurs propres de A donc également de C ce qui montre que
t
P.C.P est également une
matrice diagonale.
Si on note alors : D =
t
P.A.P, et : =
t
P.C.P, on constate que :
2
= D, et est unique puisque les valeurs
propres de C doivent être strictement positives, égales donc aux racines des valeurs propres de A.
Donc C est unique et vaut alors : C = P..
t
P.
7. On suppose A définie positive.
Puisque 0 n’est pas valeur propre de A, A est inversible.
De plus A admet une racine carrée A
1/2
qui est aussi définie positive donc inversible.
En notant : A
-1/2
= (A
1/2
)
-1
, on constate que : (A
-1/2
).(A
-1/2
) = (A
1/2
.A
1/2
)
-1
= A
-1
, et A
-1/2
est alors l’unique racine
carrée de A
-1
, symétrique définie positive.
8. On l’a obtenu au-dessus en prouvant l’existence de A
-1/2
.
Partie 2. Ordre de Löwner.
1. Une relation d’ordre est réflexive, antisymétrique et transitive.
Il est clair que est réflexive puisque : A S
n
, A – A = 0, est positive.
Si pour : (A,B) S
n2
, on a : (A – B) et (B – A) positives, alors les valeurs propres de (A – B) et (B – A)
sont positives, mais étant les opposées les unes des autres, elles sont donc toutes nulles.
Mais (A – B) étant aussi diagonalisable (car symétrique réelle), A – B est nulle et : A = B.
Si pour : (A,B,C) S
n3
, on a : A B, et : B C, alors :
X M
n,1
, ((B – A).X|X) 0, et : ((C – B).X|X) 0, en additionnant, on aboutit à : ((C – A).X|X) 0,
ce qui montre que : A C, et la relation est transitive.
2. Il suffit de partir de : B S
n
, avec : A B, et de : C M
n,p
, et de constater que (B – A) est positive donc
(
t
C.B.C –
t
C.A.C) =
t
C.(B – A).C, aussi d’après la question I.1, d’où :
t
C.A.C
t
C.B.C.
3. Supposons que A soit telle que : I
n
A.
Alors la matrice (A – I
n
) est positive donc ses valeurs propres sont positives.
Mais : Sp(A – I
n
) = {λ – 1, λ Sp(A)}, puisque : x , det((A – I
n
) – x.I
n
) = det(A – (1 + x).I
n
).
Donc : λ Sp(A), λ1 0, et : λ 1 > 0.
La matrice A est donc bien inversible, et comme les valeurs propres de A
-1
sont les inverses des valeurs
propres de A, elles sont toutes inférieures ou égales à 1, et les valeurs propres de (I
n
– A
-1
) sont donc
positives ce qui prouve que : A
-1
I
n
.
4. Puisque A est inversible, on peut utiliser la question I.1 à nouveau avec la matrice symétrique A
-1/2
et
constater que : A
-1/2
.A.A
-1/2
= I
n
, et donc que : I
n
A
-1/2
.B.A
-1/2
.
La matrice A
-1/2
.B.A
-1/2
est donc inversible, B aussi (puisque A
-1/2
l’est), et : (A
-1/2
.B.A
-1/2
)
-1
I
n
.
On développe ensuite et on réutilise la question I.1 avec à nouveau la matrice A
-1/2
, pour aboutir à :
A
1/2
.B
-1
.A
1/2
I
n
, et : A
-1/2
.A
1/2
.B
-1
.A
1/2
.A
-1/2
A
-1/2
.I
n
.A
-1/2
, soit : B
-1
A
-1
.
5. Etant symétrique, la matrice D est positive si et seulement si ses valeurs propres le sont.
Or elles sont réelles (car D est symétrique réelle), leur produit vaut [a.c – b
2
] et leur somme (a + c).
Il est alors clair que le système de conditions cherché est : {a.c b
2
, et : a + c 0}.
En effet, c’est équivalent de dire que les deux valeurs propres sont de même signe, et de somme positive,
donc bien positives toutes deux.
6. Si on veut que D soit positive, cela revient à chercher a et b tels que : a b
2
, et : a + 1 0, autrement dit
uniquement la condition : a b
2
.
Si de plus, on veut que (B – D) soit positive, cela équivaut à la même condition.
On peut donc penser à prendre : b =
2
1
, et : a =
4
1
.
On constate alors que : D
2
=
4
5
8
58
5
16
5
, B
2
=
40
0
4
1
, et : B
2
– D
2
=
4
11
8
58
5
16
1
.
Or : det(B
2
– D
2
) =
8
9
< 0, et les valeurs propres de la matrice symétrique (B
2
– D
2
) ne peuvent être
toutes deux positives, ce qui prouve que l’on n’a pas : D
2
B
2
.
Partie 3. Fonctions matriciellement croissantes.
1. On constate que : P..P
-1
.X = λ.X, donc : .(P
-1
.X) = λ.(P
-1
.X).
Si on note : Y = P
-1
.X, et : Y =
n
1
y
y
M
, alors : 1 i n, λ
i
.y
i
= λ.y, et : y
i
= 0, si : λ
i
λ.
Puis : 1 i n,
f(λ
i
).y
i
= 0 = f(λ).y
i
, si : λ
i
λ (puisque alors : y
i
= 0),
f(λ
i
).y
i
= f(λ).y
i
, si : λ
i
= λ.
Donc : f().Y = f(λ).Y, soit : f().P
-1
.X = f(λ).P
-1
.X, ou encore : P.f().P
-1
.X = λ.X = R.X.
2. Il est plus simple ici de raisonner en termes de vecteurs propres.
Si on note R
P
et R
Q
les matrices définies dans la question précédente, mais cette fois à l’aide de P et de Q,
alors pour toute base {X
1
, …, X
n
} de M
n,1
formée de vecteurs propres de M, on a :
1 i n, R
P
.X
i
= R
Q
X
i
, soit bien : R
P
= R
Q
, (en utilisant au besoin les endomorphismes associés).
3. Puisque ϕ
r
est toujours continue de ]0,+) dans
+
, deux conditions sont à remplir pour que : ϕ
r
E :
ϕ
r
doit être intégrable sur [1,+), ce qui ici conduit à la condition : r + 1 > 0, soit : r > 0.
s a s.ϕ
r
(s), doit être intégrable sur ]0,1], ce qui revient ici à : r < 1.
Autrement dit : (ϕ
r
E) (r ]0,1[).
Ensuite, pour t nul,
)t(L
r
ϕ
existe et vaut 0, et pour : t 0, la fonction sous l’intégrale est équivalente en +
à ϕ
r
(s) dont étant positive, elle est intégrable sur [1,+), et elle est équivalente à t.s.ϕ
r
(s) en 0, donc est
intégrable sur ]0,1].
Enfin : t > 0, on peut utiliser le changement de variable (C
1
-difféomorphisme de
+
* dans
+
*) défini par :
u = s.t, et obtenir :
)t(L
r
ϕ
=
)1(L.t
r
rϕ.
4. Soit : s 0.
On pose, pour tout : t 0, f
s
(t) =
t
.
s
1
1
1
+
.
Si A est symétrique et positive, alors on peut diagonaliser A en : A = P.D.
t
P, avec D diagonale et P
orthogonale, et : f(A) = P.
λ+
λ+
n
1
.s1 1
100
0
0
00
.s1 1
1
L
OOM
MOO
L
.
t
P = I
n
– P.
λ+
λ+
n
1
.s1 1
00
0
0
00
.s1 1
L
OOM
MOO
L
.
t
P.
Or la dernière matrice est la matrice (I
n
+ s.A)
-1
.
En effet : I
n
+ s.A = P.
λ+
λ+
n
1
.s100
0
0
00.s1
L
OOM
MOO
L
.
t
P, et le produit de cette dernière matrice avec la
précédente vaut bien I
n
(tous les termes diagonaux de (I
n
+ s.A) sont strictement positifs donc non nuls).
D’où : f(A) = I
n
– (I
n
+ s.A)
-1
.
5. Si : 0 A B, alors on a (B – A) positive, puis s.(B – A) également positive.
On en déduit que [(I
n
+ s.B) – (I
n
+ s.A)] est encore positive, et comme les valeurs propres de (I
n
+ s.A)
sont strictement positives (puisque plus grandes que 1), on a donc : 0 I
n
+ s.A I
n
+ s.B.
La question II.3 donne alors : (I
n
+ s.B)
-1
(I
n
+ s.A)
-1
, et la matrice (f(B) – f(A)) vérifie :
f(B) – f(A) = (I
n
+ s.A)
-1
– (I
n
+ s.B)
-1
, et est donc positive.
Finalement : f
s
(A) f
s
(B), et f
s
est matriciellement croissante sur
+
.
6. Soit : A S
n
, positive, D diagonale et P orthogonale telle que : A = P.D.
t
P.
Alors pour toute matrice colonne : X M
n,1
, on peut poser : X = P.Y, et :
(L
ϕ
(A).X|X) =
t
X.L
ϕ
(A).X =
t
Y.
t
P.L
ϕ
(A).P.Y =
t
Y.L
ϕ
(D).Y,
et si on note λ
i
les valeurs propres de A et y
i
les coordonnées de Y, cela donne :
(L
ϕ
(A).X|X) =
+
==
+
ϕ
λ+λ
=
ϕ
λ+λ
0
n
1i
2
i
i
i
n
1i
2
i
0i
i
ds.y).s(.
.s1 .s
y.ds).s(.
.s1 .s
, puisque la somme est finie.
Par ailleurs : (f
s
(A).X|X) =
t
Y.f
s
(D).Y =
==
λ+λ
=
λ+
n
1i
2
i
i
i
n
1i
2
i
i
y.
.s1 .s
y.
.s1 1
1
, d’où :
+
=
+
λ+λ
ϕ=ϕ
0
n
1i
2
i
i
i
0s
ds.y.
.s1 .s
).s(ds).XX).A(f).(s(
, ce qui donne bien l’égalité voulue.
7. Supposons maintenant que A et B sont deux matrices symétriques telles que : 0 A B.
Alors : f
s
(A) f
s
(B), et : X M
n,1
, ((f
s
(B) – f
s
(A)).X|X) 0.
Puis en utilisant la linéarité de l’intégrale et du produit scalaire, on constate que :
((L
ϕ
(B) - L
ϕ
(A)).X|X) =
+∞
ϕ
0ss
ds).XX)).A(f)B(f).((s(
.
Or ϕ est positive et l’intégrale est croissante donc :
0ds).XX)).A(f)B(f).((s(
0ss
ϕ
+∞ , et finalement :
((L
ϕ
(B) - L
ϕ
(A)).X|X) 0, autrement dit (L
ϕ
(B) – L
ϕ
(A)) est positive et : L
ϕ
(A) L
ϕ
(B).
L
ϕ
est donc bien matriciellement croissante sur
+
.
8. On utilise alors la question III.3 pour choisir d’abord : r ]0,1[.
Puis pour ces valeurs de r, ϕ
r
est dans E donc
r
L
ϕest matriciellement croissante sur
+
, et donc :
(A,B) S
n2
, (0 A B) (
)A(L
r
ϕ
)B(L
r
ϕ).
Et comme :
)A(L
r
ϕ=
)1(L
r
ϕ.A
r
, de même pour B, on en déduit :
)1(L
r
ϕ.A
r
)1(L
r
ϕ.B
r
, et
)1(L
r
ϕ étant un
réel strictement positif, on conclut à : A
r
B
r
.
Les réels cherchés sont donc ceux de l’intervalle ]0,1[.
1 / 4 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !