Corrigé du Concours Blanc (Algèbre) Sujet 2. Problème (Mines-Ponts PSI 2006). Partie 1. Matrices positives. 1. Il est clair tout d’abord que si A est symétrique, alors : ∀ M ∈ Mn,p, t(tM.A.M) = tM.tA.t(tM) = tM.A.M. Puis si A est positive, alors : ∀ X ∈ Mn,1, (tM.A.M.X|X) = t(tM.A.M.X).X = tX.tM.A.M.X = t(M.X).A.(M.X) ≥ 0. Donc tM.A.M est bien symétrique positive. 2. On a tout d’abord : ∀ B ∈ Sn, ∃ p ∈ , t(Bp) = (tB)p = Bp, et Bp est symétrique, puis : ∃ X ∈ Mn, ∀ p ∈ , (Bp.X|X) = tX.Bp.X. Si p est pair : p = 2.q, alors : (Bp.X|X) = tX.Bq.Bq.X = t(Bq.X).(Bq.X) = (Bq.X|Bq.X) ≥ 0, et si p est impaire : p = 2.q+1, alors : (Bp.X|X) = tX.Bq.B.Bq.X = t(Bq.X).B.(Bq.X) = (B.(Bq.X)|(Bq.X)) ≥ 0. 3. Soit donc : A ∈ Sn. Alors A est diagonalisable par l’intermédiaire d’une matrice orthogonale P et la matrice diagonale D, semblable à A comporte les valeurs propres de A sur sa diagonale : D = tP.A.P. On a alors : ∀ X ∈ Mn, (A.X|X) = t(A.X).X = tX.P.D.tP.X = t(tP.X).D.(tP.X) = tY.D.Y, avec :Y = tP.X. n Ce qui s’écrit encore (avec : Y = t(y1, …, yn)) : (A.X|X) = ∑ λ .y i =1 i 2 i , où les λi sont les valeurs propres de A. Si maintenant les valeurs propres de A sont positives (respectivement strictement positives), alors : • ∀ X ∈ Mn, (A.X|X) ≥ 0 (respectivement, si : X ≠ 0, alors : Y = tP.X ≠ 0, et : (A.X|X) > 0). Réciproquement, si A est positive (respectivement définie positive), alors : • pour : Xi = P.Ei ≠ 0, (où Ei est la matrice colonne constituée de 0 avec un seul 1 sur la ième ligne), on a : (A.Xi|Xi) = tEi.D.Ei = λi, et cette quantité est toujours positive si A est positive, et strictement positive si A est définie positive. 4. Il suffit de reprendre la diagonalisation précédente de A : A = P.D.tP, où les éléments diagonaux λi de D sont strictement positifs (puisque ce sont les valeurs propres de A). Notons alors ∆ la matrice diagonale dont les éléments diagonaux sont λ i , dans le même ordre que D. Alors, en notant : C = P.∆.tP, on constate que : • tC = P.∆.tP = C, et C est symétrique, • Sp(C) = { λ i , 1 ≤ i ≤ n}, et C est définie positive, • C2 = P.∆2.tP = P.D.tP = A. 5. Partons donc de A et C, symétriques définies positives, telles que : C2 = A. On commence par remarquer que si µ est valeur propre de C, alors : ∃ X ∈ Mn,1, X ≠ 0, C.X = µ.X. Mais alors : A.X = C2.X = µ2.X, et µ2 est valeur propre de A. Comme de plus C est définie positive, µ est positif et µ est donc l’un des éléments de { λ , λ ∈ Sp(A)}, autrement dit : Sp(C) ⊂ { λ , λ ∈ Sp(A)}. Soit maintenant : λ ∈ Sp(A). Alors : ∀ X ∈ ker(C – λ .In), C.X = λ .X, donc : A.X = C2.X = λ.X, et : X ∈ ker(A – λ.In). Donc on a bien : ∀ λ ∈ Sp(A), ker(C – λ .In) ⊂ ker(A – λ.In). On termine avec un argument de dimension, en notant que : Mn,1 = ⊕ ker(A − λ.I n ) , et : Mn,1 = ⊕ ker(C − µ.I n ) ⊂ λ∈Sp ( A ) µ∈Sp ( C ) ⊕ ker(C − λ .I n ) ⊂ λ∈Sp ( A ) ⊕ ker(A − λ.I n ) . λ∈Sp ( A ) Et la dernière égalité montre que toutes les inclusions intermédiaires sont des égalités. Autrement dit, puisque tous les noyaux où A intervient ne sont pas réduits à 0, c’est le cas également pour ceux correspondants pour C ce qui montre tout d’abord que : Sp(C) = { λ , λ ∈ Sp(A)}. Puis : n = ∑ dim(ker(C − λ∈Sp ( A ) λ .I n )) ≤ ∑ dim(ker(A − λ.I λ∈Sp ( A ) n )) = n , toutes les inégalités sur les dimensions sont des égalités et : ∀ λ ∈ Sp(A), dim(ker(C – λ .In)) = dim(ker(A – λ.In)), ce qui conduit à l’égalité des espaces eux-mêmes. 6. Si P est une matrice qui permet de diagonaliser A (c'est-à-dire telle que tP.A.P est diagonale), alors elle est formée de vecteurs propres de A donc également de C ce qui montre que tP.C.P est également une matrice diagonale. Si on note alors : D = tP.A.P, et : ∆ = tP.C.P, on constate que : ∆2 = D, et ∆ est unique puisque les valeurs propres de C doivent être strictement positives, égales donc aux racines des valeurs propres de A. Donc C est unique et vaut alors : C = P.∆.tP. 7. On suppose A définie positive. Puisque 0 n’est pas valeur propre de A, A est inversible. De plus A admet une racine carrée A1/2 qui est aussi définie positive donc inversible. En notant : A-1/2 = (A1/2)-1, on constate que : (A-1/2).(A-1/2) = (A1/2.A1/2)-1 = A-1, et A-1/2 est alors l’unique racine carrée de A-1, symétrique définie positive. 8. On l’a obtenu au-dessus en prouvant l’existence de A-1/2. Partie 2. Ordre de Löwner. 1. Une relation d’ordre est réflexive, antisymétrique et transitive. • Il est clair que ≼ est réflexive puisque : ∀ A ∈ Sn, A – A = 0, est positive. • Si pour : (A,B) ∈ Sn2, on a : (A – B) et (B – A) positives, alors les valeurs propres de (A – B) et (B – A) sont positives, mais étant les opposées les unes des autres, elles sont donc toutes nulles. Mais (A – B) étant aussi diagonalisable (car symétrique réelle), A – B est nulle et : A = B. • Si pour : (A,B,C) ∈ Sn3, on a : A ≼ B, et : B ≼ C, alors : ∀ X ∈ Mn,1, ((B – A).X|X) ≥ 0, et : ((C – B).X|X) ≥ 0, en additionnant, on aboutit à : ((C – A).X|X) ≥ 0, ce qui montre que : A ≼ C, et la relation est transitive. 2. Il suffit de partir de : B ∈ Sn, avec : A ≼ B, et de : C ∈ Mn,p, et de constater que (B – A) est positive donc (tC.B.C – tC.A.C) = tC.(B – A).C, aussi d’après la question I.1, d’où : tC.A.C ≼ tC.B.C. 3. Supposons que A soit telle que : In ≼ A. Alors la matrice (A – In) est positive donc ses valeurs propres sont positives. Mais : Sp(A – In) = {λ – 1, λ ∈ Sp(A)}, puisque : ∀ x ∈ , det((A – In) – x.In) = det(A – (1 + x).In). Donc : ∀ λ ∈ Sp(A), λ – 1 ≥ 0, et : λ ≥ 1 > 0. La matrice A est donc bien inversible, et comme les valeurs propres de A-1 sont les inverses des valeurs propres de A, elles sont toutes inférieures ou égales à 1, et les valeurs propres de (In – A-1) sont donc positives ce qui prouve que : A-1 ≼ In. 4. Puisque A est inversible, on peut utiliser la question I.1 à nouveau avec la matrice symétrique A-1/2 et constater que : A-1/2.A.A-1/2 = In, et donc que : In ≼ A-1/2.B.A-1/2. La matrice A-1/2.B.A-1/2 est donc inversible, B aussi (puisque A-1/2 l’est), et : (A-1/2.B.A-1/2)-1 ≼ In. On développe ensuite et on réutilise la question I.1 avec à nouveau la matrice A-1/2, pour aboutir à : A1/2.B-1.A1/2 ≼ In, et : A-1/2.A1/2.B-1.A1/2.A-1/2 ≼ A-1/2.In.A-1/2, soit : B-1 ≼ A-1. 5. Etant symétrique, la matrice D est positive si et seulement si ses valeurs propres le sont. Or elles sont réelles (car D est symétrique réelle), leur produit vaut [a.c – b2] et leur somme (a + c). Il est alors clair que le système de conditions cherché est : {a.c ≥ b2, et : a + c ≥ 0}. En effet, c’est équivalent de dire que les deux valeurs propres sont de même signe, et de somme positive, donc bien positives toutes deux. 6. Si on veut que D soit positive, cela revient à chercher a et b tels que : a ≥ b2, et : a + 1 ≥ 0, autrement dit uniquement la condition : a ≥ b2. Si de plus, on veut que (B – D) soit positive, cela équivaut à la même condition. 1 , et : a = 2 5 1 8 , B2 = 4 5 0 4 On peut donc penser à prendre : b = 1 . 4 5 5 1 − − 0 , et : B2 – D2 = 16 8. On constate alors que : D2 = 16 5 5 11 − 4 4 8 8 9 Or : det(B2 – D2) = − < 0, et les valeurs propres de la matrice symétrique (B2 – D2) ne peuvent être 8 toutes deux positives, ce qui prouve que l’on n’a pas : D2 ≼ B2. Partie 3. Fonctions matriciellement croissantes. 1. On constate que : P.∆.P-1.X = λ.X, donc : ∆.(P-1.X) = λ.(P-1.X). y1 Si on note : Y = P .X, et : Y = M , alors : ∀ 1 ≤ i ≤ n, λi.yi = λ.y, et : yi = 0, si : λi ≠ λ. y n -1 Puis : ∀ 1 ≤ i ≤ n, • f(λi).yi = 0 = f(λ).yi, si : λi ≠ λ (puisque alors : yi = 0), • f(λi).yi = f(λ).yi, si : λi = λ. Donc : f(∆).Y = f(λ).Y, soit : f(∆).P-1.X = f(λ).P-1.X, ou encore : P.f(∆).P-1.X = λ.X = R.X. 2. Il est plus simple ici de raisonner en termes de vecteurs propres. Si on note RP et RQ les matrices définies dans la question précédente, mais cette fois à l’aide de P et de Q, alors pour toute base {X1, …, Xn} de Mn,1 formée de vecteurs propres de M, on a : ∀ 1 ≤ i ≤ n, RP.Xi = RQ Xi, soit bien : RP = RQ, (en utilisant au besoin les endomorphismes associés). 3. Puisque ϕr est toujours continue de ]0,+∞) dans +, deux conditions sont à remplir pour que : ϕr ∈ E : • ϕr doit être intégrable sur [1,+∞), ce qui ici conduit à la condition : r + 1 > 0, soit : r > 0. • s a s.ϕr(s), doit être intégrable sur ]0,1], ce qui revient ici à : r < 1. Autrement dit : (ϕr ∈ E) ⇔ (r ∈ ]0,1[). Ensuite, pour t nul, L ϕr ( t ) existe et vaut 0, et pour : t ≠ 0, la fonction sous l’intégrale est équivalente en +∞ à ϕr(s) dont étant positive, elle est intégrable sur [1,+∞), et elle est équivalente à t.s.ϕr(s) en 0, donc est intégrable sur ]0,1]. Enfin : ∀ t > 0, on peut utiliser le changement de variable (C1-difféomorphisme de +* dans +*) défini par : u = s.t, et obtenir : L ϕr ( t ) = t r .L ϕr (1) . 4. Soit : s ≥ 0. On pose, pour tout : t ≥ 0, fs(t) = 1 − 1 . 1 + s.t Si A est symétrique et positive, alors on peut diagonaliser A en : A = P.D.tP, avec D diagonale et P 1 1 − 1 + s.λ 1 0 orthogonale, et : f(A) = P. M 0 1 1 + s.λ 1 O O M t 0 . P = In – P. O O 0 M 1 0 L 0 1− 1 + s.λ n 0 L 0 O O M t . P. O O 0 1 L 0 1 + s.λ n 0 L 0 Or la dernière matrice est la matrice (In + s.A)-1. 0 1 + s.λ 1 0 L O O M t 0 En effet : In + s.A = P. . P, et le produit de cette dernière matrice avec la M O O 0 0 L 0 1 + s . λ n précédente vaut bien In (tous les termes diagonaux de (In + s.A) sont strictement positifs donc non nuls). D’où : f(A) = In – (In + s.A)-1. 5. Si : 0 ≼ A ≼ B, alors on a (B – A) positive, puis s.(B – A) également positive. On en déduit que [(In + s.B) – (In + s.A)] est encore positive, et comme les valeurs propres de (In + s.A) sont strictement positives (puisque plus grandes que 1), on a donc : 0 ≺ In + s.A ≼ In + s.B. La question II.3 donne alors : (In + s.B)-1 ≼ (In + s.A)-1, et la matrice (f(B) – f(A)) vérifie : f(B) – f(A) = (In + s.A)-1 – (In + s.B)-1, et est donc positive. Finalement : fs(A) ≼ fs(B), et fs est matriciellement croissante sur +. 6. Soit : A ∈ Sn, positive, D diagonale et P orthogonale telle que : A = P.D.tP. Alors pour toute matrice colonne : X ∈ Mn,1, on peut poser : X = P.Y, et : (Lϕ(A).X|X) = tX.Lϕ(A).X = tY.tP.Lϕ(A).P.Y = tY.Lϕ(D).Y, et si on note λi les valeurs propres de A et yi les coordonnées de Y, cela donne : (Lϕ(A).X|X) = n +∞ i =1 0 ∑ ∫ +∞ n s.λ i s.λ i .ϕ(s).ds .y i2 = ∫ ∑ .ϕ(s).y i2 .ds , puisque la somme est finie. 0 1 + s.λ i i =1 1 + s.λ i n s.λ i 1 2 2 1 − . y = ∑ 1 + s.λ i ∑ 1 + s.λ .y i , d’où : i =1 i =1 i i n +∞ +∞ s.λ i .y i2 .ds , ce qui donne bien l’égalité voulue. ∫0 ϕ(s).(f s (A).X X).ds = ∫0 ϕ(s).∑ 1 + s . λ i =1 i n Par ailleurs : (fs(A).X|X) = tY.fs(D).Y = 7. Supposons maintenant que A et B sont deux matrices symétriques telles que : 0 ≼ A ≼ B. Alors : fs(A) ≼ fs(B), et : ∀ X ∈ Mn,1, ((fs(B) – fs(A)).X|X) ≥ 0. Puis en utilisant la linéarité de l’intégrale et du produit scalaire, on constate que : ((Lϕ(B) - Lϕ(A)).X|X) = ∫ +∞ 0 ϕ(s).((f s (B) − f s (A)).X X).ds . Or ϕ est positive et l’intégrale est croissante donc : ∫ +∞ 0 ϕ(s).((f s (B) − f s (A)).X X).ds ≥ 0 , et finalement : ((Lϕ(B) - Lϕ(A)).X|X) ≥ 0, autrement dit (Lϕ(B) – Lϕ(A)) est positive et : Lϕ(A) ≼ Lϕ(B). Lϕ est donc bien matriciellement croissante sur +. 8. On utilise alors la question III.3 pour choisir d’abord : r ∈ ]0,1[. Puis pour ces valeurs de r, ϕr est dans E donc L ϕ r est matriciellement croissante sur +, et donc : ∀ (A,B) ∈ Sn2, (0 ≼ A ≼ B) ⇒ ( L ϕr (A ) ≼ L ϕr (B) ). Et comme : L ϕr (A ) = L ϕr (1) .Ar, de même pour B, on en déduit : L ϕr (1) .Ar ≼ L ϕr (1) .Br, et L ϕr (1) étant un réel strictement positif, on conclut à : Ar ≼ Br. Les réels cherchés sont donc ceux de l’intervalle ]0,1[.