GCP 2001 COMPOSITION de MATHEMATIQUE II (Série MP) v GCP 2001 Math II MP Partie I 1) En développant par rapport à la première ligne on trouve det CP = (¡1 n a0 , d’où le résultat. 2) Le plus rapide est de développer par rapport à la dernière colonne, on trouve alors ¯ ¯ ¯ ¯ ¡X 0 ::: 0 ¯¯ ¯ ¡X 0 ::: ¯ ¯ ¯ ¯ .. ¯ .. ¯ 1 ¯ . ¡X ¯ 1 . ¡X ¯ ¯ ¯ ¯ ¯ . . .. .. ÂC P (X) = (¡an¡ 1 ¡ X) ¯ 0 ¯ + an¡2 ¯¯ .. ¯ ¯ ¯ . ¯ . ¯ ¯ 0 ¯ .. ¯ : :: 1 ¡X ¯ ¯ ¯ ¯ 0 ¯ 0 ¯ : : : 0 ::: 1 ¡X ¯ 0¯¯ ¯ ¯ ¯ ¯ ¡::: ¯ ¯ 0¯¯ 1¯ et on reconnaît (¡1)n (X n + an¡1 X n¡1 + : : : + a0 ) = (¡1)n P (X). remarque : si on développe par rapport à la première ligne on a en notant Ã(a0 ; ¢ ¢ ¢ an ) le déterminant Ã(a0 ¢ ¢ ¢ an ) = (¡1)n a0 ¡ XÃ(a1 ¢ ¢ ¢ an ) et le résultat par récurrence. n Donck = (¡1) . 3) Il faut et il su¢t que le terme dominant de Q soit (¡1)n X n : ² Si A existe on sait par le cours que le terme dominant du polynôme caractéristique est (¡1)n X n ² Réciproquement si le coe¢cient est (¡1) n X n le calcul précédent donne une matrice compagnon qui admet Q comme polynôme caractéristique en partant de P = (¡1 n Q a) Les valeurs propres sont les racines de  qui se calcule par un déterminant; or le déterminant est invariant par transposition: det(tC p ¡ In ) =0det (C p ¡ ¸In ) 1 0 1 0 1 0 ::: 0 x1 B 0 C 0 1 ::: 0 C B Bx2 C B . B C .. C .. .. b) on a t C P = B .. ; si X = B . C il vient le système . . . C B C @ ..A @ 0 ::: 0 1 A xn ¡a0 ¡a1 : : : ¡an¡1 8 > > x2 > > > > < x3 .. . > > > > xn > > : ¡a0 x 1 = ¸x1 = ¸x2 = ¸xn¡1 ¡: : : ¡ an¡1 x n = ¸x n ( 8i 2 [1: : :n] , xi = ¸ i¡1 x 1 () (¡a0 ¡ a1 ¸ ¡ : : : ¡ an¡ 1 ¸n¡1 )x 1 = ¸n x1 Donc 0 x1 ne peut être nul (un vecteur propre n’est pas nul), ¸ est racine de P et tout vecteur propre est multiple de 1 1 B ¸ C B C X¸ = B . . C @ . A ¸ n¡1 1 c) On vient de constater que les espaces propres sont tous limités à des droites; la matrice t CP est donc diagonalisable si et seulement si il y a assez de telles droites pour engendrer l’espace entier, c’est à dire si P a n racines distinctes (et donc simples). La réciproque est du cours (puisque P = §Ât C P ). C p est diagonalisable si et seulement si P est scindé à racines simples t d) 0 Si P est scindé1à racines simples, comme on vient de le voir une matrice de passage qui diagonalise C P est V = 1 : :: 1 B ¸1 : : : ¸ n C B C B .. C , qui est inversible puisque matrice de passage ! Bien sûr son déterminant est connu. @ . A n¡1 ¸n¡1 : : : ¸ 1 n 5a) Méthode hors programme en PC . b) Analyse : si f est nilpotente d’ordre n son polynôme caractéristique est (¡1) n X n . Donc P = X n : Ce qui donne l’allure de la matrice à chercher. Construire la base demandée est alors un grand classique sur les matrices nilpotentes: On commence par utiliser l’hypothèse: on prend un vecteur e1 tel que f n¡1 (e 1) soit non nul, on alors f n (e1 ) = 0 et on prend les vecteurs f (e1 ) = e2 ; : : :; f k (e1 ) = ek+1 . La P famille ainsi construite (e1 ; : : : ; en ) est une base:En e¤et elle est libre (et son cardinal Pn est n)i par l’absurde: n Si ¸ e = 0 et s’il existe un i tel que ¸ = 6 0 on prend p le plus petit . Ainsi i i=1 i i i=p ¸i f (e 1 ) = 0 avec ¸p 6= 0 . En n¡p¡1 n¡1 composant l’égalité par f il reste ¸ p f (e1 ) = 0: Absurde. Dans cette base, on a bien 0 1 0 0 ::: 0 0 B .. .. C B1 0 . .C B C B . .C Mat(f ) = B 0 1 . . . .. .. C B C B. C @ .. A 0 ::: 1 0 Partie II 6) Par hypothèse, on a pour tout i = 1: : :n n X ai;j x j = ¸x i n X jai;j j:jxj j · ri kXk 1 j=1 Par l’inégalité triangulaire, j¸xi j · j=1 7) Soit i un indice tel que jxi j = kXk1 (il existe car la famille (xi ) est …nie), dans les conditions de la question précédente. On a alors j¸j · ri, c’est à dire ¸ 2 Di . Ceci est vrai pour n’importe quelle valeur propre, qui appartiendra donc à l’un des disques Di. Au total, Sp(A) ½ n S Dk k=1 (qui d’ailleurs n’est autre que le disque Dmax(ri) ). 8) On va se servir de la première partie ! En e¤et, les racines de P sont les valeurs propres de sa matrice compagne CP . Or r1 = ja0 j r2 = 1 + ja1 j ::: rn = 1 + jan j comme on le lit sur S la matrice C P . En appliquant la question précédente, on en déduit que toutes les racines de P sont dans le disque DR = nk=1 Dk où R = max rk . 9) A l’ordre près des exposants on peut supposer que a soit le plus grand des quatre entiers a; b; c; d . Posons P (X) = X a + X b ¡ X c ¡ X d La matrice C P ne contient que des 0; §1 et on a avec les notations de la question précédente R = 2. Les seules racines entières possibles sont donc 0; 1; 2. 2 Reste à exclure le dernier cas: or si 2 est racine, on a (avec par exemple c > d , sinon c et d jouant des rôles symétriques ...) 2b (1 + 2a¡b ) = 2d (1 + 2c¡d ) Donc si b > d on a 2 b¡d (1 + 2 a¡ b ) = (1 + 2 c¡ d ) .Un nombre pair est égal à un nombre impair : absurde. de même si d > b . Donc les seules racines dans N de na + nb = nc + nd sont 0 et 1: Partie III remarque : On généralise dans cette partie l’étude des suites linéaires récurrentes d’ordre 2 dans le cas où les racines sont simples. Les questions 10 , 11 , 12 sont les mêmes que la démonstration pour les suites d’ordre 2 . Seule la …n change pour véri…er qu’on a un base de solutions avec des suites géométriques. 10) Remplaçons u(n) par ¸ n : on a bien ¸n+p + a p¡1 ¸ n+p¡1 + : : : + a0 ¸ n = 0 dès que P (¸) = 0. 11) ² Tout d’abord, ' est linéaire (ses composantes sont des formes linéaires). ² ' est injective car si '(u) = (0) on a u(0) = u(1) = ¢ ¢ ¢ = u(p ¡ 1) = 0 et par une récurrence immédiate 8n 2 N , u(n) = 0 . Donc u est la suite nulle. ² ' est surjective car la donnée de u(0); u(1); ¢ ¢ ¢ u(p ¡ 1) , donne les conditions initiales qui dé…nissent la suite u . p ² Donc F , isomorphe à C , est de dimension p. 12a) ei (p) = ¡ap¡ 1 ei(p ¡ 1) ¡ : : : ¡ a0 ei (0) = ¡ai. b) Les ei sont l’image de la base canonique de C p par l’isomorphisme ' ¡1 . remarque : ou bien véri…er aussi libre et bon cardinal. p¡1 P c) La suite u et la suite u(i)ei sont deux éléments de F qui commencent par les p mêmes termes, à savoir '(u) = i=0 (u(0); u(1); : : :; u(p ¡ 1)). Elles sont donc identiques: (récurrence évidente) 13) f (¸u + ¹v) est par dé…nition la suite de terme général (¸u + ¹v)(n + 1) = ¸u(n + 1) + ¹v(n + 1) C’est donc ¸f (u) + ¹f (v) ce qui prouve la linéarité de f : ainsi f 2 L(E). En…n, la relation de récurrence qui dé…nit F devant être vraie pour tout n sera vraie pour tout n + 1 ce qui signi…e que f (F ) ½ F , F est stable par F . 14) Cela résulte de 12a): en e¤et, e i(p) = ¡ai et donc comme ei = (0; 0; 0; : : :; 0; f (ei) = (0; 0; 0; : : :; 0; 1 ; 0; : : :; ¡ai ; : : :) rg i rg p 1 ; 0; : : :; ¡ai ; : : :) = ei¡1 ¡ aiep¡1 rg i ¡ 1 rg p ¡ 1 En écrivant ceci en colonnes pour i = 0: : :p ¡ 1, on obtient la matrice de f dans la base (ei) et on reconnaît t CP . 0 1 ::: B ¸0 ::: B 15a) D’après 4c), t CP est diagonalisable et une base de vecteurs propres est donnée par les colonnes de V = B . . @ . p¡1 où les ¸ i sont les racines de P . b) Tout élément de F s’écrit dans cette base qui est constituée de suites géométriques (cf 10) ¸1 ::: 1 ¸ p¡ 1C C C A p¡ 1 ¸ p¡ 1 1 8n 2 N; u(n) = k0 ¸ n0 + : : : + kp¡1 ¸ p¡ p¡ 1 16) Les racines de P (X) = X 3 ¡ (a + b + c)X 2 + (ab + bc + ca)X ¡ abc sont a; b et c. Ces réels étant supposés distincts, tout est …ni: une base de l’espace F est constituée par les trois suites géométriques (an ); (bn ); (cn ) et tout élément de F s’écrit u n = ®a n + ¯b n + °cn où ®; ¯; ° sont fonction des valeurs initiales u 0 ; u1 ; u 2 . 3 1 Partie IV Notons que par la première partie,  A = ÂC A = (¡1)n P . 17 D’après l’étude du I une matrice compagnon est diagonalisable si et seulement si toutes ses valeurs propres sont deux à deux distinctes. Il su¢t de prendre pour A n’importe quelle matrice diagonalisable ayant au moins une valeur propre multiple. A = In ou A = 0 sont par exemple solution. remarque : on peut aussi constater que toute matrice compagnon est de rang supérieur à n-1 . Toute matrice de rang inférieur à n-2 convient aussi comme contre exemple. 18) Supposons (¤¤), c’est à dire que (U; C U ) et (V; CV ) sont simultanément semblables: comme le rang est invariant par changement de base, on a donc U ¡ V = P ¡1 (CU ¡ C V ) P soit : 0 1 0 ::: ² B .. C rg(U ¡ V ) = rg(CU ¡ CV ) = rg @ ... .A 0 ::: ² Cette matrice ne peut être nulle: on aurait rg(U ¡ V ) = 0 et donc U = V ce qui est exclu. Donc elle est de rang 1, ce qui prouve (¤). (¤¤) ) (¤) 19) Il su¢t de reprendre un exemple inversible de la question 17 pour U (on est sur que P n’existera pas si U et C U ne sont pas semblables) µ puis¶d’a jouter µ à U¶n’importe quelle matrice de rang 1 . Par exemple 1 0 1 1 Prenons U = ;V = . 0 1 0 1 20) Par le théorème du rang, H est un hyperplan. 21a) Par l’absurde : si F ½ H on a uF = vF et donc Âu F =  vF . Mais ÂuF j u et Âv F j v , Toute racine de Âu F dans C est ¢ ± ¡ racine commune à Âu et Âv (et il existe une telle racine car d  uF = dim F ) > 0 . Donc F 6½ H. b) Soit x 2 F n H: alors H et x engendrent E puisque H est un hyperplan et x 2 = H . Cela signi…e que F + H = E . On utilise deux fois le théorème de la base incomplète en partant d’une base de F \ H que l’on complète dans F , puis dans H.Il existe une base (f i) [ (gj ) [ (h k ) , (f i) base de F \ H; (fi) [ (gj ) base de F , (h k ) 2 H Si on prend la matrice de u (et v )dans cette base elle est triangulaire par bloc car F est stable par u . On a par blocs µ ¶ µ ¶ U1 ? V1 ? Mat(u) = Mat(v) = 0 U2 0 V2 où les sous-matrices U2 et V 2 coïncident, puisque u(x) = v(x) pour x 2 H (en fait, même les sous-matrices au dessus de celles-ci sont égales aussi). En calculant par blocs les polynômes caractéristiques on a  u =  u1 :Âu2 et  v = Âv1  v2 . Toute racine de Âu 1 =  v1 est racine commune de  u et Âv . Absurde. c) Les seuls sous-espaces stables à la fois par u et v sont E entier et f0g . 22a) u j est, comme u, un automorphisme, qui conserve la dimension: donc Gj = u¡j (H) est, comme H, un hyperplan. b) On a dim G0 = dim H = n ¡ 1; dim G0 \ G 1 ¸ n ¡ 2; : : : dim G0 \ : : : \ G n¡ 2 ¸ 1 en vertu du car si H1 est un hyperplan et F un sev, on a dim(F \ H1 ) ¸ dim F ¡ 1. car F \ H 1 = F ou est un hyperplan de F . c) Un tel y existe d’après la question précédente. La famille fy; u(y); : : :; u q (y)g ne peut être libre pour toute valeur de p ( elle est lie dès que q > n), soit donc p maximal tel que la famille F =fy; u(y); : : :; u p¡ 1 (y)g soit libre et F = Vect (F ) Nous voulons montrer que F = E c’est à dire que p = n. ² On a up (y) 2 F par dé…nition de p . Et par récurrence q ¸ p , uq (y) 2 F ² D’abord notons que e0 ; e1 ; : : :; en¡2 2 H par dé…nition même de y. Supposons par l’absurde p < n, on a donc F ½ H. ² F est stable par u car l’image par u de la base F est encore dans F : up (y) 2 F ² pour tout x 2 F on a v(x) = u(x) 2 F puisque F ½ H et v F = u F . Donc F est stable par v lui aussi. ² Nous sommes arrivés à une impossibilité d’après 21c). Donc F = E; p = n et B 00 = F est une base de E 4 ¡ ¢ d)On a u (ei) = u u i(y) = u i+1 (y) = ei+1 pour mi· n¡1: La matrice de u dans la base B " est donc une matrice compagnon. Soit P le polynôme tel que Mat B" (u) = C P . On a P = (¡1)n ÂC p = (¡1)n ÂU . Donc CP = CU e) Récapitulons: on a montré que le changement de base vers F change U (resp. V ) en C U (resp. C V ). Nous avons donc montré (¤¤). Si les polynômes carctéristiques n’ont pas de racine commune (¤) ) (¤¤) 5