Université Cheikh Anta Diop de Dakar Faculté des Sciences et Techniques (UCAD-FST) Département de Mathématiques et Informatique (DMI) COURS D’ALGÈBRE L2 Chargé du cours : Pr Amadou Lamine FALL Assistants TD : Dr Moussa SALL Dr Mame Abdou DIAW Dr Gilbert NOLAN Dr Cheikh Tidiane GUEYE Dr Andre DIABANG 2 Table des matières 3 4 TABLE DES MATIÈRES Chapitre 1 Diagonalisation et Applications Dans tout le cours , E sera un espace vectoriel de dimension finie sur un corps K. 1.1 Diagonalisation d’endomorphisme 1.1.1 Valeurs propres et Sous espaces propres Définition : Soient f ∈ L (E) et u ∈ E λ ∈ K est une valeur propre de f s’il existe u 6= 0 tel que f (u) = λu. Définition : Soient f ∈ L (E) et u ∈ E et λ ∈ K une valeur propre de f . u est un vecteur propre de f associé à la valeur propre λ si u 6= 0 et f (u) = λu. Remarque : f ∈ L (E) et λ ∈ K une valeur propre de f , il existe u ∈ E non nul tel que f (u) = λu, c’est à dire (f − λidE )(u) = 0. On en déduit que si λ ∈ K une valeur propre de f alors l’endomorphisme (f − λidE ) n’est pas bijectif. Soit A = matB (f ) la matrice f relativement à une B une base de E, λ ∈ K une valeur propre de f si et seulement si det(A − λI) = 0 où I est la matrice unité. Définition : f ∈ L (E) et λ une valeur propre de f. Le sous espace propre de f associé à la valeur propre λ est Eλ = {u ∈ E / f (u) = λu} = ker (f − λ idE ) . Le sous espace propre de f , Eλ est constitué du vecteur nul et de l’ensemble des vecteurs propres de f associé à la valeur propre λ. Définition : f ∈ L (E), B une base de E et A = matB (f ) la matrice f relativement à la base B, le polynôme Pf (X) = det(A − XI) est appelé polynôme caractéristique de f . 5 6 CHAPITRE 1. DIAGONALISATION ET APPLICATIONS Remarque : λ ∈ K une valeur propre de f si et seulement si λ est racine du polynôme caractéristique de f . Définition : f ∈ L (E) . Le spectre de f est l’ensemble de ses valeurs propres. Expression du polynôme caractéristique. Définition : Soit A ∈ Mn (R) et k ∈ N tel que 1 ≤ k ≤ n. On appelle sous matrice principale d’ordre k de A la sous matrice d’ordre n − k obtenue à partir de A en supprimant n − k lignes et les n − k colonnes correspondantes. Un mineur principal d’ordre de A est le determinant d’une sous matrice principale d’ordre k de A. Formule : f ∈ L (E), B une base de E et A = (ai,j )1≤i,j≤n = matB (f ) la matrice f relativement à la base B, le polynôme caractéristique Pf (X) = det(A − XI) est donné par : Si n = 2 alors Pf (X) = X 2 − Tr(A)X + det A Tr(A) etant la trace de la matrice A. Et si n ≥ 3 on a n n n−1 Pf (X) = (−1) X + (−1) Tr(A)X n−1 n−1 X (−1)n−k ωk X n−k + det A. + k=2 Le scalaire ωk est la somme des mineurs principaux d’ordre k de A. Exemple : Soit f ∈ L (R3 ) de matrice −1 A= 1 1 −1 1 1 1 1 . −1 Déterminer les valeurs propres et les sous espaces propres de f. Solution : 1. Déterminons d’abord le polynôme caractéristique. D’après la formule Pf (X) = −X 3 + Tr(A)X 2 − ω2 X + det A. La trace de A est la somme des éléments diagonaux de A donc Tr(A) = −3. Le déterminant est det(A) = 4. Le scalaire ω2 est donné par : ω2 = −1 1 1 −1 + −1 1 1 −1 + −1 1 1 −1 = 0. 1.1. DIAGONALISATION D’ENDOMORPHISME 7 Donc Pf (X) = −X 3 − X 2 + 4 = −(X + 2)(X − 1). 2. Déterminons les sous espaces propres. Soit (x, y, z) ∈ E1 = ker(f − idE ), on a x 0 −x + y + z = 0 (A − I3 ) y = 0 ⇔ x − 2y + z = 0 x + y − 2z = 0 z 0 La résolution du systeème montre que E1 = (x, y, z) ∈ R3 /x = y = z = Vect(u1 ) avec u1 = (1, 1, 1). Soit (x, y, z) ∈ E−2 = ker(f + 2 idE ), on a 0 x (A + 2I3 ) y = 0 ⇔ x + y + z = 0. 0 z E−2 = (x, y, z) ∈ R3 /x + y + z = 0 = Vect(u2 , u3 ) avec u2 = (1, 0, −1) et u3 = (0, 1, −1). 1.1.2 Propriétés des sous espaces propres. Théorème 1.1.1. f ∈ L (E) et λ1 , λ2 , · · · , λm ∈ K des valeurs propres de f deux à deux distinctes et u1 , u2 , · · · , um des vecteurs propres associés aux λ respectivement. Alors la famille S = {u1 , u2 , · · · , um } est libre. Démonstration : Elle se fait par récurrence sur l’entier m ≥ 2. Si m = 2, S = {u1 , u2 } avec f (u1 = λ1 u1 et f (u2 = λ2 u2 . Soit α1 , α2 ∈ K tel que α1 u1 + α2 u2 = 0. α1 u1 + α2 u2 = 0 =⇒ α1 f (u1 ) + α2 f (u2 ) = 0 =⇒ α1 λ1 u1 + α2 λ2 u2 = 0 =⇒ α1 (λ1 − λ2 )u1 = 0. 8 CHAPITRE 1. DIAGONALISATION ET APPLICATIONS Comme λ1 6= λ2 et u1 6= 0, on a α1 = 0 et par suite α2 = 0, ainsi S est libre. Supposons m ≥ 3 et propriété vraie pour m − 1. m X Soit α1 , α2 , · · · , αm ∈ K tel que αk uk = 0. k=1 m X αk uk = 0 =⇒ k=1 =⇒ m X k=1 m−1 X m−1 X αk f (uk ) = 0 et αm um = − αk uk k=1 αk (λk − λm )uk = 0 k=1 Par hypothèse de récurrence on a αk (λk − λm )uk = 0 pour 1 ≤ k ≤ m − 1, comme λk 6= λm on a αk = 0 pour 1 ≤ k ≤ m − 1 ce qui implique que αm um = 0 d’où αm = 0. Ainsi la famille S = {u1 , u2 , · · · , um } est libre. Corollaire 1.1.2. f ∈ L (E) et λ1 , λ2 , · · · , λm ∈ K des valeurs propres de f deux à deux distinctes. Alors les sous espaces propres (Eλk )1≤k≤m sont en somme directe m m X M c’est à dire si F = Eλk alors F = Eλk . k=1 k=1 Démonstration : Les sous espaces Eλk sont en somme directe si et seulement si ∀(uk )1≤k≤m ∈ m Y Eλk on a l’implication suivante : k=1 m X uk = 0 =⇒ uk = 0, ∀k. k=1 Soit 1 ≤ k ≤ m un entier naturel et uk ∈ Eλk tel que pas tous nuls la relation m X m X uk = 0. Si les uk ne sont k=1 uk = 0 est une combinaison linéaire nulle de vecteurs k=1 propres associés à des valeurs propres deux à deux distinctes, ce qui contredit le théorème ci-dessus. On en déduit que uk = 0, ∀k, donc les sous espaces Eλk sont en somme directe. Définition : Soit n ∈ N∗ et P ∈ K[X] un polynôme de degré n à coéfficients dans K et x0 ∈ K une racine de P . On dit que x0 est une racine de P d’ordre de multiplicité α ∈ N∗ , si (X − x0 )α divise P (X) et (X − x0 )α+1 ne divise pas P (X). Le polynôme P est dit scindé dans K s’il possède n racines dans K chaque racine étant comptée un nombre de fois égal à sa multiplicité. C’est à dire P se factorise 1.1. DIAGONALISATION D’ENDOMORPHISME dans K, 9 m m Y X αi P (X) = a (X − ai ) avec αi = n. i=1 i=1 Les ai sont les racines deux à deux distincts de P . Définition : f ∈ L (E) et λ ∈ K une valeur propre de f , la multiciplicité de λ est sa multiciplicité comme racine du polynôme caractéristique. On dit que l’endomorphisme f est scindé si son polynôme caractéristique est scindé. Théorème 1.1.3. f ∈ L (E) et λ ∈ K une valeur propre de f d’ordre de multiciplicité α. Alors on a 1 ≤ dim Eλ ≤ α. Démonstration : Comme Eλ 6= {0E } on a dim Eλ ≥ 1. Posons k = dim Eλ et soit {e1 , . . . , ek } une base de Eλ . Complétons la par des vecteurs ek+1 , . . . , en pour avoir une base B = {e1 , . . . , en } de E. Déterminons la matrice M de f relativement à B. On a f (ej ) = λej , 1 ≤ j ≤ k et n P f (ej ) = aij ei , k + 1 ≤ j ≤ n; aij ∈ K, donc on a i=1 λ ··· 0 . . .. . . ... 0 ··· λ M = 0 ··· 0 . .. .. . 0 ··· 0 a1,k+1 · · · .. . a1,n ak,k+1 ··· .. . ak+1,k+1 · · · .. . an,k+1 ak,n ak+1,n .. . ··· = λIk C 0 D ! . an,n Ainsi Pf (X) = (λ − X)k PD (X) = (−1)k (X − λ)k PD (X) d’où (X − λ)k divise Pf (X), ainsi k ≤ α, on en déduit que 1 ≤ dim Eλ ≤ α. 1.1.3 Conditions de diagonalisabilité Définition : Soient f ∈ L(E) un endomorphisme. On dit que f est diagonalisable si E admet une base formée de vecteurs propres de f . Cela revient à dire qu’il existe une base de E relativement à la quelle la matrice de f est diagonale. Définition : Une matrice carrée A ∈ Mn (K) est dite diagonalisable s’il existe P ∈ GLn (K) tel que D = P −1 AP soit une matrice diagonale. 10 CHAPITRE 1. DIAGONALISATION ET APPLICATIONS Théorème 1.1.4. Soient E un K-espace vectoriel de dimension n ∈ N∗ , f ∈ L(E) r Q un endomorphisme de E et Pf (X) = (−1)n (X − λi )αi son polynôme caractérisi=1 tique. Alors f est diagonalisable si et seulement si E= r M Eλi i=1 où Eλi est le sous-espace propre associé à λi . r L Démonstration : Supposons E = Eλi et pour tout 1 ≤ i ≤ r soit Bi une base de Eλi . L’ensemble B = r [ i=1 Bi est une base de E formée de vecteurs propres de f . i=1 Réciproquement si f est diagonalisable il existe une base B = {e1,λ1 , · · · , eα1 ,λ1 , e1,λ2 , · · · , eα2 ,λ2 , · · · , e1,λr , · · · , eαr ,λr } de E formée de vecteurs propres de f , où pour tout j, ej,λj ∈ Eλj . r X On a card(B) = αi = dim(E). Montrons que αi = dim(Eλi ) ∀j ∈ [[1, r]]. Supi=1 posons qu’il existe l ∈ [[1, r]] tel que αl < dim(Eλl ) = βl . La famille {e1,λl , · · · , eαl ,λl } est une famille libre, complètons la pour avoir une base {e1,λl , · · · , eαl ,λl , · · · , eβl ,λl } de Eλl . La famille S = {e1,λ1 , · · · , eα1 ,λ1 , e1,λ2 , · · · , eα2 ,λ2 , · · · , eαl ,λl , · · · , eβl ,λl · · · , e1,λr , · · · , eαr ,λr } est une famille libre de E avec dim(E) = card(B) < card(S) ce qui impossible donc r P αi = dim(Eλi ) ∀j ∈ [[1, r]]. Ainsi dim(E) = dim(Eλi ), comme les Eλi sont en somme directe, on a E = r L i=1 Eλi . i=1 Théorème 1.1.5 (Condition nécéssaire suffisante). Soient E un K-espace vectoriel de dimension n ∈ N∗ , f ∈ L(E) un endomorphisme de E. Alors f est diagonalisable si et seulement si les propriétés suivantes sont vérifiée : 1) Le polynôme caractéristique Pf (x) est scindé dans K. 2) Pour chaque valeur propre λ de multiplicité α, on a dim(Eλ ) = α Démonstration : ⇐) Supposons que 1) et 2) soient vérifiées. r r Q P 1) ⇒ Pf (X) = (−1)n (X − λi )αi avec αi = n. i=1 i=1 La condition 2) entraîne dim Eλi = αi , donc dim E = n = r X i=1 r M dim Eλi = dim( Eλi ), i=1 1.1. DIAGONALISATION D’ENDOMORPHISME doù E = r L 11 Eλi . D’après le théorème ci-dessus, f est diagonalisable. i=1 Réciproquement, supposons f est diagonalisable. a) Supposons que le polynôme caractéristique n’est pas scindé. r Q On a Pf (X) = (−1)n (X − λi )αi Q(X) avec deg(Q) ≥ 2 et Q n’a pas de racine i=1 dans K. dim E = r X αi + deg(Q) =⇒ i=1 r X dim Eλi < dim E i=1 r M =⇒ dim( Eλi ) < dim E i=1 Donc E 6= r L Eλi donc f n’est pas diagonalisable. i=1 b) On suppose qu’il existe i0 ∈ [|1, r|] tel que dim Eλi < αi . On a r X dim Eλi = dim Eλi0 + i=1 donc r P dim Eλi < i=1 r X dim Eλi < αi0 + i=1,i6=i0 r P r X αi , i=1,i6=i0 dim αi < dim E. On en déduit que f n’est pas diagonalisable. i=1 Corollaire 1.1.6. (Condition suffisante) Soit E un K-espace vectoriel de dimension n et f ∈ L(E) un endomorphisme de E admettant n valeurs propres distinctes. Alors f est diagonalisable. Exemple : 1) L’endomorphisme f de R3 associé à la matrice A suivante est il diago- nalisable ? −1 A= 1 1 1 −1 1 1 1 . −1 Le polynôme caractéristique de A est PA (X) = −(X + 2)2 (X − 1) il est scindé dans R. La dimension de chaque sous espace propre est égal à la multiciplicité de cette valeur propre : E−2 = vect(u1 , u2 ) avec u1 = (1, 0, −1) et u2 = (0, 1, −1) on a ; dim E−2 = 2 cette dimension est égale à la multiplicité de la valeur propre λ = −2. De même E1 = vect(u3 ), u3 = (1, 1, 1), dim E1 = 1 = multiplicité de λ = 1. L’endomorphisme f est donc diagonalisable. Les matrices de passage et 12 CHAPITRE 1. DIAGONALISATION ET APPLICATIONS 1 0 1 −2 0 et D = 0 diagonale associées sont P = 0 1 1 −1 −1 1 0 0 −2 0 0 1 3 2) Même question pour l’endomorphisme associé à la matrice A = 2 0 −1 4 −1 0 3 2 3 2 PA (X) = −X + T r(A)X − w2 X + det A; on a T r(A) = 10 et 4 2 3 −1 3 0 w2 = + + = 12 + 8 + 12 = 32; 0 3 −1 3 2 4 4 2 − 2 4 = 36 − 4 = 32 ; donc 0 3 −1 0 PA (X) = −X 3 + 10X 2 − 32X + 32 = −(X − 2)(X − 4)2 est scindé. det A = 3 dim E2 = 1; dim E4 = dim R3 − rg(A − 4I) = 3 − 1 = 2. Donc PA (X) est scindé et la dimension de chaque sous-espace propre est égale à la multiplicité de la valeur propre, ainsi A est diagonalisable. Diagonalisons l’endomorphisme f associé à A : x (x, y, z) ∈ E2 ⇐⇒ (A − 2I) y = z x 1 0 −1 ⇐⇒ 2 2 2 y z −1 0 1 ( x−z = 0 ⇐⇒ x+y+z = 0 ( x = z ⇐⇒ y = −2x 0 0 0 0 = 0 0 Donc E2 = {(x, −2x, x)/x ∈ R} = vect(u1 ) avec u1 = (1, −2, 1). (x, y, z) ∈ E4 ⇐⇒ x + y = 0 ⇔ z = −x, ainsi E4 = {(x, y, −x)/x, y ∈ R} = vect{u2 , u3 } avec u2 = (1, 0, −1), u2 = (0, 1, 0). 1.2. APPLICATIONS 13 Posons B = {u1 , u2 , u3 }, on a 1 1 0 2 0 0 P = −2 0 1 et D = 0 4 0 . 1 −1 0 0 0 4 On a D = P −1 AP ainsi A = P DP −1 . 0 −1 1 Exercice : Soit f de matrice M = −1 0 1 1 −1 0 Montrer que 0, 1 et −1 sont valeurs propres dans la base canonique de R3 . de f. En déduire une matrice P inversible telle que M = P · D · P −1 avec D de diagonale 0, 1 et −1. 4 −1 −1 0 0 3 −1 0 Exercice : Soit f ∈ L (R ) de matrice M = 0 −1 3 0 2 −1 −1 2 4 de R . 4 dans la base canonique Montrer que 2 et 4 sont valeurs propres de f et déterminer les sous espaces propres associés. En déduire que f est diagonalisable ainsi qu’une base de vecteurs propres. 1.2 Applications 1.2.1 Puissances de matrice et suites récurrentes linéaires Soit (Un )n∈N une suite de matrices colonnes de Rm où m ≥ 2 est un entier naturel. On suppose que la suite (Un )n∈N est définie par le terme initial U0 ∈ Rm et par la relation Un+1 = A · Un où A est une matrice diagonalisable. Pour tout entier naturel n on a Un = An · U0 de sorte que déterminer Un revient à déterminer la puissance An de la matrice A. Comme A est diagonalisable il existe une matrice diagonale D et une matrice inversible P tel que A = P · D · P −1 , on a An = P · Dn · P −1 . La matrice Dn est la matrice diagonale dont les éléments diagonaux sont les puissances de valeurs propres de A. 14 CHAPITRE 1. DIAGONALISATION ET APPLICATIONS 1.2.2 Système différentiel linéaire à coéfficients constants Définition : On appelle système différentiel linéaire à coefficient constant, un système d’équations différentielles de la forme : dx1 = a11 x1 + a12 x2 + . . . + a1n xn dt dx2 = a21 x1 + a22 x2 + . . . + a2n xn dt .. . dxn = an1 x1 + an2 x2 + . . . + ann xn dt où aij ∈ C et xi : R → R est une application dérivable. écriture matricielle Posons A = (aij )1≤i≤n,1≤j≤n et X = x1 x2 .. . xn le système différentiel s’ecrit : a21 x1 + a22 x2 + · · · + a2n xn dX = . = .. . dt . . dxn an1 x1 + an2 x2 + · · · + ann xn dt On a donc 1.2.3 dX dt dx1 dt dx2 dt a11 x1 + a12 x2 + · · · + a1n xn = AX Résolution dans le cas où A est diagonalisable Comme A est diagonalisable, il existe P ∈ GLn (K) telle que A0 = P −1 AP soit diagonale. Posons λ1 0 ··· 0 D= 0 .. . λ2 · · · .. . . . . 0 .. . 0 0 ··· λn 1.2. APPLICATIONS 15 z1 et X = P Z avec Z = z2 .. . . On a dX dt = d(P Z) dt donc nous avons zn = P dZ = AX = (AP )Z, donc dZ dt dt dz1 λ 0 ··· dt 1 dz2 dZ 0 λ2 · · · = dt. = . .. . . .. .. dt . . dzn 0 0 ··· dt dzi dt = (P −1 AP ) = DZ, . Ainsi : 0 z1 z2 0 . , .. . . . λn zn = λi zi ⇒ zi = αi eλi t , il en résulte que α 1 e λ1 t α 2 e λ2 t Z= .. . α n e λn t . La solution du système est donc donnée par X = P Z dx dt = −x + y + z dy Exemple Résoudre = x−y+z dt dz = x + y − z dt x −1 1 1 Posons A = 1 −1 1 et X = y z 1 1 −1 La matrice A est diagonalisable et sa diagonalisée ainsi que la matrice de passage sont respectivement 1 0 0 1 1 0 et P = 1 0 . D= 0 −2 0 1 0 0 −2 1 −1 −1 z1 dX Posons X = P Z avec Z = z2 . Le système différentiel dt = AX est équivalente z3 aet be−2t . au système dZ = DZ dont la solution est donnée par Z = dt −2t ce 16 CHAPITRE 1. DIAGONALISATION ET APPLICATIONS 1 1 0 aet aet + be−2t t −2t be−2t = On en déduit que X = P Z = 1 0 1 ae + ce −2t t −2t −2t 1 −1 −1 ce ae − be − ce d’où x = aet + be−2t y = aet + ce−2t z = aet − be−2t − ce−2t . Chapitre 2 Trigonalisation et Théorème de Cayley-Hamilton 2.1 Trigonalisation Définition : Soient E un K−espace vectoriel de dimension n ∈ N∗ et f ∈ L(E). On dit que f est trigonalisable s’il existe une base β de E relativemment à la quelle la matrice de f est triangulaire. Définition : Une matrice carreé A ∈ Mn (K) est dite trigonalisable s’il existe P ∈ GLn (K) telle que A0 = P −1 AP soit triangulaire. Théorème 2.1.1. Soient E un K−espace vectoriel de dimension n ∈ N∗ et f ∈ L(E). Alors f est trigonalisable dans K si et seulement si le polynôme caractéristique Pf (X) est scindé dans K. Démonstration : 1. Supposons que f trigonalisable. Comme f est trigonalisable, il existe une base β de E relativemment à la quelle la matrice de f est triangulaire 0 A = λ1 a12 · · · 0 .. . λ2 .. . 0 0 a1n · · · a2n .. .. . . · · · λn Dans ce le polynôme caractéristique Pf (X) = PA0 (X) = n Q (λi − X) est scindé. i=1 2. Réciproquement, supposons que Pf (X) est scindé et montrons par récurrence sur n = dim E que f est trigonalisable. Si n=1, f est trigonalisable, supposons 17 18 CHAPITRE 2. TRIGONALISATION ET THÉORÈME DE CAYLEY-HAMILTON n ≥ 2 et la propriété soit vraie pour tout endomorphisme g d’un K−espace vectoriel F de dimension n − 1 dont le polynôme caractéristique est scindé. Soit λ une valeur propre de f et e1 un vecteur propre de f associé à λ, complètons e1 par 2 , . . . , n pour avoir une base de B = {e1 , 2 , . . . , n } de E. Posons E1 = vec(e1 ) et F = vect(2 , . . . , n ), on a dim F = n − 1. On considère π la projection sur F parallèlement à E1 , on a E = E1 ⊕ F . nous f π avons π : E → E, ker π = E1 , im(π) = F et π ◦ f : E → E → E. Le sous espace vectoriel F est stable par π ◦ f , donc la restriction g de π ◦ f à F induit un endomorphisme g : F → F . Soit MB (f ) la matrice de f relativement n P à la base B, nous avons f (e1 ) = λe1 et f (j ) = a1j e1 + aij i , avec j ∈ [[2 ; n]]. i=2 La matrice MB (f ) est donnée par : MB (f ) = Montrons λ a12 · · · a1n 0 a22 · · · a2n .. .. .. ... . . . 0 an2 · · · ann . a22 · · · a2n . .. ... .. K= . an2 · · · ann est la matrice de g relativement à la base {2 , . . . , n } de F . n n P P g(j ) = π ◦ f (j ) = π(f (j )) = π(a1j e1 + aij i ) = aij i ce qui montre que i=2 i=2 λ a12 · · · a1n K est bien la matrice de g. On a A = . . . K 0 λ − X a12 Ainsi nous avons Pf (X) = .. . ··· K − XIn−1 a1n = (λ − X)PK (X) 0 Donc Pf (X) = (λ − X)Pg (X), Pf est scindé donc Pg est scindé. Donc il existe une base {e2 , . . . , en } de F relativement à la quelle la matrice K 0 de g est triangulaire. A = {e1 , e2 , . . . , en } est une base de E relativement à la quelle la matrice A0 de f est triangulaire 2.1. TRIGONALISATION 19 Exemple 1. Trigonaliser l’endomorphisme f de R3 dont la matrice relativement à la base canonique est 2 −2 3 A= −1 0 1 1 1 . 0 Le polynôme caractésistique de A est PA (X) = 3−X 2 −2 −1 −X 1 1 1 −X Déterminons le sous espace propre E1 . = (1 − X)3 = −(X − 1)3 . ( x 0 2x + 2y − 2z = 0 Soit (x, y, z) ∈ E1 si et seulement si (A−I3 ) y = 0 ⇔ x+y−z = 0 z 0 si et seulement si z = x + y ainsi (x, y, z) = (x, y, x + y) = x(1, 0, 1) + y(0, 1, 1) d’où E1 = Vect(u1 , u2 ) avec u1 = (1, 0, 1), u2 = (0, 1, 1), ainsi dim E1 = 2. Posons B = {u1 , u2 , u3 } avec u3 = (0, 0, 1). On a f (u1 ) = u1 , f (u2 ) = u2 , f (u3 ) = (−2, 1, 0) = αu1 + βu2 + γu3 = (−2, 0, −2) + (0, 1, 1) + (0, 0, 1) = −2u1 + u2 + u3 . On en déduit que 1 0 −2 A0 = 0 1 0 0 1 0 0 0 1 0 . et P = 1 1 1 1 1 Exemple 2 Trigonaliser l’endomorphisme f de R3 dont la matrice relativement à la base canonique est 1 −3 0 3 −2 −6 0 13 A= 0 −3 1 3 −1 −4 0 8 On a PA (X) = (X − 1)4 et E1 = Vect(u1 , u2 ) avec u1 = (3, 1, 0, 1), u2 = (0, 0, 1, 0). Posons B = {u1 , u2 , u3 , u4 } avec u3 = (0, 1, 0, 0), u4 = (0, 0, 0, 1). On a f (u1 ) = u1 , f (u2 ) = u2 , f (u3 ) = (−3, −6, −3, −4), f (u4 ) = (3, 13, 3, 8). Déterminons les coordonnées de f (u3 ) et f (u4 ) dans la base B. Soit a, b, c et d les 20 CHAPITRE 2. TRIGONALISATION ET THÉORÈME DE CAYLEY-HAMILTON coordonnées de f (u3 ), on a f (u3 ) = au1 + bu2 + cu3 + du4 = f (u3 ) = −u1 − 3u2 − 5u3 − 3u4 . de même si a0 , b0 , c0 et d0 sont les coordonnées de f (u4 ), on a f (u4 ) = a0 u1 + b0 u2 + c0 u3 + d0 u4 = f (u4 ) = u1 + 3u2 + 12u3 + 7u4 . La matrice de f relativement à la base B est donc 1 0 0 1 M = 0 0 0 0 Soit K = −5 12 −3 7 PK (X) = (X − 1)2 . −1 1 ! . −5 12 −3 7 −3 3 ! et F = Vect(u3 , u4 ), le polynôme caractésistique de K est Déterminons dans F le sous-espace propre de K associé à la valeur propre 1. Soit (α, β) ∈ F1 . Donc α = 2β, ainsi F1 = Vect{(2, 1)}. Posons v3 = (2, 1) = 2u3 + u4 et v4 = (0, 1) = u4 . On a v1 = u1 , v2 = u2 , v3 = 2u3 + u4 et v4 = u4 . Donc f (v1 ) = v1 , f (v2 ) = v2 , f (v3 ) = 2f (u3 ) + f (u4 ) = −v1 − 3v2 + v3 . f (v4 ) = f (u4 ) = u1 + 3u2 + 12u3 + 7u4 = v1 + 3v2 + 6v3 + v4 d’où 1 0 −1 1 0 1 −3 3 0 A = 0 0 1 6 . 0 0 0 1 2.2 Polynômes annulateurs et Théorème de Cayley-Hamilton Définition Soit f ∈ L(E) un endomorphisme de E et P (X) = m X ak X k un polynôme à k=0 coéfficients dans K. On dit que P est annulateur de f si P (f ) = m X ak f k = 0. k=0 Proposition 2.2.1. Soit E un K-espace vectoriel de dimension n et f ∈ L(E). Alors il existe au moins un polynôme annulateurs de f . 2 Démonstration : Comme dim(E) = n, on a dim(L(E)) = n2 , donc la famille {idE , f, · · · , f n } de n2 + 1 vecteurs de L(E) est liée. il existe a0 , a1 , · · · , an2 ∈ K non tous nuls tel n2 n2 X X k que ak f = 0. Le polynôme Q(X) = ak X k est annulateur de f . k=0 k=0 2.2. POLYNÔMES ANNULATEURS ET THÉORÈME DE CAYLEY-HAMILTON 21 Proposition 2.2.2. Soit E un K-espace vectoriel de dimension n et f ∈ L(E) et m X P (X) = ak X k un polynôme annulateur de f . Alors toute valeur propre de f est k=0 une racine de P . Démonstration : Soit λ une valeur propre de f et u un vecteur propre associé. On a f k (u) = λk u pour tout k ∈ N, donc m X P (f )(u) = ( ak f k (u)) k=0 = m X ak f k (u)) k=0 m X =( ak λk )u k=0 = P (λ)u Comme P est annulateur de f , on a P (λ) = 0. Théorème 2.2.3 (Cayley-Hamilton). Soit E un K-espace vectoriel de dimension n et f ∈ L(E). Alors le polynôme caractéristique Pf de f est annulateur de f . Démonstration : Soit M la matrice f relativement à une base B de E. Posons N = M − XIn où In est la matrice unité d’ordre n et soit soit N ∗ la comatrice de N . On a : t N ∗ × N = det(N )In = PM (X)In . Les coéfficients de N et t N ∗ sont des polynômes de degré inérieur ou égal à n − 1 n−1 X t ∗ donc N = Aj X j où les Aj sont des matrices carrées à coéfficients dans K. Nous avons j=0 t n−1 X N × N = (M − XIn )( Aj X j ) ∗ j=0 = PM (X)In . Posons PM (X) = n X j=0 aj X j avec an = (−1)n . 22 CHAPITRE 2. TRIGONALISATION ET THÉORÈME DE CAYLEY-HAMILTON D’une part on a t n−1 X N × N = (M − XIn )( Aj X j ) ∗ j=0 = n−1 X M Aj X j − j=0 n−1 X Aj X j+1 j=0 = M A0 + M A1 X + · · · + M An−1 X n−1 − A0 X − A1 X 2 − · · · − An−1 X n = M A0 + (M A1 − A0 )X + · · · + (M An−1 − An−2 )X n−1 − An−1 X n . D’autre part on a PM (X)In = a0 In + a1 In X + · · · + an In X n . En identifiant les coéfficients de même degré, on a M A0 = a0 In , (M A1 −A0 ) = a0 In , · · · , (M An−1 −An−2 ) = an−1 In et −An−1 = an In . On en déduit que PM (M ) = n X aj M j ) j=0 = M A0 + M (M A1 − A0 ) + M 2 (M A2 − A1 ) + · · · + M n−1 (M An−1 − An−1 ) − An−1 M n = 0. Définition. Soit E un K-espace vectoriel de dimension n et f ∈ L(E). On appelle polynôme ninimal de f l’unique polynôme mf (X) vérifiant les propriétés suivantes : 1. Le polynôme mf (X) est normalisé c’est à dire que son coéfficient dominant vaut 1. 2. Le polynôme mf (X) est annulateur de f . 3. Si P est un polynôme annulateur non nul de f alors deg(mf ) ≤ deg(P ). Théorème 2.2.4. Soit E un K-espace vectoriel de dimension n et f ∈ L(E). Alors le polynôme minimal de f divise le polynôme caractéristique Pf de f . Démonstration : La division euclidienne de Pf par mf donne Pf (X) = mf (X)Q(X) + R(X) avec deg(R) < deg(mf ). Puisque mf (f ) = 0 et Pf (f ) = 0, on a R(f ) = 0 donc R = 0. On en déduit que Pf (X) = mf (X)Q(X). Remarque : Comme le polynôme minimal mf de f divise le polynôme caractéristique Pf de f les racines de mf sont des valeurs propres de f et comme de plus mf est annulateur de f , toute valeur propre de f est une racine de mf . On en déduit que 2.2. POLYNÔMES ANNULATEURS ET THÉORÈME DE CAYLEY-HAMILTON 23 les valeurs propres sont exactement les racines de mf . r r r Y X Y αi Si Pf (X) = (X − λi ) avec αi = n alors mf (X) = (X − λi )βi i=1 avec 1 ≤ βi ≤ αi . i=1 i=1 24 CHAPITRE 2. TRIGONALISATION ET THÉORÈME DE CAYLEY-HAMILTON Chapitre 3 Décomposition de Dunford 3.1 Lemme de Noyaux Théorème 3.1.1 (Lemme des noyaux). Soit E un K − ev, f ∈ L(E) un endomorphisme et P ∈ K[X] un polynôme à coéfficient dans K : 1. Le sous espace vectoriel ker(P (f )) est stable par f 2. Si P = P1 P2 · · · Pr où les Pi sont deux à deux premiers entre eux, alors ker(P (f )) = r M ker(Pi (f )). i=1 Démonstration 1. Posons P (X) = m X k ak X et P (f ) = m X ak f k . k=0 k=0 m m m X X X k k+1 On a f ◦ P (f ) = f ◦ ( ak f ) = ak f =( ak f k ) ◦ f , donc f et P (f ) k=0 k=0 k=0 commutent. Montrons que ker(P (f )). Soit x ∈ ker(P (f )), on a P (f )(x) = 0E , donc P (f )(f (x)) = f (P (f )(x)) = f (0E ) = 0 ainsi f (x) ∈ ker(P (f )) d’où f (ker(P (f ))) ⊆ ker(P (f )). 2. Elle se fait par récurrence sur r. Si r = 2, P = P1 P2 avec P1 , P2 premiers entre eux, d’après l’identité de Bézout, il existe Q1 , Q2 ∈ K[X] tel que Q1 P1 + Q2 P2 = 1, en appliquant f on a Q1 (f ) ◦ P1 (f ) + Q2 (f ) ◦ P2 (f ) = idE . 25 26 CHAPITRE 3. DÉCOMPOSITION DE DUNFORD Soit x ∈ ker(P (f )), on a x = Q1 (f )(P1 (f (x))) + Q2 (f )(P2 (f (x))). En posant x1 = Q2 (f )(P2 (f (x))) et x2 = Q1 (f )(P1 (f (x))), nous avons P1 (f )(x1 ) = Q2 (f )(P1 (f ) ◦ P2 (f )(x)) = Q2 (f )(P (f )(x)) = 0E donc x1 ∈ ker(P1 (f ))). On montre de la même manière que x2 ∈ ker(P2 (f ))). Nous avons ainsi ker(P (f )) = ker(P1 (f ))) + ker(P2 (f ))). Soit x ∈ ker(P1 (f ))) ∩ ker(P2 (f )), on a x ∈ ker(P1 (f )) et x ∈ ker(P2 (f )) donc P1 (f )(x) = 0 et P2 (f )(x) = 0E , d’où x = Q1 (f )(P1 (f )(x))+Q2 (f )(P2 (f )(x)) = 0E . il s’en suit que ker(P1 (f )) ∩ ker(P2 (f )) = 0E . Ainsi nous avons ker(P (f )) = ker(P1 (f )) ⊕ ker(P2 (f )). On suppose r ≥ 3 et la propriété vraie pour r − 1. On a P = (P1 P2 · · · Pr−1 )Pr = QPr avec Q = P1 P2 · · · Pr−1 . Comme les polynômes Pi sont deux à deux premiers entre eux, Q et Pr sont premiers entre eux donc d’après le cas r = 2 on a ker(P (f )) = ker(Q(f )) ⊕ ker(Pr (f )). Par r M hypothèse de récurrence ker(Q(f )) = ker(Pi (f )), ainsi i=1 ker(P (f )) = r M ker(Pi (f )). i=1 Corollaire 3.1.2. Soit E un K-ev, f ∈ L(E) et P = P1 P2 · · · Pr un polynôme à coéfficients dans K décomposé en produit de polynômes deux á deux premiers entre r M eux. Si P est annulateur de f alors E = ker(Pi (f )) i=1 Démonstration Si P est annulateur de f alors ker(P (f )) = E et on obtient le résultat en appliquant le théorème ci dessus. Définition Soit E un K-espace vectoriel de dimension n et f ∈ L(E) dont le polynôme r r Y X αi n caractéristique est Pf (X) = (−1) (X − λi ) avec λi 6= λj si i 6= j et αi = n. i=1 i=1 Le sous espace Nλ = ker[(f − λi idE )αi ] est appelé sous espace caractéristique associé à la valeur propre λ. 3.2. DIAGONALISATION À L’AIDE DES POLYNÔMES ANNULATEURS 27 Théorème 3.1.3. Soit E un K-espace vectoriel de dimension n, f ∈ L(E) dont le r Y n polynm̂e caractéristique est scindé Pf (X) = (−1) (X − λi )αi . Alors i=1 E= r M Nλi . i=1 Démonstration. Nous avons Pf (X) = (−1)n r Y (X − λi )αi = P1 P2 · · · Pr où i=1 Pi = (λi − X)αi . Comme les Pi sont deux à deux premiers entre eux et que Pf est annulateur de f , on a E= r M ker(Pi (f )) = i=1 Remarque r M Nλi . i=1 1. Eλi ⊂ Nλi , le sous espace propre Eλi est inclue dans le sous espace caractéristique Nλi . 2. Chaque sous espace caractéristique Nλi est stable par f . 3.2 Diagonalisation à l’aide des polynômes annulateurs Théorème 3.2.1. Soit E un K-ev de dimension n, f ∈ L(E) et λ1 , λ2 , · · · , λr les valeurs propres deux à deux distinctes de f . Alors les assertions suivantes sont équivalentes : 1. f est diagonalisable. 2. Le polynôme minimal mf (x) de f est scindé et ses racines sont simples. 3. L’endomorphisme f admet un polynôme annulateur P scindé dont les racines sont simples. Démonstration. Démontrons que 1 =⇒ 2. Si f diagonalisable alors E admet une base B = e1 , e2 , · · · , en formée de vecteurs propres de f .Comme les valeurs propres sont r Y les racines du polynôme minimal, on a Q(X) = (X − λi ) divise le polynôme i=1 r Y minimal. Montrons que mf (x) = (X − λi ), pour cela, il suffit de montrer que le i=1 polynôme Q est annulateur de f . Comme les (ej )1≤j≤n sont des vecteurs propres de f , pour tout j ∈ [|1, n|] il existe i ∈ [[1, r]] tel que (f − λi idE ))(e)j = 0E . r Y On a Q(f )(ej ) = (f − λk idE ) ◦ (f − λi idE (ej ) = 0E . k=1,k6=i 28 CHAPITRE 3. DÉCOMPOSITION DE DUNFORD Soit x = n P xj ej et g = Q(f ), on a j=1 n X g(x) = g( xj ej ) j=1 = n X g(ej ) j=1 = n X Q(f )(ej ) = 0E . j=1 Ainsi Q(f )(x) = 0E pour tout x ∈ E, donc Q(f ) = 0 et Q est annulateur de f . On en déduit que mf divise Q d’où mf = Q il s’en suit que le polynôme minimal est scindé et ses racines sont simples. L’implication 2 =⇒ 3 est évident, il suffit de prendre P = mf . Démontrons que 3 =⇒ 1. On suppose qu’il existe un polynôme annulateur P (X) = m Y (X − ai ) scindé dont les racines sont simples. Comme P est est annulateur de f i=1 ses valeurs propres sont des racines de P . On peut supposer que les valeurs propres λ1 , · · · , λr sont respectivement a1 , · · · , ar . Dans ce cas on a Eλ = ker(f − λi idE ) si 1 ≤ i ≤ r i ker(f − a id ) = {0 } si r + 1 ≤ i ≤ m. i E m M D’après le lemme des noyaux, on a E = i=1 diagonalisable. 3 −1 1 0 0 Exemple A = 4 −1 3 B = 2 0 4 −2 4 1 −1 1 a 1 1 0 C = 0 1 b D = −1 2 2−m m−2 0 0 c PD (X) = −(X − 1)(X − 2)(X − m) 3.3 . E 1 ker(f − ai idE ) = r M Eλi donc f est i=1 1 2 1 1 m Diagonalisation simultanée de deux endomorphismes Définition Soit E un K-ev, f ∈ L(E), F un sous espace vectorielle de E stable par f . Alors l’endomorphisme g ∈ L(F ) défini par g(x) = f (x) ∀x ∈ F est appelé 3.3. DIAGONALISATION SIMULTANÉE DE DEUX ENDOMORPHISMES 29 endomorphisme de F induit par f . Proposition 3.3.1. soit E un K-ev de dimension finie, f ∈ L(E) et F un sous espace vectoriel de E stable par f .Si f est diagonalisable alors l’endomorphisme induit g ∈ L(F ) est diagonalisable. Démonstration Comme f est diagonalisable, il existe un polynôme scindé P ∈ K[X] dont racines simples tel que P (f ) = O. Pour tout x ∈ F , on a P (g)(x) = P (f )(x) = 0. Donc P est annulateur de g et est á racines simples, on en déduit que g est diagonalisable. Théorème 3.3.2. Soit E un K-ev de dimension n, f et g deux endomorphismes diagonalisables de E tel que f ◦ g = g ◦ f . Alors E admet une base formée de vecteur propres commun à f et g,c’est à dire f et g sont diagonalisable dans une même base de E. Démonstration Comme f est diagonalisable, E = r M Eλi oú les Eλi sont les sous i=1 espaces propres de f associés aux valeurs propres λi de f . Montrons que ∀i ∈ [[1, r]] , le sous espace propre Eλi est stable par g. Soit x ∈ Eλi , on a f (g(x)) = f ◦ g(x) = g ◦ f (x) = g(f (x)) = λi g(x) Donc g(x) ∈ Eλi d’où g(Eλi ) ⊂ Eλi . Comme g est diagonalisable, l’endomorphisme ϕi induit par g sur Eλi est diagonalisable. Donc il existe une base Bi de Eλi formée r [ de vecteurs propres de ϕi donc de g. L’ensemble B = Bi est une base de E i=1 formée de vecteurs propres communs à f et g. Corollaire 3.3.3. Soit A, B ∈ Mn (K) deux matrices diagonalisables tel que AB = BA. Alors il existe P ∈ GLn (K) et deux matrices diagonales D et D0 telles que A = P DP −1 et B = P D0 P −1 30 CHAPITRE 3. DÉCOMPOSITION DE DUNFORD 3.4 Décomposition spectrale ou décomposition de Dunford 3.4.1 Les projecteurs spectraux Soit E un K − ev de dimension n ∈ N∗ et f ∈ L(E) un endomorphisme scindé et r r Q Q Pf (x) = (−1)n (X − λi )αi et mf (x) = (X − λi )βi avec 1 ≤ βi ≤ αi . i=1 i=1 r Q mf (X) Soit i ∈ [[1, r]], posons Pi = = (X − λj )βj . Les polynômes Pi sont deux à (x − λi )βi j6=i deux premiers entre eux d’aprés l’identité de Bezout , il existe des polynômes Q1 , · · · , Qr r P tels que Pi Qi = 1. On dit que les polynômes Qi sont asociés aux polynômes Pi i=1 Définition : On appelle projecteur spectral associé à f et à λi l’endomorphisme πi = Pi (f ) ◦ Qi (f ) . Lemme 3.4.1. Les projecteurs πλi vérifient les propriétés suivante r P 1. πi = idE i=1 2. πi ◦ πj = 0 si i 6= j 3. πi2 = πi Démonstration : 1. Comme r P i=1 Pi Qi = 1, on a r P πi = idE . i=1 2. On a, pour tout j 6= i, que le polynôme minimal mf de f divise Pi Pj , donc Pi Pj (f ) = 0 et on a les égalités πi ◦ πj = Qi Pi (f ) ◦ Qj Pj (f ) = Qi Pi Qj Pj (f ) = Qi Qj Pi Pj (f ) = Qi Qj (f ) ◦ Pi Pj (f ) = 0 3. Soit i ∈ {1, . . . , r}, comme r X πj = Q1 P1 (f ) + · · · + Qr Pr (f ) = idE , on a les j=1 égalités πi = πi ◦ r X j=1 r X πj = πi ◦ πj = πi2 . j=1 3.4. DÉCOMPOSITION SPECTRALE OU DÉCOMPOSITION DE DUNFORD 31 Ainsi les πi sont bien des projecteurs. Lemme 3.4.2. L’endomorphisme πi est la projection sur le sous espaces carcatéL ristique Ni = ker(f − λi idE )αi parallèlement au sous espace Nj . j6=i Démonstration 1. Montrons pour tout i ∈ {1, . . . , r}, l’égalité Imπi = Ni . Soit y = πi (x) ∈ Imπi , on a les égalités (X − λi )βi (f ) (y) = (X − λi )βi (f ) ◦ Qi Pi (f ) (x) = Qi (f ) ◦ mf (f ) (x) =0 Donc on obtient l’inclusion Imπi ⊂ Ni . Soit x ∈ Ni , pour tout j 6= i, on a les égalitś πj (x) = Qj (f ) ◦ Pj (f ) (x) = 0 car (X − λi )βi divise Pj . Donc on obtient l’inclusion Ni ⊂ ker πj et et l’égalité r X x= πj (x) = πi (x). D’où, x = πi (x) ∈ Imπi et Imπi = Ni j=1 2. Montrons pour tout i ∈ {1, . . . , r}, on a l’égalité ker πi = L Nj : L On a déjà vu, l’inclusion Nj ⊂ ker πi , pour tout j = 6 i, donc Nj ⊂ ker πi . j6=i X L L πj (x) ∈ Nj , donc on a bien ker πi = Nj , Soit x ∈ ker πi , on a x = j6=i j6=i j6=i j6=i Les résultats 1) et 2) montrent que πi est la projection sur le sous espaces carcatéL ristique Ni = ker(f − λi idE )αi parallèlement au sous espace Nj . j6=i 3.4.2 Décomposition de Dunford Le théorème suivant est appelé décomposition spectrale ou décomposition de Dunford d’un endomorphisme. Théorème 3.4.3. Soit f un endomorphisme trigonalisable. Il existe un unique couple (N, D) ∈ L (E)2 tel que : 1. D est diagonalisable et N est nilpotent 2. f = D + N et D ◦ N = N ◦ D Démonstration : 1. Montrons d’abord l’existence de D et N . 32 CHAPITRE 3. DÉCOMPOSITION DE DUNFORD Soit Pf le polynôme caractéristique de f , il est scindé sur K car f est trigonalisable. Distinguons deux cas : L’endomorphisme f a une seule valeur propre. Soit E un K − ev de dimension n et f ∈ L(E) un endomorphisme de E. Supposons Pf (X) = (−1)n (X − λ)n et posons D = λidE et N = f − λidE , d’après le théorème de Cayley-Hamilton N n = 0, donc N est nilpotent, D est diagonale donc diagonalisable, D◦N = N ◦D et f = D+N est la dćomposition de Dunford de f . L’endomorphisme f a plusieurs valeurs propres. Dans ce cas le polynôme caractéristique est donné par n Pf (X) = (−1) r Y (X − λi )αi i=1 D’après le thórème de décomposition des noyaux et le théorème de CayleyHamilton, l’espace E est somme directe des sous-espaces caractéristiques Ni = ker (f − λi id)αi : E= r M Ni i=1 Soit D l’endomorphisme de E dont la restriction à chaque Ni est λi idNi . En d’autres termes, l’endomorphisme D est diagonalisable et admet chaque sousespace Ni comme espace propre pour la valeur propre λi . Posons N = f − D. Comme les Ni sont stables par f et D, ils le sont également par N . Soit fi , gi et hi les restriction à Ni de f , D et N , on a hi = fi − gi . Or, par définition de Ni , on a l’égalité hαi i = (fi − λi idNi )αi = 0, donc hi est nilpotent et commute avec gi . On en déduit que l’endomorphisme N est nilpotent et commute avec D. Nous avons D= r X λi πi . i=1 2. Montrons que D et N sont uniques. Soit (D0 , N 0 ) un couple vérifiant les assertions du théorème. Comme f = D0 +N 0 et D0 commute avec N 0 , l’endomorphisme D0 commute avec f , donc avec chacun des πi . En particulier, l’endomorphisme D0 commute avec D, ainsi, D et D0 sont diagonalisables dans une même base, donc D0 − D est diagonalisable. De même, l’endomorphisme N 0 commute avec N . Soit d l’indice de nilpotence 3.4. DÉCOMPOSITION SPECTRALE OU DÉCOMPOSITION DE DUNFORD 33 de N , d0 celui de N 0 et m = d + d0 . On a ! m X m m (N − N 0 ) = (−1)j N 0j N m−j j j=0 ! ! 0 d m X X m m 0 j = (−1) N 0j N d N d −j + (−1)j N 0j N m−j j j j=0 j=d0 +1 Or, puisque N d = 0, N 0j = 0 pour j ≥ d0 on a l’égalité (N − N 0 )m = 0 donc l’endomorphisme N − N 0 est nilpotent. Or, puisque N − N 0 = f − D − (f − D0 ) = D0 − D, l’endomorphisme N − N 0 est nilpotent et diagonalisable, donc on a N − N 0 = 0 d’où N = N 0 et D = D0 . Exemple 1 : Donner la décomposition spectrale de l’endomorphisme f de R3 dont la matrice relativement à la base canonique est 2 −1 2 A= 10 −5 7 4 −2 2 Le polynôme caractéristique et le polynôme minimal de f sont respectivement PA (X) = −X 2 (X + 1) et mA (X) = X 2 (X + 1). *Déterminons les projecteurs spectraux associés à λ1 = 0 et λ2 = −1. Nous avons P1 (X) = mf (X) mA (X) et P2 (X) = . 2 X X +1 1 , la décomposition en éléments simples de g(X) est donnée mA (X) 1 a b c par g(X) = 2 = + 2+ . Nous avons X (X + 1) X X X +1 lim X 2 g(X) =b=1 X→0 lim (X + 1)g(X) = c = 1 X→−1 lim Xg(X) =a+c=0 Posons g(X) = X→+∞ Donc on a a = −1, b = 1 et c = 1 ce qui donne g(X) = ainsi 1 = 1 −X + 1 1 = + , 2 mA (X) X X +1 mA (X) mA (X) (−X + 1) + , d’où Q1 (X) = −X + 1 et Q2 (X) = 1. 2 X X +1 34 CHAPITRE 3. DÉCOMPOSITION DE DUNFORD On en déduit que π1 = P1 (A)Q1 (A) = (A + I)(−A + I), π2 = P2 (A)Q2 (A) = A2 , D = 0π1 + (−1)π2 = −π2 = −A2 et N = A − D = A + A2 . Exemple 2 : Déterminer la décomposition de Dunford l’endomorphisme de R4 dont la matrice relativement à la base canonique est 1 −3 −2 −6 A= 0 −3 −1 −4 0 3 0 13 1 3 0 8 Le polynômes caractéristique de f est PA (X) = (X − 1)4 , la matrice A a une unique valeur propre et sa décomposition de Dunford est 0 −2 D = I et N = A − I = 0 −1 donnée par −3 0 3 −7 0 13 . −3 0 3 −4 0 7 Exemple 3 : Donner la décomposition spectrale de l’endomorphisme g de R3 dont la matrice relativement à la base canonique est 3 −1 1 B= 2 0 1 1 −1 2 Le polynômes caractéristique et le polynôme minimal de g sont respectivement PB (X) = −(X − 1)(X − 2)2 et mB (X) = (X − 1)(X − 2)2 Chapitre 4 Réduction de Jordan et Systèmes différentiels 4.1 Réduction de Jordan Définion Soient K un corps commutatif et unitaire, n ∈ N∗ et λ ∈ K. On appelle matrice de Jordan d’ordre n associée à λ, la matrice λ 1 0 ··· 0 λ 1 ··· . .. .. . . Jλ = .. . ... . . 0 1 ··· ··· λ c’est à dire Jλ = (aij )1≤i,j≤n 0 .. . 0 ··· λ si i = j avec aij = 1 si j = i + 1 0 sinon • n = 1 ⇒ Jλ = (λ) ! λ 1 • n = 2 ⇒ Jλ = 0 λ λ 1 0 • n = 3 ⇒ Jλ = 0 λ 1 0 0 λ Exemples Théorème 4.1.1. Soit Jλ une matrice de Jordan de taille n, alors 1. Le polynôme caractéristique est PJλ (X) = (λ − X)n 35 36 CHAPITRE 4. RÉDUCTION DE JORDAN ET SYSTÈMES DIFFÉRENTIELS 2. Le polynôme minimal est mJλ (X) = (X − λ)n 3. On a dim Eλ = 1 où Eλ est le sous-espace propre associé à λ. Démonstration 1) évident car le déterminant d’une matrice triangulaire est le produit des éléments diagonaux. 3) (x1 , . . . , xn ) ∈ Eλ si et seulement si (Jλ −λI) x1 .. . .. . = xn 0 .. . .. . si et seulement 0 si 0 1 0 .. . 0 0 0 0 ··· ··· 0 0 1 ··· 0 .. . . .. . . . ... ··· 1 ··· ··· 0 x1 .. . .. . = xn 0 .. . .. . , 0 donc Eλ = vect(e1 ) avec e1 = (1, 0, . . . , 0) d’où dim Eλ = 1. 2) Posons N = Jλ − λI. D’après le théorème de Cayley-Hamilton on a PJλ (Jλ ) = N n = 0, donc N est nilpotent. Pour montrer que mJλ = (X − λ)n il suffit de montrer que l’indice de nilpotence de N est n. On a N = (aij )1≤i,j≤n avec ( 1 si j = i + 1 aij = 0 si j 6= i + 1 On a N 2 = (bik )1≤i,k≤n avec bik = n P aij ajk , si j 6= i + 1 ou k 6= j + 1 on a j=1 aij = 0 ou ajk = 0, donc bik = 0 si j 6= i + 1. Si j = i + 1 et k = j + 1, on a aij = 1 et ajk = 1, donc bik = 1 si k = i + 2. Ainsi N 2 = (bik )1≤i,k≤n avec ( 1 si k = i + 2 bik = 0 sinon Montrons par récurrence sur p ≥ 2 que N p = (cij )1≤i,j≤n avec ( 1 si j = i + p bij = 0 sinon La propriété est vraie pour 2, supposons la vraie pour p − 1 c’est à dire que N p−1 = (dij )1≤i,j≤n avec ( dij = 1 si j = i + p − 1 0 sinon 4.1. RÉDUCTION DE JORDAN 37 Nous avons N p = N p−1 N = (cik )1≤i,k≤n avec cik = n P dij ajk . j=1 Si k 6= i + p alors on a cik = 0 et si k = i + p, on a cik = 1 d’où la proprété est vraie au rang p.Le calcul précédent montre que N n−1 = (gij )1≤i,j≤n avec ( gij = 1 si j = n et i = 1 0 sinon On en déduit que N n−1 6= 0 et N n = 0, ainsi N est nilpotent d’indice n. Remarque Soient E un K−espace vectoriel de dimension n et f ∈ L(E). On suppose Pf (X) est scindé dans K. La réduction de Jordan consiste à montrer qu’il existe une base B de E relativement à la quelle la matrice de f est décomposée en bloc Jλ1 0 .. A0 = . . 0 Jλt où les Jλi sont des matrices de Jordan, si t = 1, on a un seul bloc de Jordan et si de plus r = n, la matrice est diagonale 4.1.1 Réduction de Jordan d’un endomorphisme nilpotent Définition : Soient E un K−espace vectoriel de dimension n et f ∈ L(E).On dit que f est nilpotent sur K s’il existe p ∈ N tel que f p = 0 dans L (E). Pour f nilpotent, on note r = min {n ∈ N, f n = 0} que l’on appelle indice de nilpotence de f . On note N l’ensemble des endomorphismes nilpotents. Théorème 4.1.2. (de caractérisation) Soient E un K−espace vectoriel de dimension n et f ∈ L(E). Les assertions suivantes sont équivalentes : 1. f est nilpotente sur K. 2. Le polynôme caractéristique est Pf (X) = (−1)n X n dans K [X] 3. Il existe r ≤ n tel que le polynôme minimal de f soit mf (X) = X r dans K [X] 4. f trigonalisable sur K et Sp (f ) = {0} Soient E un K−espace vectoriel de dimension n et f ∈ L(E) un endomorphisme nilpotent d’indice r. On a 1 ≤ r ≤ n. 38 CHAPITRE 4. RÉDUCTION DE JORDAN ET SYSTÈMES DIFFÉRENTIELS Réduction de Jordan d’un endomorphisme nilpotent d’indice n Définition On appelle bloc de Jordan élémentaire une matrice carrée du type : 0 1 ∗ . .. ... J = . . . 1 0 0 Théorème 4.1.3. Soient E un K−espace vectoriel de dimension n et f ∈ L(E) un endomorphisme nilpotent d’indice r = n. Alors 1. Le polynôme caractéristique et le polynôme minimal de f sont respectivement Pf (X) = (−1)n X n et mf (X) = X n . 2. Il existe x tel que B = (x, f (x) , . . . , f n−1 (x)) soit une base de E (c’est à dire f cyclique). 3. Relativement à B la matrice de f est un bloc de Jordan élémentaire c’est à dire MatB (f ) = J. Démonstration : Soient E un K−espace vectoriel de dimension n et f un endomorphisme nilpotent de E d’indice de nilpotence n. On a f n = 0 et f n−1 6= 0 et il existe x ∈ E tel que f n−1 (x) 6= 0E . Il est claire que B = {f n−1 (x), f n−2 (x), . . . , f (x), x} f . Relativement à cette base 0 0 .. . 1 ··· 0 est une base de E adaptée à la réduction de Jordan de 0 1 0 ··· 0 0 1 ··· . ... ... MB (f ) = .. . .. . . . 0 ··· 4 −5 −2 Exemples A = 2 −2 −8 −5 4 −2 Déterminer la réduction de ··· Jordan de l’endomorphisme f associé à A. Le polynôme caractéristique de f est donné par PA (X) = −X 3 et d’après e théorème Cayley-Hamilton on a A3 = 0M3 . De plus 36 −18 36 A2 = 36 −18 36 −18 9 −18 6= 0M3 , 4.1. RÉDUCTION DE JORDAN 39 donc A est nilpotent d’indice 3. On a f 2 (e3 ) = (36, 36, −18) 6= (0, 0, 0), donc B = {f 2 (e3 ), f (e3 ), e3 } avec f (e3 ) = (−2, −8, −2) et e3 = (0, 0, 1) 36 3 de R adaptée à la réduction de Jordan de f . On a P = 36 −18 0 1 0 0 A = 0 0 1 . 0 0 0 est une base −2 0 −8 0 et −2 1 Exercice Donner la réduction de Jordan de l’endomorphisme associé à la matrice 4 −4 0 2 4 −4 −2 4 . B= 0 0 4 −8 0 0 2 −4 Réduction de Jordan d’un endomorphisme nilpotent d’indice r < n Théorème 4.1.4. (décomposition de Jordan pour les nilpotents) Soient E un K-espace vectoriel de dimension n et f ∈ L(E) nilpotent d’indice r < n. Alors il existe une base B telle que MatB (f ) = Diag (J1 , . . . , Jn1 ) =: J˜ où Ji est bloc de Jordan élémentaire. La matrice J˜ est appelée la réduite de Jordan de f . Soient E de dimension n, f ∈ L(E) nilpotent d’indice r < n et p ∈ N, 0 ≤ p ≤ r. Posons kp = ker f p et , dp = dim(kp ). La démonstration du théorème utilise les Lemmes suivants : Lemme 4.1.5. On a une suite d’inclusions strictes des noyaux : {0E } = k0 ( k1 ( . . . ( kr = E. Démonstration Soit p ∈ [[0, r]] et soit x ∈ kp , nous avons f p (x) = 0E ce qui entraîne f p+1 (x) = f (f p (x)) = f (0E ) = 0E d’où kp ⊂ kp+1 . Puisque f est nilpotent d’indice r, on a f r−1 6= 0 et il existe u ∈ E tel que f r−1 (u) 6= 0E . 40 CHAPITRE 4. RÉDUCTION DE JORDAN ET SYSTÈMES DIFFÉRENTIELS Pour tout entier p ∈ [[1, r − 1]],on a f r−p (f p (u)) = f r (u) = 0E et f r−p−1 (f p (u)) = f r−1 (u) 6= 0E , donc f p (u) ∈ / kr−p−1 . Ainsi nous avons kr−p−1 ( kr−p . Lemme 4.1.6. Il existe des sous-espaces vectoriels F1 , F2 , . . . , Fr non réduits à {0E }, tels que ( kp = kp−1 ⊕ Fp , 1 ≤ p ≤ r f (Fp ) ⊂ Fp−1 , 2 ≤ p ≤ r Démonstration : Elle se fait par récurrence descendante sur p. Supposons p = r, comme kr−1 ( kr ,le sous espace kr−1 admet un supplémentaire Fr dans kr c’est à dire kr = kr−1 ⊕ Fr donc la propriété est vraie si p = r. Supposons construits les sous-espaces Fr , Fr−1 , Fp vérifiant les conditions du Lemme 1 et construisons Fp−1 . Soit x ∈ Fp ; comme Fp ⊂ kp , on a f p (x) = 0E d’où f p−1 (f (x)) = 0E ainsi f (x) ∈ kp−1 , donc f (Fp ) ⊂ kp−1 . Montrons que f (Fp ) et kp−2 sont en somme directe dans kp−1 . Soit y ∈ f (Fp ) ∩ kp−2 . On a y ∈ f (Fp ) ∩ kp−2 entraîne y ∈ f (Fp ) et y ∈ kp−1 , donc il existe t ∈ Fp tel que y = f (t) et f p−2 (y) = 0E . Donc f p−1 (t) = f p−2 (y) = 0E , on en déduit que t ∈ kp−1 . Ainsi t ∈ kp−1 ∩ kp = {0E } d’où t = 0E et y = f (t) = 0E , par suite f (Fp ) ∩ kp−2 = {0E }. Donc les sous espaces f (Fp ) et kp−1 sont en somme directe dans kp−1 . On a deux possibilité : f (Fp ) ⊕ kp−2 = kp−1 ou f (Fp ) ⊕ kp−2 ( kp−1 . Si f (Fp ) ⊕ kp−2 = kp−1 , il suffit de prendre Fp−1 = f (Fp ). Si f (Fp ) ⊕ kp−2 ( kp−1 ,le sous espace f (Fp ) ⊕ kp−2 admet un supplément Gp−1 dans kp−1 donc kp−1 = f (Fp ) ⊕ Gp−1 ⊕ kp−2 . il suffit de prendre Fp−1 = f (Fp ) ⊕ Gp−1 . Lemme 4.1.7. L’espace E est somme directe des Fi E= r M Fi . i=1 Démonstration : E = kr = kr−1 ⊕ Fr = kr−2 ⊕ Fr−1 ⊕ Fr = .. . = Fr ⊕ Fr−1 ⊕ . . . ⊕ F1 . 4.1. RÉDUCTION DE JORDAN 41 Lemme 4.1.8. L’image par f d’une base de Fp est une famille libre de Fp−1 . r P Démonstration : Soient {v1 , . . . vr }, une base de Fp et α1 , . . . , αr ∈ K tel que αi f (vi ) = i=1 0E . r X αi f (vi ) = 0E r X =⇒ f ( αi vi ) = 0E i=1 i=1 =⇒ r X αi vi ∈ ker f = k1 ⊂ kp−1 i=1 =⇒ =⇒ r X i=1 r X αi vi ∈ Fp ∩ kp−1 = 0E αi vi = 0E i=1 =⇒ α1 = . . . = αr = 0. On en déduit que {f (v1 ), . . . , f (vr )} est libre dans Fp−1 . Remarque. Les lemmes ci-dessus permettent de construire une base E adaptée à la réduction de Jordan. Définition. À toute suite finie d’entiers (n1 , . . . , nr ) vérifiant 0 < n1 ≤ n2 ≤ · · · ≤ nr , on peut associer un tableau à r lignes, dont la i-ème ligne comporte ni cases. On note TY (n1 , . . . , nr ) ce tableau appelé tableau de Young. Un tableau de Young est un tableau formé de cases disposées en lignes et dont les longueurs vont en croissant. Le nombre de tableaux de Young en tout n cases est égal au nombre de partitions de l’entier n. Un exemple de tableau de Young, TY (1, 3, 4, 6) 1 3 4 6 Dḿonstration du théorème Soit 1 ≤ p ≤ r − 1 et Bp une base de Fp . L’ensemble r [ B= Bp est une base de E adaptée à la réduction de Jordan de f . p=1 Posons dp = dim(kp ) comme kp = kp−1 ⊕ Fp on a dim(Fp ) = dp − dp−1 . À partir de la suite (dp − dp−1 )1≤p≤r−1 on construit le tableau de Young associé à la valeur propre 42 CHAPITRE 4. RÉDUCTION DE JORDAN ET SYSTÈMES DIFFÉRENTIELS λ = 0, en plaçant à la première ligne le nombre de cases égal la dimension de Fr où r est l’indice de nilpotence de f et les vecteurs qui composent cette ligne sont ceux qui engendrent Fr . La deuxième ligne est composée de dim(Fr−1 ) les vecteurs qui composent cette ligne sont images par f des vecteurs engendrant Fr complétes au besoin par des vecteurs appartenant à kr−1 qui ne sont pas dans kr−2 , ainsi de suite et le nombre de cases de la dernière ligne est égal à la dimension du sous espace propre E0 associée “a la valeur propre 0. Fr u1 u2 Fr−1 .. . f (u1 ) .. . f (u2 ) .. . W1 .. . F1 f r−1 (u1 ) f r−1 (u2 ) ··· ··· Chaque colonne du tableau correspond à un bloc de Jordan donc le nombre de blocs de valeurs est égal à la dimension du sous-espace propre. Exemple 1 Donnons la réduction de Jordan de l’endomorphisme f ∈ L(R4 ) associé à la matrice A avec 0 0 3 4 0 0 2 4 . A= 0 0 0 2 0 0 0 0 Le polynôme caractéristique est donné par PA (X) = X 4 et on 0 0 A2 = 0 0 0 0 6 0 0 4 0 0 0 0 0 0 A3 = 0. L’endomorphisme f est nilpotent d’indice 3. Déterminons la suite des noyaux. On a k3 = ker f 3 = R4 car f 3 = 0, x y k2 = ker f 2 = (x, y, z, t) ∈ R4 / A2 z = t 0 . 0 0 0 4.1. RÉDUCTION DE JORDAN 43 Ce qui donne k2 = Vect(e1 , e2 , e3 ) e1 = (1, 0, 0, 0), e2 3z + 4t = k1 = ker f donc (x, y, z, t) ∈ k1 ⇐⇒ 2z + 3t = t = = (0, 1, 0, 0), e3 = (0, 0, 1, 0). 0 0 ⇐⇒ z = t = 0, donc 0 k1 = Vect(e1 , e2 ) avec e1 = (1, 0, 0, 0) et e2 = (0, 1, 0, 0). La suite des dimensions des Fp est donnée par d3 − d2 = 1; d2 − d1 = 1; d1 − d0 = d1 = 2. le sous espace F3 est un supplémentaire de k2 dans R4 c’est à dire k3 = k2 ⊕F3 , donc on peut prendre F3 = Vect(e4 ). Le vecteur f (e4 ) appartient à F2 et comme dim(F2 ) = 1, on peut prendre F2 = Vect f (e4 ). De plus comme f 2 (e4 ) ∈ F1 , on complète f 2 (e4 ) par e2 pour avoir une base de F1 . Ce qui donne le tableau de Young suivant : F3 e4 F2 f (e4 ) F1 f 2 (e4 ) e2 . Ce tableau indique qu’il y a deux blocs de Jordan associée à valeur propre 0 de la matrice A, un bloc de taille 3 et un bloc de taille 1. Posons v1 = f 2 (e4 ) = (6, 4, 0, 0) = 6e1 +4e2 , v2 = f (e4 ) = (4, 3, 2, 0) = 4e1 +3e2 +2e3 , v3 = e4 et v4 = e2 de sorte que A = {v1 , v2 , v3 , v4 } soit une base de R4 adaptée à la réduction de Jordan de A. Ce qui montre qu’une réduction de Jordan de A est donnée par : 6 4 0 1 0 0 ! 0 0 1 0 0 et P = 4 3 = 0 2 0 0 0 0 J2 0 0 0 0 0 0 A0 = Avec J1 0 0 1 0 J1 = 0 0 1 et J2 = (0) 0 0 0 0 0 0 1 . 0 0 1 0 44 CHAPITRE 4. RÉDUCTION DE JORDAN ET SYSTÈMES DIFFÉRENTIELS Exemple 2 Donner la réduction de la matrice 0 0 0 0 0 0 0 0 A= 2 2 1 1 −2 −4 −4 −2 Le polynôme caractéristique de A est PA (X) = X 4 . On a A2 = 0 donc A est nilpotent d’indice 2. Déterminons la suite des noyaux k2 = ker f 2 = R4 . Soit (x, y, z, t) ∈ k1 ⇐⇒ x + 2y + 2z + t = 0 =⇒ t = −x − 2y − 2z, donc k1 = {(x, y, z, −x − 2y − 2z) x, y, z ∈ R} = Vect{u1 , u2 , u3 }, avec u1 = (1, 0, 0, −1); u1 = (1, 0, 0, −1); u3 = (0, 0, 1, −2). On a d2 = 4; d1 = 3 donc d2 − d1 = 1; d1 − d0 = d1 = 3. Le sous espace F2 est un supplémentaire de k1 dans R4 (R4 = k2 = k1 ⊕ F2 ), donc on peut prendre F2 = Vect(e4 ). Le vecteur f (e4 ) = (0, 0, 1, −2) = u3 appartient à F1 . On peut compléter f (e4 ) par u1 = (1, 0, 0, −1) et u1 = (1, 0, 0, −1) pour avoir F1 = Vect(f (e4 ), u1 , u2 ). Posons v1 = f (e4 ) = (0, 0, 1, −2), v2 = e4 , v3 = u1 et v4 = u2 . L’ensemble B = {v1 , v2 , v3 , v4 } est base adaptée à la réduction de Jordan de A. Ce qui donne le tableau de Young F2 e4 k1 = F1 f (e4 ) u1 u2 La réduction de Jordan de A est donnée par 0 1 0 0 0 0 A = 0 0 (0) 0 0 0 0 0 0 0 1 0 0 0 0 0 1 et P = 0 0 1 0 0 (0) −2 1 −2 −2 Exemple 3 Donner la réduction de la matrice 1 1 0 0 0 −1 0 1 0 0 1 0 −1 0 0 A= −1 0 1 1 1 1 0 −1 −1 −1 −1 0 1 1 1 0 0 0 0 0 0 4.1. RÉDUCTION DE JORDAN 45 Le polynôme caractéristique de A est PA (X) = X 6 . Les puissances successives de A sont −1 0 0 0 0 −1 1 0 0 0 0 1 1 0 0 0 3 A2 = 0 −1 −1 0 0 0 et A = 0. 0 1 1 0 0 0 0 −1 −1 0 0 0 0 1 L’endomorphisme f est nilpotent des d’indice 3. Déterminons la suite = 0 x2 x1 + x2 (x1 , x2 , x3 , x4 , x5 , x6 ) ∈ k1 ⇐⇒ x3 −x1 + x3 = 0 ⇐⇒ x −x + x + x + x = 0 2 3 4 5 5 noyaux : = −x1 = x1 = −x4 donc k1 = Vect{e1 − e2 + e3 , e4 − e5 , e6 } = Vect{u1 , u2 , e3 } avec u1 = (1, −1, 1, 0, 0, 0) = e1 − e2 + e3 ; u2 = (0, 0, 0, 1, −1, 0) = e4 − e5 et u3 = (0, 0, 0, 0, 0, 1) = e6 . De même (x1 , x2 , x3 , x4 , x5 , x6 ) ∈ k2 ⇐⇒ x2 + x3 = 0, donc k2 = Vect{e1 , e2 − e3 , e4 , e5 , e6 }. d1 = 3; d2 = 5; d3 = 6 ; d3 − d2 = 1; d2 − d1 = 2; d1 − d0 = d1 = 3. Déterminons le tableau de Young associé à l’unique valeur propre λ = 0 de la matrice A. Ce tableau est le tableau de Young associé à la suite (d3 − d2 , d2 − d1 , d1 ) = (1, 2, 3) qui constitue une partition de l’entier 6 = dim(R6 ). Comme R6 = k3 = k2 ⊕ F3 , on peut prendre F3 = Vect{e3 }. On a f (e3 ) = (0, 1, −1, 1, −1, 1) = e2 − e3 + e4 − e5 + e6 ∈ F2 . Le sous espace F2 est un supplémentaire de k1 dans k2 , c’est à dire k2 = k1 ⊕ F2 , donc on peut compléter f (e3 ) par e4 pour avoir F2 = Vect(f (e3 ), e4 ). Les vecteurs f 2 (e3 ) = (1, −1, 1, −1, 1, 1) et f (e4 ) = (0, 0, 0, 1, −1, 1) sont dans F1 = k1 on peut les compléter par e6 pour avoir F1 = k1 = Vect(f 2 (e3 ), f (e4 ), e6 ). Ce qui donne le tableau suivant : F3 e3 F2 f (e3 ) F1 f 2 (e3 ) f (e4 ) e6 e4 46 CHAPITRE 4. RÉDUCTION DE JORDAN ET SYSTÈMES DIFFÉRENTIELS Le tableau indique qu’il y’a trois blocs de Jordan, un bloc de taille 3, un de taille 2 et un bloc de taille 1. Posons v1 = f 2 (e3 ), v2 = f (e3 ), v3 = e3 , v4 = f (e4 ), v5 = e4 et v6 = e6 de sorte que B = {v1 , v2 , v3 , v4 , v5 , v6 } soit une base de R6 adaptée à la réduction de Jordan de A. Ce qui montre qu’une réduction de Jordan de A est donnée par : 1 0 0 0 0 −1 1 0 0 0 1 −1 1 0 0 P = −1 1 0 1 1 1 −1 0 −1 0 1 1 0 1 0 0 0 0 et A0 = 0 0 1 Exercice : Donner la réduction de Jordan de 0 −1 0 0 A = 0 1 0 1 0 1 On a 0 1 0 0 0 1 0 0 0 et A3 = 0, A est nilpotent d’indice 3. 0 0 0 0 0 0 0 0 0 0 0 0 0 ! 0 0 0 0 0 0 0 0 (0) −2 −1 0 0 0 0 0 0 0 0 0 −1 1 0 0 0 0 0 0 0 2 0 1 0 la matrice 0 0 0 0 0 0 −1 1 −1 0 0 A2 = 0 0 0 0 0 0 0 , 0 0 0 4.1. RÉDUCTION DE JORDAN 4.1.2 47 Réduction dans le cas Pf (X) = (λ − X)n avec λ 6= 0 Soit E un K−e.v. de dimension n ∈ N? . Soit f ∈ L(E) tel que Pf (X) = (−1)n (λ−X)n . Posons ϕ = f − λidE , d’après Cayley Hamilton, Pf (f ) = 0 donc ϕn = 0 donc ϕ est nilpotent. La réduction de Jordan de f se ramène à la réduction de Jordan de ϕ. Si P et B 0 sont les matrices obtenues pour la réduction de jordan de ϕ alors P et A0 = B 0 + λIn sont les matrices obtenues pour la réduction de jordan de f . Exemple 1 Donnons la réduction de Jordan l’endomorphisme f associé à la matrice 13 −5 −2 A= −2 7 −8 −5 4 7 3 Le polynôme caractéristique de A est P A (X) = −(X − 9) . 4 −5 −2 de sorte que la réduction de Jordan de A Posons B = A − 9I = −2 −2 −8 −5 4 −2 se ramène à la réduction de Jordan de B. Les puissances successives de B sont 36 −18 36 et B 3 = 0. B = 36 −18 36 −18 9 −18 2 Le vecteur u = e1 = (1, 0, 0) verifie f 2 (e1 ) 6= 0 donc B = {f 2 (e1 ), f (e1 ), e1 } est une base de Jordan adaptée à la réduction de Jordan de B donc de A. Les matrices obtenues pour la réduction de jordan de 0 1 0 36 0 B = 0 0 1 et P = 36 0 0 0 −18 B sont 4 1 −2 0 . −5 0 la réduction de jordan de A est obtenue par P et A0 = B 0 + 9I3 . On a 9 1 0 A0 = 0 9 1 0 0 9 48 CHAPITRE 4. RÉDUCTION DE JORDAN ET SYSTÈMES DIFFÉRENTIELS Exemple 2 Donnons la réduction de Jordan l’endomorphisme f associé à la matrice 1 0 0 0 0 1 0 0 A= 1 2 3 1 −2 −4 −4 −1 Le polynôme caractéristique de A est PA (X) = (X − 1)4 . 0 0 0 0 0 0 0 0 . On a B2 = 0 donc B Posons ϕ = f − λ idR4 et B = A − I = 1 2 2 1 −2 −4 −4 −2 est nilpotent d’indice 2 Déterminons la suite des noyaux k2 = ker ϕ2 = R4 . Soit (x, y, z, t) ∈ k1 ⇐⇒ x + 2y + 2z + t = 0 =⇒ t = −x − 2y − 2z, donc k1 = {(x, y, z, −x − 2y − 2z) x, y, z ∈ R} = vect{u1 , u2 , u3 }, avec u1 = (1, 0, 0, −1); u2 = (0, 1, 0, −2); u3 = (0, 0, 1, −2). On a d2 = 4; donc d2 − d1 = 1; d1 = 3 d1 − d0 = d1 = 3. Nous avons k2 = k1 ⊕ F2 et k1 = k0 ⊕ F1 , F2 = vect(e4 ) ; f (e4 ) = (0, 0, 1, −2) = u3 , v1 = f (e4 ) = (0, 0, 1, −2) = u3 v2 = e4 ; v3 = u1 ; v4 = u2 B = {v1 , v2 , v3 , v4 } est base adaptée à la réduction de Jordan de B Ce qui donne le tableau de Young F2 e4 k1 = F1 f (e4 ) u1 u2 La réduction de Jordan de B est donnée par 0 0 B0 = 0 0 1 0 0 0 0 1 0 0 0 0 0 1 et P = 1 0 0 0 (0) 0 0 0 0 (0) −2 1 −2 −2 1 1 0 0 0 1 0 0 Donc P et A0 = B 0 + I = 0 0 (1) 0 sont les matrices obtenues pour la 0 0 0 (1) réduction de jordan de f . 0 0 4.1. RÉDUCTION DE JORDAN 4.1.3 49 Réduction de Jordan dans le cas général Soient E un K−e.v. de dimension n ∈ N? et f ∈ L(E) tel que r Y Pf (X) = (λi − X)αi i=1 avec r X αi = n i=1 à λi , on a E = r ≥ 2 et λi 6= λj si i 6= j. Soit Nλi le sous-espace caractéristique associé r M Nλi . Soit gi l’endomorphisme de Nλi induit par f − λidE i=1 gi : Nλi 7−→ Nλi x 7−→ gi (x) = (f − λi idE )(x) gi est nilpotent d’indice ri où ri est la multiplicité de λi dans le polynôme minimal de f . La réduction de Jordan de f se ramène à la réduction de Jordan de gi . Exemple Donnons la réduction de Jordan l’endomorphisme f associé à la matrice 1 −1 2 −2 0 0 1 −1 . A= 1 −1 1 0 1 −1 1 0 Le polynôme caractéristique de A est PA (X) = X 2 (X − 1)2 les valeurs propres de f sont Spec(A) = {0, 1} Pour λ = 0 on a la suite des noyaux {0} ( ker f ( ker f 2 = N0 où N0 est le sous espace caractéristique associé à la valeur propre 0. On a 1 −1 1 −1 0 0 0 0 2 , A = 2 −2 2 −1 2 −2 2 −1 k0 = {0}, k1 = ker fet k2 = ker f 2 x − y + 2t − 2z = 0 (x, y, z, t) ∈ k1 =⇒ z−t = 0 x−y+t = 0 k1 = V ect{u1 } avec u1 = (1, 1, 0, 0) =⇒ 0 = z = t, x=y 50 CHAPITRE 4. RÉDUCTION DE JORDAN ET SYSTÈMES DIFFÉRENTIELS dim k1 = 1 ( x−y+z−t (x, y, z, t) ∈ K2 =⇒ = 0 =⇒ y = x + z, t = 0 2x − 2y + 2z − t = 0 donc k2 = V ect{u1 , u2 } avec u2 = (0, 1, 1, 0). On a d2 = 2. k2 = k1 ⊕ F2 et k1 = F1 = E0 où E0 est le sous espace propre associé à la valeur propre 0. Les dimensions de F1 et F2 sont respectivement d2 − d1 = 1 et d1 − d0 = d1 = 1 de sorte qu’on a le tableau de Young suivant F2 u2 F1 f (u2 ) . Il y a un seul bloc de Jordan associé à la valeur propre 0. 0 0 Pour λ = 1, posons ϕ = f − idR4 , k1 = ker ϕ et k2 = ker(ϕ)2 . On a 0 1 0 −1 2 −2 0 −1 1 −1 et (A − I)2 = 0 1 A−I = 0 0 1 −1 0 0 0 0 1 −1 1 −1 −y + 2z − 2t −y + z − t 0 Déterminons les noyaux (x, y, z, t) ∈ k1 =⇒ x−y x−y+z−t 0 donc k1 = V ect{u3 } avec u3 =(0, 0, 1, 1). −y − 3z + 3t = 0 −3 −2 1 0 3 2 . −1 0 = 0 = 0 = 0 ( =⇒ x=y = 0 z = 0 0 De même (x, y, z, t) ∈ k2 =⇒ =⇒ z = t, y = 0, y − 2z + 2t = 0 z−t = 0 0 0 0 ainsi k2 = {(x, 0, z, t)} = V ect{(1, 0, 0, 0), (0, 0, 1, 1)}. on a dim k2 = d2 = 2 0 0 0 0 0 0 k2 = k1 ⊕ F2 , k1 = F1 ; on peut prendre F2 = V ect{e1 }. Les dimensions de F2 et 0 0 0 0 F1 sont d2 − d1 = 1 et d1 − d0 = 1. Ce qui permet d’obtenir la tableau de Young suivant : 0 F2 0 F1 e1 ϕ(e1 ) Il y a un seul bloc de Jordan associé à la valeur propre 1. Posons v1 = f (u2 ) = (1, 1, 0, 0), v2 = u2 = (0, 1, 1, 0); v3 = ϕ(e1 ) = (0, 0, 1, 1) et v4 = e1 . L’ensemble B = {v1 , v2 , v3 , v4 } est une base de R4 adaptée à la réduction de Jordan de f . = t 4.2. EXPONENTIEL D’UNE MATRICE ET SYSTÈMES DIFFÉRENTIELS LINÉAIRES À COÉFFICIE A0 = J0 0 ! où J0 est un bloc de Jordan associé à la valeur propre 0 et J1 est 0 J1 un seul bloc de Jordan associé à la valeur propre 1. De sorte que la réduction de Jordan de f est donnée par : 1 1 P = 0 0 0 0 1 1 0 0 et A0 = 0 1 1 0 1 0 0 1 ! 0 0 0 0 0 0 0 0 ! 1 1 0 1 0 0 Exercice Soit α ∈ R. Déterminer suivant les valeurs de α la réduction de Jordan de l’endomorphisme fα associé à la matrice suivante : 1 α 0 0 0 1 0 0 Aα = 2 3 1 1 −2 −4 − α −4 −1 4.2 Exponentiel d’une matrice et systèmes différentiels linéaires à coéfficients constants 4.2.1 Exponentiel d’une matrice Définition : Soit E un C-espace vectoriel. On appelle norme sur E une application k, k : E −→ R+ x 7−→ kxk vérifiant les propriétés suivantes 1. kxk = 0 si et seulement si x = 0E . 2. kλxk = |λ|kxk pour tout λ ∈ C et pour tout x ∈ E. 3. kx + yk ≤ kxk + kyk pour tout x, y ∈ E. Définition : Soit Mn (R) l’ensemble des matrices carrées d’ordre n à coéfficients dans R. On appelle norme matricielle sur Mn (R) vérifiant kABk ≤ kAkkBk Remarque : Soit k, k une norme matricielle sur Mn (R), ∀A ∈ Mn (R) et ∀k ∈ N on kAkk Ak Ak . On en déduit que la série matricielle de terme général est a k k ≤ k! k! k! convergente. 52 CHAPITRE 4. RÉDUCTION DE JORDAN ET SYSTÈMES DIFFÉRENTIELS Définition : Soit A ∈ Mn (R). On appelle exponentiel de A la somme de a série matri∞ X Ak Ak A on note e = et on a eA ∈ Mn (R). cielle de terme général k! k ! k=0 Proposition 4.2.1. Soit A, B ∈ Mn (R). Si AB = BA alors eA+B = eA eB Démonstration. Comme AB = BA, la formule du binôme entraîne m X m k m−k m (A + B) = A B . On a k k=0 m P (A + B)m = m! = = m k k=0 Ak B m−k m! m X k=0 m X k=0 m! Ak B m−k m !k !(m − k) ! Ak B m−k . k ! (m − k) ! Donc e A+B ∞ X m X Ak B m−k = k ! (m − k) ! m=0 k=0 ! ∞ ! ∞ X Am X Ak = k! m! m=0 k=0 = eA eB Corollaire 4.2.2. Soit A ∈ Mn (R). Alors eA est inversible d’inverse e−A Démonstration : Comme les matrices A et −A commutent, on a In = eA+(−A) = eA e−A , donc eA est inversible et (eA )−1 = e−A . Proposition 4.2.3. Soit A ∈ Mn (R) et P ∈ Mn (R) une matrice inversible. Alors eP −1 AP = P −1 eA P Démonstration : Posons B = P −1 AP , on a B k = P −1 Ak P , donc m X Bk k=0 k! = m X P −1 Ak P k=0 = P −1 k! m X Ak k=0 k! ! P. 4.2. EXPONENTIEL D’UNE MATRICE ET SYSTÈMES DIFFÉRENTIELS LINÉAIRES À COÉFFICIE L’application ϕ : Mn (R) −→ Mn (R) 7−→ P −1 M P M m Bk P est continue car elle est linéaire, donc la limite lors m tend vers ∞ de est k ! k=0 m k PA −1 égale à la limite lors m tend vers ∞ de P P , on en déduit que k=0 k ! eP −1 AP = P −1 eA P. Théorème 4.2.4. Soit A ∈ Mn (R). Alors la fonction f : R −→ Mn (R) etA 7−→ t d(etA ) = A etA . dt Démonstration : Comme toutes les normes sur Mn (R) sont équivalentes, on peut fixer est dérivable sur R et on a une norme matricielle k, k sur Mn (R). On a A e −I − A = I + A + ∞ X Ak k=2 k! −I −A= ∞ X Ak k=2 k! . Donc A ke −I − Ak = k ≤ ∞ X Ak k=2 ∞ X k=2 k! k ∞ kAk k X kAk+2 k = k! (k + 2) ! k=0 =≤ kAk2 ∞ X kAk k (k + 2) ! k=0 =≤ kAk2 ekAk Soit t, t0 ∈ R on a etA − et0 A etA − et0 A −(t − t0 )A et0 A − A et0 = t − t0 t − t0 (t−t0 )A t0 A e e − et0 A −(t − t0 )A et0 A = t − t0 (t−t0 )A (e −I − (t − t0 )A) et0 A = t − t0 54 CHAPITRE 4. RÉDUCTION DE JORDAN ET SYSTÈMES DIFFÉRENTIELS Posons α = t − t0 , on a k (eαA −I − αA) et0 A etA − et0 A − A et0 = . Ainsi nous avons t − t0 α keαA −I − αAkket0 A k etA − et0 A − A et0 k ≤ t − t0 α ≤ α e|α|kAk kAk2 ket0 A k En faisant tendre t vers t0 c’est à dire si α tend vers 0 on obtient le résultat. 4.2.2 Quelques méthodes de calcul de l’exponentiel d’une matrice Dans ce qui suit nous donnons des méthodes de calcul de l’exponentiel d’une matrice. Pour les matrices diagonalisables . Soit A ∈ Mn (R) une matrice diagonalisable. Il existe une matrice diagonale D et une matrice inversible P tel que A = P DP −1 . La matrice D étant diagonale il existe λ1 , · · · , λn ∈ R tel que λ1 0 ··· 0 D= 0 .. . λ2 · · · .. . . . . 0 .. . 0 0 ··· λn . Dans ce cas pour t ∈ R, on a etD 0 ··· 0 tλ2 .. . ··· ... 0 .. . 0 ··· etλn tλ1 e 0 = . .. 0 e Le calcul de etA se ramène à un produit matriciel etA = P etD P −1 . Pour les matrices nilpotentes . Soit N ∈ Mn (R) une matrice nilpotente d’indice d. On a N k = 0 pour k ≥ d, donc on a etN = ∞ k k X t N k=0 k! = d−1 k k X t N k=0 k! . Calcul de l’exponentiel en utilisant la décomposition de Dunford . r r X Q αi Soit A ∈ Mn (R) tel que PA (X) = (λi − X) avec αi = n r ≥ 2 et λi 6= λj i=1 i=1 si i 6= j. D’après la décomposition de Dunford il existe une matrice diagonalisable D et une matrice nilpotente N tel que A = D + N et DN = N D. La matrice D 4.2. EXPONENTIEL D’UNE MATRICE ET SYSTÈMES DIFFÉRENTIELS LINÉAIRES À COÉFFICIE est donnée par D = r P λi πλi , la matrice πλi est la matrice du projecteur spectral i=1 assocé à la valeur propre λi . On a etD = r P eλi t πλi et etA = etD etN . i=1 Calcul de l’exponentiel en utilisant la décomposition de Jordan . Soient K un corps commutatif et unitaire, n ∈ N∗ et λ ∈ K et λ 1 0 ··· 0 0 λ 1 ··· 0 .. . . . . . . .. Jλ = . . = λIn + N . .. . . 1 . 0 ··· ( avec N = (aij )1≤i,j≤n avec aij = ··· ··· λ 1 si j = i + 1 0 sinon La matrice N est nilpotente d’incice n. Soit t ∈ R, etJλ = etλIn etN où etλIn = eλt In et etN n−1 k Xt k N = = k! k=0 1 t 0 1 .. . .. . t2 2 ··· t ··· ... .. . 0 0 ··· tn−1 (n − 1) ! tn−2 (n − 2) ! 0 1 . Ce qui donne pour le calcul de l’exponentiel de tJλ etJλ = etλ 1 t 0 1 .. . .. . t2 2 ··· t ··· .. . 0 0 ··· .. . tn−1 (n − 1) ! tn−2 (n − 2) ! 0 1 . Soit A une matrice décomposée en blocs de Jordan. Jλ 0 1 . .. A= 0 Jλr . 56 CHAPITRE 4. RÉDUCTION DE JORDAN ET SYSTÈMES DIFFÉRENTIELS où les Jλi sont des matrices de Jordan, alors on a etJλ1 0 .. etA = 0 . etJλr . Cas particulier des matrices carrées d’ordre 2 Nous donnons ! d’abord la classification des matrices carrées d’ordre 2. a b Soit A = ∈ Mn (K) une matrice d’ordre 2 à coéfficients dans un corps commutatif c d et unitaire K. Si K = C alors le polynôme caractéristique de A est scindé. Si PA a deux racines complexes alors A est diagonalisable donc semblable à une matrice diagonale et on se ramène au cas diagonalisable pour le calcul de l’exponentiel. Si PA a une racine complexe ! double la matrice A est trigonalisable et est semblable à un bloc de Jordan λ 1 et le calcul de l’exponentiel est connu dans ce cas. 0 λ Si K = R et Si PA a toutes ses racines réelles alors A est comme dans le cas complexe semblable à une matrice diagonale ou à une matrice de Jordan. Si PA (X) = X 2 −Tr AX + det A n’a aucune racine réelle son discriminant ∆ = (Tr A)2 − 4 det A est strictement (Tr A)2 + det A. En posant négatif et il existe b ∈ R strictement positif tel que b2 = − 4 Tr A a= , on a 2 PA (X) = X 2 − Tr AX + det A Tr A = X2 − 2 X + det A 2 Tr A 2 (Tr A)2 = (X − ) − + det A 2 4 = (X − a)2 + b2 . Soit f un endomorphisme R2 dont la matrice relativement à la base canonique C de 1 R2 est A et soit v1 un vecteur non nul de R2 . Posons v2 = (av1 − f (v1 )). Comme f b n’a pas de valeurs propre réelle, v1 n’est pas un vecteur propre de f donc v1 et f (v1 ) sont linéairement indépendants. Comme f (v1 ) = av1 − bv2 , les vecteurs v1 et v2 sont 2 linéairement indépendants. Ainsi B = {v1 , v2 } est une base ! de R . Posons f (v2 ) = cv1 + a c dv2 , la matrice de f relativement à B soit B = . −b d 4.2. EXPONENTIEL D’UNE MATRICE ET SYSTÈMES DIFFÉRENTIELS LINÉAIRES À COÉFFICIE 2a = a + d Puisque Tr A = 2a et det A = a2 + b2 on a ad + bc = a2 + b2 ! a b en déduit que B = . On a donc le théorème suivant : −b a d’où d = a et c = b. On Théorème 4.2.5. Soit A ∈ M2 (R) une matrice d’ordre 2 à coéfficients dans R, alors 1. Ou bien A est semblable à une matrice diagonale de M2 (R). 2. Ou bien A est semblable à une matrice de Jordan ! λ 1 . 0 λ 3. Ou bien il existe un unique couple (a, b) ∈ R2 avec b > 0 tel que A soit semblable à la matrice a b ! . −b a Déterminons l’exponentiel de la matrice A = identité et J = ! 0 −1 1 0 a b −b a ! = aI + bJ où I est la matrice . On a J 2 = −I, donc ∀k ∈ N, J 2k = (−1)k I et J 2k = (−1)k J. Donc +∞ X k=0 +∞ (−1)k (bt)2k I (2k) ! ! +∞ X (−1)k (bt)2k I (2k) ! k=0 X 1 (btJ)2k = (2k) ! k=0 = = (cos bt)I et +∞ X k=0 +∞ (−1)k (bt)2k+1 I (2k + 1) ! ! +∞ X (−1)k (bt)2k+1 I (2k + 1) ! k=0 X 1 (btJ)2k+1 = (2k + 1) ! k=0 = = (sin bt)I 58 CHAPITRE 4. RÉDUCTION DE JORDAN ET SYSTÈMES DIFFÉRENTIELS On déduit de ses deux expressions le calcul de l’exponentiel de tA etA = eatI ebtJ = eat ebtJ = eat 4.2.3 cos bt − sin bt sin bt ! cos bt Système différentiel Définition. On appelle système différentiel linéaire à coefficient constant, un système d’équations différentielles de la forme : 1 = a11 x1 + a12 x2 + . . . + a1n xn + b1 (t) dx dt dx2 = a21 x1 + a22 x2 + . . . + a2n xn + b2 (t) dt .. . dxn = an1 x1 + an2 x2 + . . . + ann xn + bn (t) dt où aij ∈ R sont constants, I un intervalle ouvert de R, les xi : I → R et bi : I → R sont des applications dérivables.la matrice A = (aij )1≤i≤n,1≤j≤n est matrice du système différentiel. Si I = R et bi = 0 ∀i, on dit que le système différentiel est homogène. Écriture matricielle : Posons A = (aij )1≤i≤n,1≤j≤n x1 , X= x2 .. . xn b 1 b2 et B = . . .. bn Le système différentiel s’ecrit : dx1 a x + a12 x2 + · · · + a1n xn dt 11 1 dx2 dX dt a21 x1 + a22 x2 + · · · + a2n xn = . = .. .. dt . dxn an1 x1 + an2 x2 + · · · + ann xn dt Dans le cas d’un système homogème on a dX = AX. dt b1 + b2 .. . = AX + B. bn 4.2. EXPONENTIEL D’UNE MATRICE ET SYSTÈMES DIFFÉRENTIELS LINÉAIRES À COÉFFICIE Définition . Soit A ∈ Mn (R), I un intervalle ouvert de R et B : I −→ Rn une application. dX Une solution du système différentiel = AX + B est une application dérivable dt dS(t) = AS(t) + B(t). S : I −→ Rn telle que dt Proposition 4.2.6. Soit A ∈ Mn (R). L’ensemble des solutions du système diffédX rentiel homogène = AX est un sous espace vectoriel du R-espace vectoriel des dt applications de R dans Rn . Démonstration . 1. L’application nulle de R dans Rn est solution. 2. Soit S1 : I −→ Rn et S2 : I −→ Rn deux solutions du système différentiel et dX α ∈ R. Notons par X 0 . Nous avons dt (αS1 (t) + S2 )0 = αS10 (t) + S20 (t) = αAS1 + AS2 = A(αS1 + S2 ); donc αS1 + S2 est une solution du système diiférentiel. On en déduit que l’ensemble des solutions du système différentiel homogène est un sous espace vectoriel. Théorème 4.2.7. Soit A ∈ Mn (R), I un intervalle ouvert de R et B : I −→ Rn une application et S0 une solution particulière du système différentiel X 0 = AX +B. Alors les solutions du système différentiel X 0 = AX + B sont les applications de la forme S + S0 où S est une solution du système homogème X 0 = AX. Démonstration : Soit S une solution du système homogène X 0 = AX et S0 une solution particulière du système différentiel X 0 = AX + B. De S 0 = AS et S00 = AS0 + B, on déduit (S(t) + S0 )0 = S 0 (t) + S00 (t) = AS + (AS0 + B) = A(S + S0 ) + B; 60 CHAPITRE 4. RÉDUCTION DE JORDAN ET SYSTÈMES DIFFÉRENTIELS donc S + S0 est solution du système différentiel X 0 = AX + B. Montrons maintenant que toute solution est de cette forme. Soit U une solution du système différentiel X 0 = AX + B. On a (U − S0 )0 = U 0 − S00 = (AU + B) − (AS0 + B) = A(U − S0 ), donc S = U − S0 est une solution du système homogène X 0 = AX et nous avons U = S + S0 . On en déduit que les solutions les solutions du système différentiel X 0 = AX + B sont de la forme S + S0 où S est une solution du système homogème X 0 = AX. Résolution d’un système homogène Il découle de ce qui précède que la résolution du système différentiel X 0 = AX + B se ramène à la résolution du système homogène X 0 = AX et à trouver une solution particulière du système X 0 = AX + B. Proposition 4.2.8. Soit A ∈ Mn (R),P ∈ GLn (R) dont les coéfficients sont constants et Y : I −→ Rn une application. Alors P Y est solution du système différentiel X 0 = AX si et seulement si Y est solution du système différentiel X 0 = (P −1 AP )X. Démonstration : Soit Y : I −→ Rn une application dérivable, alors nous avons : (P Y )0 = A(P Y ) ⇐⇒ P Y 0 = A(P Y ) ⇐⇒ Y 0 = (P −1 AP )Y On en déduit le résultat. Théorème 4.2.9. Soit A ∈ Mn (R). Les solutions du système différentiel X 0 = AX sont les applications de la forme S : R −→ t où X0 ∈ Rn est constant. Rn 7−→ S(t) = etA X0 4.2. EXPONENTIEL D’UNE MATRICE ET SYSTÈMES DIFFÉRENTIELS LINÉAIRES À COÉFFICIE Démonstration : Soit X0 ∈ Rn , montrons d’abord que l’application S(t) = etA X0 est solution du système différentiel X 0 = AX. On a S 0 (t) = (etA X0 )0 = (etA )0 X0 = A etA X0 = AS(t). Donc S(t) = etA X0 est solution du système différentiel homogène X 0 = AX. Montrons que toute les solutions sont de cette forme. Soit S une solution et soit f (t) = e−tA S(t). En dérivant les deux membres de cette égalité on obtient f 0 (t) = −A e−tA S(t) + e−tA S 0 (t) = −A e−tA S(t) + e−tA AS(t) = 0. L’application f est constante donc il existe X0 ∈ Rn tel que f (t) = e−tA S(t) = X0 . On en déduit que S(t) = etA X0 . Corollaire 4.2.10. Soit A ∈ Mn (R),t0 ∈ R et X0 ∈ Rn . Alors la fonction S(t) = e(t−t0 )A X0 est l’unique solution du système différentiel X 0 = AX vérifiant S(t0 ) = X0 . Démonstration : Montrons que la fonction S(t) = e(t−t0 )A X0 est une solution de l’équation différentiel X 0 = AX. On a S(t) = e(t−t0 )A X0 = etA e−t0 A X0 = etA Y0 . Avec Y0 = e−t0 A X0 , donc S est solution de l’équation différentiel X 0 = AX vérifiant S(t0 ) = eo X0 = X0 . Soit T une solution de X 0 = AX telle que T (t0 ) = X0 . D’après le théorème ci-dessus il existe Z0 ∈ Rn tel que T (t) = etA Z0 . On a X0 = T (t0 ) = et0 A Z0 , donc Z0 = e−t0 A X0 = Y0 . On en déduit que S = T . 62 CHAPITRE 4. RÉDUCTION DE JORDAN ET SYSTÈMES DIFFÉRENTIELS Exemple : Résoudre dx1 = 3x1 − x2 + x3 − 7x4 dt dx2 = 9x1 − 3x2 − 7x3 − x4 dt dx 3 = 4x3 − 8x4 dt dx4 = 2x3 − 4x4 dt La matrice associée à ce système différentiel est 3 −1 1 −7 9 −3 −7 −1 A= 0 0 4 −8 0 0 2 −4 . Pour résoudre le système différentiel il suffit de déterminer l’exponentiel de la matrice A pour cela déterminons d’abord la réduction de Jordan de A. Le polynôme caractéristique de A est PA (X) = X 4 de plus A2 = 0, donc A est nilpotent d’indice 2. Un calcul facile montre que k1 = ker A = Vect(u1 , u2 ) avec u1 = (1, 3, 0, 0) et u2 = (0, −5, 2, 1), comme A2 = 0 on a k2 = ker A2 = R4 . On a R4 = k1 ⊕ F2 , F2 est un supplémentaire de k1 dans R4 donc on peut prendre F2 = ~(e3 , e4 = avec e3 = (0, 0, 1, 0) et e4 = (0, 0, 0, 1). On a F1 = k1 , d2 = dim k2 = 4, d1 = dim k1 = 2. Ce qui donne le tableau de Young associé à la matrice A : F2 e3 F1 e4 A(e3 ) A(e4 ) Il y a deux blocs de Jordan chacune de taille 2. Posons v1 = A(e3 ) = (1, −7, 4, 2) , v2 = e3 , v3 = A(e4 ) = (−7, −1, −8, −4) et v4 = e4 . L’ensemble B = {v1 , v2 , v3 , v4 } est une base de R4 adaptée à la réduction de Jordan de A. Cette réduction est donnée par 0 −7 0 −1 0 0 P = et A = 4 1 −8 0 2 0 −4 1 1 0 7 avec J1 = J2 = 0 1 0 0 0 1 0 0 0 0 0 0 ! 0 0 ! = 0 1 0 0 0 0 ! et etJ1 = etJ2 = 1 t 0 1 ! . J1 0 0 J2 ! , 4.2. EXPONENTIEL D’UNE MATRICE ET SYSTÈMES DIFFÉRENTIELS LINÉAIRES À COÉFFICIE Ce qui donne la décomposition en blocs de l’exponentiel de A0 : e tA0 = etJ1 0 0 etJ2 z1 ! 1 t 0 0 0 1 0 0 . = 0 0 1 t 0 0 0 1 z2 . On a dX = AX si et seulement si dZ = A0 Z. Posons X = P Z avec Z = dt dt z3 z4 dZ Les solutions du système différentiel = A0 Z sont les fonctions dt Z(t) = e tA0 1 t 0 0 a a + bt 0 1 0 0 b b Z0 = 0 0 1 t c = c + dt d d 0 0 0 1 On en déduit que les solutions du système différentiel 1 0 7 . dX = AX sont les fonctions dt a + bt 0 −7 0 −1 0 b X(t) = P Z(t) = 4 1 −8 0 c + dt d 2 0 −4 1 Résolution de l’équation X’=AX+B par la méthode de la variation de la constante Les solutions du système différentiel X 0 = AX + B sont les applications de la forme S + S0 où S est une solution du système homogème X 0 = AX et S0 est une solution particulir̀e de X 0 = AX + B. Les solutions de l’équation homogène sont les fonctions S(t) = etA X0 . La recherche d’une solution particulière peut se faire par la méthode de la variation de la constante. Cette méthode consiste à déterminer une fonction dérivable Λ : I −→ Rn la fonction S(t) = etA Λ(t) soit solution du système différentiel X 0 = AX +B. Si la fonction S(t) est dérivable et est solution du système différentiel X 0 = AX + B 64 CHAPITRE 4. RÉDUCTION DE JORDAN ET SYSTÈMES DIFFÉRENTIELS alors on a S 0 (t) = (etA )0 Λ(t) + etA Λ0 (t) = A etA Λ(t) + etA Λ0 (t) = AS(t) + etA Λ0 (t) = AS(t) + B. Ce qui équivaut à Λ0 (t) = e−tA B(t). 4.2.4 Équations différentielles linéaires d’ordre n à coéfficients constants Définition. On appelle équation différentielle linéaire homogène et scalaire d’ordre n à coéfficients constants une équation différentielle de la forme : x(n) (t) + an−1 x(n−1) (t) + · · · + a1 x0 (t) + a0 x(t) où les ai sont des constantes, x : R −→ R est n fois dérivable et x(k) désigne la dérivée k-ème de la fonction x(t). Posons x0 = x, x1 = x, · · · , xn−1 = x(n−1) , x1 xn = x(n) , X = . .. xn−1 L’équation différentielle se ramène au système suivant x x1 1 x2 dX x2 = . = .. .. dt . xn −a0 x0 − a1 x1 − · · · − an−1 xn−1 Ce qui donne x0 dX = AX, où A est la matrice suivante dt 0 1 0 ··· 0 0 0 1 · · · 0 A= . . . . −a0 −a1 a2 · · · −an−1 = . 4.2. EXPONENTIEL D’UNE MATRICE ET SYSTÈMES DIFFÉRENTIELS LINÉAIRES À COÉFFICIE Exemple. Résoudre l’équation différentielle suivante y 000 − 3y 00 + 3y 0 − y = 0. y(t) y 0 (t) 0 1 0 y(t) 0 , on a dY = y 00 (t) = 0 0 1 y 0 (t) . Posons Y (t) = y (t) dt 00 0 00 00 y (t) y − 3y + 3y 1 −3 3 y (t) 000 00 0 L’équation différentielle d’ordre 3, y − 3y + 3y − y = 0 se ramène au sys0 1 0 dY . Un calcul simple montre que tème différentiel = AY avec A = 0 0 1 dt 1 −3 3 1 −2 1 3 2 3 PA (X) = −(X − 1) , (A − I) = 1 −2 1 et (A − I) = 0. la matrice A − I est 1 −2 1 nilpotente d’indice 3. Soit f l’endomorphisme de R3 dont la matrice relativement à la base canonique est A et soit ϕ = f − idR3 on a ϕ2 (e1 ) = (1, 1, 1) 6= 0R3 , la base B = {ϕ2 (e1 ), ϕ(e1 ), e1 } est adaptée à la réduction de Jordan de A. Ce qui donne 1 −1 1 P = 1 1 0 1 1 1 0 0 0 1 1 . et A = 0 0 0 1 0 dZ dY = AY est équivalente à l’équation = A0 Z. dt dt dZ 0 Les solutions du système différentiel = A Z sont les fonctions dt t2 t2 a 1 t 2 a a + bt + c 2 t t tA0 = e b + ct Z(t) = e b . b 0 1 t =e c c 0 0 1 c Posons Y = P Z et l’équation Les solutions du système différentiel sont donc les fonctions t2 a − b + c + (b − c)t + c 2 t2 = et a + bt + c . 2 t2 a + b + (b + c)t + c 2 000 00 0 Donc les solutions de l’équation différentielle y −3y +3y −y = 0 sont les fonctions t2 1 −1 1 a + bt + c 2 Y = P Z = et b + ct 1 0 0 1 1 0 c t2 y(t) = a − b + c + (b − c)t + c . 2 66 CHAPITRE 4. RÉDUCTION DE JORDAN ET SYSTÈMES DIFFÉRENTIELS Chapitre 5 PROJECTION ORTHOGONAL 5.1 Propriété Soit E un espace euclidien et F un sous-espace vectoriel de E. On a E = F ⊕ F ⊥ ; on considère l’application πF : E −→ E x = x1 + x2 7→ x1 , x1 ∈ F, x2 ∈ F ⊥ Définition 5.1.1. L’endomorphisme πF est appélé projection orthogonale sur F parallèlement à F ⊥ . L’endomorphisme idE − πF = πF ⊥ est appelé projection orthogonale sur F ⊥ parallèlement à F . πF est caractérisé par ∀x ∈ E, πF (x) ∈ F et x − πF (x) ∈ F ⊥ . Théorème 5.1.2. Soit (E, <, >) un espace euclidien, F un sous-espace vectoriel de E, F 6= E et F 6= {0E }, et πF la projection orthogonale sur F . Alors on a : a) πF2 = πF b) ker πF = F ⊥ et im πF = F c) πF⊥ = idE − πF d) πF ◦ πF ⊥ = πF ⊥ ◦ πF = 0 Démonstration. a) : Soit x ∈ E, πF (x) ∈ F et x − πF (x) ∈ F ⊥ πF (x − πF (x)) = 0 ⇒ πF (x) − πF2 (x) = 0 ⇒ πF (x) = πF2 (x). Donc πF2 = π. b) Soit x ∈ ker πF ⇔ πF (x) = 0 ⇔ x − πf (x) ∈ F ⊥ ⇔ x ∈ F ⊥ . Donc ker πF = F ⊥ Ainsi x ∈ F ⇔ πF (x) = x ⇔ x ∈ im πF , donc im πF = F . c) ∀x ∈ E, x = πF (x)+x−πF (x) = πF (x)+πF ⊥ (x) ⇒ idE = πF +πF ⊥ ⇒ πF ⊥ = idE −πF . d) πF ◦ πF ⊥ = πF ⊥ ◦ (idE −πF ) = πF − πF2 = 0 67 68 CHAPITRE 5. PROJECTION ORTHOGONAL 5.2 Détermination de la projection orthogonale Soit E un espace euclidien, F un sous-espace vectoriel de E, β = {e1 , e2 , . . . , ep } une base orthogonale de F . Théorème 5.2.1. Soit (E, <, >) un espace euclidien, F un sous-espace vectoriel de E et p P β = {e1 , e2 , . . . , ep } une base orthogonale de F. Alors on a : πF (x) = < x, ei > ei et πF ⊥ (x) = x − p P i=1 < x, ei > ei i=1 Démonstration. Complétons β par une base de orthogonale de F ⊥ , β 0 = {ep+1 , . . . , en } pour avoir une base A = {e1 , e2 , . . . , ep , ep+1 , . . . , en } de E orthogonale p p n n P P P P < x, ei > ei = < x, ei > ei + ∀x ∈ E, x = < x, ei > ei ⇒ πF (x) = < x, ei > i=1 ei et πF ⊥ (x) = p+1 i=1 n P < x, ei > ei = x − i=1 < x, ei > ei i=1 i=p+1 Exemple 5.2.2. p P 1) E = R4 , F = {(x, y, z, t) ∈ R4 /x = y = z = t}. Donc F = vect(u1 ) avec u1 = (1, 1, 1, 1). Posons e1 = 12 (1, 1, 1, 1). Donc β = {e1 } est une base orthonormale de F ; ∀u = (x, y, z, t) ∈ R4 , πF (u) =< u, e1 > e1 πF (u) = ( 12 x+ 12 y + 12 z + 12 t)e1 = 14 (x+y +z +t, x+y +z +t, x+y +z +t, x+y +z +t). 2) E = R4 muni du produit scolaire usuel, F = {(x, y, z, t) ∈ R4 /x + y + z + t = 0} e1 = √1 (−1, 1, 0, 0); e2 2 = √1 (−1, −1, 2, 0); e3 6 = 1 √ (−1, 1, −1, 3); 2 3 4 β = {e1 , e2 , e3 } est une base orthonormée de F. On a ∀X = (x, y, z, t) ∈ R ; πF (X) =< X, e1 > e1 + < X, e2 > e2 + < X, e3 > e3 = − √12 (x − y)(− √12 , √12 , 0, 0) − √1 (x 6 + y − 2z)(− √16 , − √16 , √26 , 0) − 1 √ (x 2 3 + y + z − 3t)(− 2√1 3 , − 2√1 3 , − 2√1 3 , 2√3 3 ) πF (X) = 41 (3x − y − z − t, −x + 3y − z − t, −x − y + 3z − t, −x − y − z + 3t) Définition 5.2.3. Soit (E, <, >) un espace euclidien, F un sous-espace vectoriel de E et x ∈ E. On appelle distance de x à F, le réel noté d(x, F ) et défini par d(x, F ) = inf y∈F kx − yk Le théorème suivant donne une caractérisation de la projection orthogonale. Théorème 5.2.4. Soit (E, <, >) un espace euclidien et F un sous-espace vectoriel de E. Alors ∀x ∈ E, ∃!y0 ∈ F tel que kx − y0 k= inf y∈F kx − yk= d(x, F ), y0 = πF (x) la projection orthogonale de x sur F est la meilleure approximation de x par un élément de F. 5.2. DÉTERMINATION DE LA PROJECTION ORTHOGONALE 69 Démonstration. Soit x ∈ E, x = πF (x) + (idE −πF )(x) ∀y ∈ F, x − y = πF (x) − y + (idE −πF )(x). D’après Pythagore, kx − yk2 = kπF (x) − yk2 +kidE −πF (x)k2 ⇒ kx − yk2 ≥ kπF (x) − xk2 ⇒ kπF (x) − xk≤ kx − yk On a légalité si πF (x) − y = 0E c’est à dire si y = πF (x). Comme πF (x) ∈ F , on a miny∈F kx − yk= kx − πF (x)k. En posant y0 = πF (x), on a d(x, F ) = kx − y0 k. L’unicité de y0 découle de l’unicité du projetté orthogonal. Théorème 5.2.5. Soit (E, <, >) un espace euclidien F et G deux sous-espaces vectoriels de E tel que G ⊂ F . Soit x ∈ E, posons x0 = πF (x) et x∗ = πG (x). Alors on a : 1) x0 − x∗ = πF ∩G⊥ (x) ; 2) πF = πG + πF ∩G⊥ Démonstration. 1) Supposons que G ⊂ F . Soit x ∈ F , posons x0 = πF (x) et ∗ x = πG (x) On a x0 = πF (x) ∈ F ; x∗ = πG (x) ∈ G ⊂ F ⇒ x∗ ∈ F ⇒ x0 − x∗ ∈ F (1) x − x0 ∈ F ⊥ ⊂ G⊥ ⇒ x − x0 ∈ G⊥ Or x∗ = πG (x) ⇒ x − x∗ ∈ G⊥ ⇒ (x − x∗ ) − (x − x0 ) ∈ G⊥ ⇒ x0 − x∗ ∈ G⊥ (2) (1) et (2) ⇒ x−x∗ ∈ F ∩G⊥ . De plus x−(x0 −x∗ ) = x−x0 +x∗ ∈ F ⊥ +G = (F ∩G⊥ )⊥ . Donc πF ∩G⊥ (x) = x − x∗ . 2) ∀x ∈ E, πF ∩G⊥ (x) = x0 − x∗ = πF (x) − πG (x) ⇒ πF (x) = πG (x) + πF ∩G⊥ (x) donc πF = πG + πF ∩G⊥ Remarque 5.2.6. Soit (E, <, >) un espace euclidien et π un projecteur de E. Alors π est un projecteur orthogonal si ker π et im π sont orthogonaux. Théorème 5.2.7. Soit (E, <, >) un espace euclidien et π un projecteur de E. Alors les énoncés suivants sont équivalents : 1) π est un projecteur orthogonal ; 2) ∀x ∈ E, ∀y ∈ E, < π(x), (y >=< x, π(y) >) ; 3) ∀x ∈ E, kπ(x)k≤ kxk Démonstration. Comme π est un projecteur, ker π ⊕ im π = E et ∀x ∈ E, x = x − π(x) + π(x) 1) ⇒ 2) Supposons que π est un projecteur orthogonal et ker π et im π sont orthogonaux 70 CHAPITRE 5. PROJECTION ORTHOGONAL (x, y) ∈ E 2 , < x − π(x), π(y) >= 0 ⇒< x, π(y) > − < π(x), π(y) >= 0 ⇒< x, π(y) >=< π(x), π(y) > (i). De même < π(x), y − π(y) >= 0 ⇒< π(x), y > − < π(x), π(y) >= 0 Donc < π(x), y >=< π(x), π(y) > (ii) (i) et (ii) ⇒< x, π(y) >=< π(x), y > 2) ⇒ 3) Supposons < π(x), y >=< x, π(y) >, ∀(x, y) ∈ E 2 et montrons que x − π(x) et π(x) sont orthogonaux. < π(x), x − π(x) >=< x, π(x − π(x)) >=< x, π(x) − π 2 (x) >=< x, 0E >= 0, donc π(x) et x − π(x) sont orthogonaux, d’après le Théorème de Pythagore, kxk2 = kπ(x)k+kx − π(x)k2 ⇒ kxk2 ≥ kπ(x)k2 ⇒ kπ(x)k≤ kxk 3) ⇒ 1) : Supposons que ∀x ∈ E, kπ(x)k≤ kxk et montrons que (ker π)⊥ = im π. Comme π est un projecteur, E = ker π ⊕ im π ⇒ dim im π = dim E − dim ker π = dim(ker π)⊥ Donc pour montrer que im π = (ker π)⊥ , il suffit de montrer que (ker π)⊥ ⊂ im π Raisonnons par absurde en supposant qu’il existe x0 ∈ (ker π)⊥ tel que x0 ∈ / im π. y0 = x0 − π(x0 ) ∈ ker π et y0 6= 0E (car x0 ∈ / im π) π(x0 ) = x0 −y0 , kπ(x0 )k2 = kx0 k+ky0 k2 ⇒ kπ(x0 )k2 > kx0 k2 ⇒ kπ(x0 )k> kx0 k ce qui contre dit la supposition. Par suite (ker π)⊥ im π ⊂ im π et comme dim im π = dim(ker π)⊥ On a im π = (ker π)⊥ donc π est un projecteur orthogonal. 5.3 Matrice d’une projection orthogonale Soit (E, <, >) un espace euclidien, β = {e1 , e2 , . . . , en } une base orthonormée de E et soit {v1 , v2 , . . . , vn } une famille libre de vecteurs de E. On pose F = Vect(v1 , v2 , . . . , vn ).