Réduction des endomorphismes I) Etude du problème On considère un endomorphisme dans un espace vectoriel de dimension , rapporté à une base ℬ. Soit la matrice de cet endomorphisme dans la base ℬ. On cherche s’il existe des vecteurs de , non nuls, nuls tels que et soient colinéaires. Soit un vecteur solution, et λ le nombre réel tel que . Pour ce réel λ, appelons ! l’ensemble des vecteurs " de tels que " ". Donc ! #" $ , " "% Montrons que ! est un sous-espace vectoriel de . On a évidemment par définition de ! & ! ' On sait que 0) 0) Or 0) 0) Donc 0) 0) Donc 0) $ ! Donc ! * + Soit ", et "- deux vecteurs de ! , et soit . et / deux nombres réels. Soit " .", 0 /"- . On a " .", 0 /"- .", 0 /"- . ", 0 / " .", 0 /"- " Donc " $ ! ! est stable par combinaison linéaire. Donc ! est un sous-espace vectoriel de . 1.1) Rappel du problème 1.2) Autre définition de 12 Appelons 3! l’application définie sur par 4 $ , 3! 5 Comme est un endomorphisme de , $ , donc 5 $ , et donc 3! est une application de dans . Montrons que 3! est une application linéaire. Soit et 6 deux vecteurs de et . un nombre réels. On a 3! . 0 6 . 0 6 5 . 0 6 . 0 6 5 . 5 6 . 5 0 6 5 6 .3! 0 3! 6 En définitive, 3! est une application linéaire de dans , c’est un endomorphisme de . On a $ ker3! 8 3! 0) 8 5 0) 8 8 $ ! On a donc ! ker 3! Quelle est la matrice associée à 3! ? Soit : le vecteur colonne associé à un vecteur . Soit " 3! et 6 . Soit ; le vecteur colonne associé à 6 et < le vecteur colonne associé à ". On a 3! 5 6 5 Donc <;5 : Si est la matrice de dans la base de dans laquelle on travaille, on a : ; : On en déduit que < : 5 : 5 =: La matrice associée à 3! dans cette base est donc 5 =. 1.3) Dimension de 12 Nous avons vu que ! est un sous-espace vectoriel de , donc sa dimension est inférieure ou égale à celle de . Nous avons vu également que ! ker 3! Si l'endomorphisme 3! est bijectif, alors son noyau ne contient que le vecteur nul et sa dimension est égale à 0. S'il n'est pas bijectif alors sa dimension est un entier ! compris entre 1 et la dimension de l'espace . 1.4) Intersection des sous-espaces 12 Considérons deux valeurs , et - différentes. Etudions l'intersection de ces deux sous-espaces vectoriels !> et !? . Soit un vecteur tel que $ !> @!? . On aura donc 3!> 0) 3!? 0) Donc , et - On en tire , - Donc , 5 - 0) Comme ,5 - *0 On a nécessairement Donc 4 , $ A, 4 - $ A, si 0) , * - alors !> B !? #0) % 1.5) Familles libres de vecteurs des espaces 12 Supposons qu'il existe au moins deux réels distincts , et - tels que les espaces !> et !? ne soient pas réduits au vecteur nul (c'est-à-dire contiennent d'autres vecteurs que le vecteur nul). Soit , un vecteur non nul de !> et - un vecteur non nul de !? . Montrons que la famille #, , - % est une famille libre. Soit . et / deux nombres réels tels que ., 0 /- 0) . Si . 0, alors on a /- 0) et comme - * 0) , on a / 0. Si . * 0, alors on peut écrire / , 5 . Comme - $ !? , et comme , est colinéaire à - , on a également , $ !? . Donc , $ !> et , $ !? et donc , $ !> B !? Or !> B !? #0) % , 0) Donc Ce qui est contradictoire à l'hypothèse. Donc si ., 0 /- 0) le seul cas possible est : . / 0. La famille est libre. On va généraliser cette propriété par récurrence. L'hypothèse de récurrence est la suivante : on dispose de réels tous différents , , … , D , tels que les sous-espaces vectoriels !> , … , !E ne soient pas réduits au vecteur nul et l'on considère vecteurs non nuls , , … , D tels que pour tout F, 1 H F H , I $ !J . Alors la famille #, , … , D % est une famille libre. On considère alors un nombre réel supplémentaire DK, différent de tous les autres, tel que le sousespace !EL> contienne des vecteurs non nuls. Soit DK, un vecteur non nul de !EL> . Montrons que la famille #, , … , D , DK, % est libre. Supposons qu'elle soit liée. Comme la famille #, , … , D % est libre, cela signifie que le vecteur DK, s'exprime comme combinaison linéaire des autres vecteurs. On pourra donc écrire DK, sous la forme DK, ., , 0 M 0 .D D On a donc DK, ., , 0 M 0 .D D ., , 0 M 0 .D D Par définition de !J , On a donc Or 4F, 1 H F H 0 1, NI O DK, DK, DK, DK, ., , , 0 M 0 .D DK, ., , I I D D 0 M 0 .D D DK, ., , 0 M 0 DK, .D D On a donc Et donc DK, ., , DK, ., , 0M0 0M0 DK, .D D DK, .D D ., , , 0 M 0 .D 5 ., , , 0 M 0 .D D D D D 0) ., DK, 5 , , 0 M 0 .D DK, 5 D D 0 Comme la famille #, , … , D % est libre par hypothèse de récurrence, on en déduit que ., DK, 5 , M .D DK, 5 D 0 Or tous les I sont différents entre eux, donc 4F, 1 H F H , DK, 5 I * 0 Et donc ., M .D 0 Mais alors DK, 0, 0 M 0 0D 0) Ce qui est contradictoire au fait que nous avons pris DK, non nul. Donc l'hypothèse : la famille #, , … , D , DK, % est liée conduit à une contradiction. C'est donc une famille libre. Il y a hérédité. Donc 4 P 2, si l'on considère réels , , … , D tous différents tels que les sous-espaces !> , … , !E ne soient pas réduits au vecteur nul et vecteurs non nuls , , … , D tels que 4F, 1 H F H , I $ !J , alors Ce qui donne la famille #, , … , D % est une famille libre de l'espace vectoriel . Soit un endomorphisme de et un réel tel que le sous-espace ! ne soit pas réduit au vecteur nul (il se peut qu'il n'existe aucun réel λ remplissant cette propriété). Si le réel λ existe, on dit qu'il s'agit d'une valeur propre de l'endomorphisme . Le sous-espace ! est appelé sous-espace propre associé à la valeur propre λ. Les vecteurs non nuls d'un sous-espace propre ! sont appelés vecteurs propres associés à la valeur propre λ. On appelle spectre de R l'ensemble des valeurs propres de . Nous avons alors le théorème suivant 1.6) Valeurs propres Théorème Le nombre d'éléments du spectre de est inférieur ou égal à la dimension de l'espace . Ce théorème se démontre par l'absurde. Supposons que dim et que le spectre de contienne au moins 0 1 élements. Nous aurions donc 0 1 sous-espaces !J non réduits au vecteur nul, associés à 0 1 valeurs propres distinctes. On peut alors choisir dans chacun de ces sous-espaces un vecteur non nul. On aura alors une famille de 0 1 vecteurs , , … , DK, dont on a vu qu'ils forment une famille libre de . Or dans un espace vectoriel, nous avons vu qu'une famille libre contient toujours un nombre de vecteurs inférieur ou égal à la dimension de l'espace. Il y a donc contradiction. II) Diagonalisation 2.1) Le théorème des dimensions Nous savons maintenant que nous aurons au plus autant de valeurs propres distinctes que la dimension de l'espace . Posons dim et supposons que nous ayons T valeurs propres distinctes, , , … , U . On a donc 0HTH Si T 0, il n'y a aucune question à se poser. On se place donc dans la situation où T P 1. Chacun des sous-espaces propres !J a une dimension I comprise entre 1 et (puisqu'il s'agit de sous-espaces vectoriels de contenant au moins un vecteur non nul). Le sous-espace !J a donc une base de I vecteurs. Appelons V!J , , … , V!JDJ les vecteurs d'une telle base. Puis "réunissons" les vecteurs des différentes bases des espaces propres en une seule famille qui comprendra donc , 0 M 0 U vecteurs. Montrons que la famille ainsi constituée est une famille libre de . On considère donc , 0 M 0 U réels tels que .,, V!> , 0 .,- V!> - 0 M 0 .,D> V!> D> 0 .-, V!? , 0 M 0 .-D? V!? D? 0 .W, V!X , 0 M 0 .UDY V!Y DY 0) On désigne chaque partie de la somme correspondant aux vecteurs du même sous-espace!J comme un seul vecteur: .,, V!> , 0 M 0 .,D> V!> D> , .-, V!? , 0 M 0 .-D? V!? D? Z .U, V!Y , 0 M 0 .UDY V!Y DY U , 0 - 0 M 0 U 0) Chacun des vecteurs I étant dans l'espace !J . Cette somme s'écrit La famille #, , … , U % est liée puisque n'importe quel vecteur de la famille est soit nul soit s'exprime comme combinaison linéaire des autres. Or nous savons que puisque chacun de ces T vecteurs vient d'un espace propre différent, s'ils ne sont pas nuls, ils forment une famille libre. Il faut donc qu'ils soient tous égaux à 0) pour que cette égalité soit possible. On aura donc nécessairement 4F, 1 H F H T, I 0) Examinons par exemple ce que donne , 0) . On a .,, V!> , 0 M 0 .,D> V!> D> 0) Mais les vecteurs V!> , , … , V!> D> forment une base de !> . Il s'agit donc d'une famille libre. Et donc .,, M .,D> 0 On démontre ainsi que pour chaque vecteur I , tous les coefficients sont nuls. En définitive tous les coefficients de la somme .,, V!> , 0 .,- V!> - 0 M 0 .,D> V!> D> 0 .-, V!? , 0 M 0 .-D? V!? D? 0 .W, V!X , 0 M 0 .UDY V!Y DY sont nuls. La famille est donc libre. Le nombre de vecteurs qui la composent est donc inférieur ou égal à la dimension de l'espace vectoriel. Théorème Soit , , … , U les T valeurs propres d'un endomorphisme défini sur un espace vectoriel de dimension . Soit I la dimension du sous-espace propre !J associé à la valeur propre I, 1 H F H T. , 0 M 0 U H Alors 2.2) Endomorphisme diagonalisable Définition Soit un endomorphisme défini sur un espace vectoriel de dimension . On suppose que admet au moins une valeur propre. Soit , , … , U les valeurs propres de et , , … , U la dimension des sous espaces propres associés. Si , 0 M 0 U , on dit que est un endomorphisme diagonalisable. Une conséquence importante est que la famille que nous avons constituée dans le 2.1 par la réunion des bases de chaque sous-espace propre est une famille libre de , 0 M 0 U vecteurs. C'est donc une base de 1. Théorème Quand l'endomorphisme est diagonalisable, la famille obtenue par la réunion des bases des différents sous-espaces propres est une base de l'espace vectoriel . 2.3) Expression de la matrice de R dans cette base On conserve les notations vues précédemment. On appelle #V!> , , … , V!> D> % la base formée de , vecteurs de !> , #V!? , , … , V!? D? % la base formée de vecteurs de !? , … , #V!Y , , … , V!Y DY % la base formée de U vecteurs de !Y . La réunion de ces bases donne une base dont un élément peut être décrit de la façon suivant : V!J [ avec 1 H F H T et 1 H \ H I Par définition V!J [ $ !J . Donc ]V!J[ ^ La matrice de dans cette base va donc s'écrire , 0 à Z `Z `Z `Z `Z Z 0 _ 0 b 0 Z Z Z Z Z M M b , 0 Z Z Z Z M M Z 0 - 0 Z Z Z M M Z Z b b b Z Z M I V!J [ M Z Z Z 0 - 0 Z M M Z Z Z Z b b b M M Z Z Z Z Z b b 0 0 Z e Z d Zd Zd Zd Zd 0 Uc C'est une matrice diagonale. Les éléments de la diagonale sont les valeurs propres écrites autant de fois que la dimension du sous-espace propre associé. Les valeurs propres sont les nombres réels λ tels que les espaces ! ne soient pas réduits au vecteur nul. Or nous avons vu avec les notations adoptées jusqu'ici que ! ker 3! ! contient d'autres vecteurs que le vecteur nul si et seulement si 3! n'est pas bijectif, autrement dit si la matrice de 3! n'est pas inversible. Nous avons vu que si est la matrice de , alors la matrice de 3! est : 5 = Méthode On cherche les valeurs propres éventuelles d'un endomorphisme de matrice en déterminant les nombres réels λ tels que la matrice 5 = ne soit pas inversible. 2.4) Calculs des valeurs propres et détermination d'une base de vecteurs propres Un premier élément de contrôle est que le nombre de valeurs propres ne peut pas être supérieur à la dimension de l'espace vectoriel dans lequel on travaille. Les vecteurs qui composeront éventuellement la base de vecteurs propres dans laquelle l'endomorphisme sera diagonalisable sont obtenus à partir des bases de chacun des sous-espaces propres. Il convient donc de déterminer les bases de ces sous-espaces. C'est-à-dire le noyau de l'application 3! . Cela revient donc à chercher la "forme" des vecteurs colonnes : non nuls tels que 5 =: f Ceci fait pour chaque valeur propre, on additionne les dimensions des sous-espaces propres. Un autre test est que cette somme donnera toujours un nombre inférieur ou égal à la dimension de l'espace. Si cette somme est égale à la dimension de l'espace, l'endomorphisme (on dit aussi : la matrice est diagonalisable : cela veut dire qu'en réunissant les vecteurs obtenus pour les bases des sousespaces propres, on obtient une base de formée de vecteurs propres. La matrice de l'endomorphisme dans cette base est diagonale, sa diagonale est formée des valeurs propres apparaissant chacune autant de fois que la dimension du sous-espace propre associé. Le plus souvent, comme nous avons déterminé les bases de chaque sous-espace propre, nous avons les composantes de tous les vecteurs propres dans la base de départ. Nous pouvons donc écrire la matrice de passage g de la base de départ à cette "base propre". Nous savons alors par les formules de changement de bases que si h est la matrice (diagonale) de l'endomorphisme dans la base propre, on a h g i, g Si cette somme n'est pas égale à la dimension de l'espace, alors l'endomorphisme n'est pas diagonalisable : on ne pourra pas trouver de base dans laquelle la matrice de l'endomorphisme soit une matrice diagonale. 2.5) Un exemple Reprenons l'exemple vu en TD. On considère l'endomorphisme de Aj associé dans la base canonique à la matrice 1 51 2 2 0 0 1 51 k l 1 51 1 0 1 51 1 0 Nous avons montré que les seuls nombres réels λ pour lesquels la matrice 5 = n'est pas inversible sont : 0,51, 3. Ce sont donc les valeurs propres de (ou de . On peut écrire nT #0, 51,3% Cet endomorphisme est-il diagonalisable? Déterminons les sous-espaces propres. On cherche donc pour chacune des valeurs λ la forme des vecteurs : tels que 5 =: f Pour 0, on étudie : f p q Posons : o t. r s On a p p 5 q 0 2r 0 2s 1 51 2 2 q r5s 0 0 1 51 : k lo t k l r p 5 q0r 1 51 1 0 p5q0r s 1 51 1 0 : f donne donc le système p 5 q 0 2r 0 2s 0 v r5s 0 u p5q0r0 On en tire un système équivalent p 5 q 54r v rs u p 5 q 5r Ce qui donne 5r 54r Donc r0 Donc s0 Le système se ramène à l'équation p q. On a donc x #p, p, 0,0, p $ A% #p1,1,0,0, p $ A% 6yzs { 1,1,0,0 | On a en particulier dim x 1 Pour On a 51, on étudie 5 51=: 0 =: f On a donc le système 2 51 2 0 =: k0 1 1 1 51 2 1 51 1 2p 5 q 0 2r 0 2s p 2 q0r5s q 51 lo t k l r p 5 q 0 2r 0 s p5q0r0s 1 2p 5 q 0 2r 0 2s 0 q0r5s 0 v Σ ~ p 5 q 0 2r 0 p5q0r0s 0 Transformons ce système par le pivot de Gauss. 2W 5 , v On fait W . j 2j 5 , On obtient 2p 5 q 0 2r 0 2s 0 q0r5s 0 v Σ ~ 5q 0 2r 5 2s 0 5q 0 Ce qui donne immédiatement p 52s Σ u r s v q0 On a donc i, #52s, 0, s, s, s $ A% #s52,0,1,1, s $ A% 6yzs { 52,0,1,1 | On a donc en particulier dim i, 1 Examinons le cas On a 3. On étudie 5 3=: f 52p 5 q 0 2r 0 2s p 52 51 2 2 53q 0 r 5 s q 0 53 1 51 5 3=: k l lo t k r p 5 q 5 2r 1 51 52 0 s p 5 q 0 r 5 3s 1 51 1 53 Ce qui revient donc à résoudre le système 52p 5 q 0 2r 0 2s 0 53q 0 r 5 s 0 v Σ, ~ p 5 q 5 2r 0 p 5 q 0 r 5 3s 0 On procède encore par le pivot de Gauss. 2W 0 , v On fait W . On obtient j 2j 0 , 52p 5 q 0 2r 0 2s 0 53q 0 r 5 s 0 v Σ, ~ 53q 5 2r 0 2s 0 53q 0 4r 5 4s 0 W 5 - v . On obtient : On applique une deuxième fois la méthode en faisant W j j 5 - 52p 5 q 0 2r 0 2s 0 Σ, ~ 53q 0 r 5 s 0 v 3s 5 3r 0 3r 5 3s 0 Ce qui se ramène à un système de trois équations à quatre inconnues. On choisit s comme inconnue secondaire. On a On en déduit Σ, u 52p 0 4s 0 53q 0 v rs p 2s Σ, u q 0 v rs W #2s, 0, s, s, s $ A% #s2,0,1,1, s $ A% 6yzs { 2,0,1,1 | On a en particulier dim W 1 On a donc dim x 0 dim i, 0 dim W 3 { 4 L'endomorphisme n'est pas diagonalisable. On a 2.6) Quelques cas particuliers importants a) S'il n'y a pas de valeur propre, la question de la diagonalisation ne se pose même pas. Cette situation peut apparaître dans des endomorphismes de A-D . b) Cas où il n'y a qu'une seule valeur propre. Supposons que nous n'ayons trouvé qu'une valeur propre λ. Si l'endomorphisme était diagonalisable il existerait une base dans laquelle sa matrice serait diagonale. Appelons h cette matrice et g la matrice de passage entre la base de départ et cette base. Si est la matrice de l'endomorphisme dans la base de départ, on a h g i, g Mais h est une matrice diagonale ne contenant qu'une valeur propre λ. On peut écrire donc h = On a = gi, g Donc g =gi, g=g i, = Donc en dehors du cas où dès le départ on a = (mais dans ce cas on ne voit pas très bien pourquoi on chercherait à rendre diagonale une matrice qui est déjà diagonale…) cette situation est impossible. Donc dans le cas le plus général, si l'on a une seule valeur propre, l'endomorphisme n'est pas diagonalisable. c) Cas où le nombre de valeurs propres est égal à la dimension de l'espace On se place dans un espace de dimension et l'on suppose que l'on a valeurs propres. On a donc sous espaces propres dont la dimension est un nombre supérieur ou égal à 1. Posons I dim !J On a donc Donc 4F, 1 H F H , I P 1 D D I P 1 I, Or nous avons vu que D I, I H I, D Donc I I, L'endomorphisme est donc diagonalisable. Nous avons un renseignement supplémentaire : la dimension de chaque sous espace propre est égale à 1. Théorème : On considère un endomorphisme d'un espace vectoriel de dimension . Si cet endomorphisme admet exactement valeurs propres, alors cet endomorphisme est diagonalisable et la dimension de chacun des sous espaces propres est égale à 1. d) Endomorphisme associé à une matrice triangulaire Soit un endomorphisme d'un espace vectoriel . On suppose que la matrice de dans une base de est une matrice triangulaire . La recherche des valeurs propres se fait toujours par la détermination des réels λ tels que la matrice 5 = ne soit pas inversible. Mais 5 = est encore une matrice triangulaire dont les éléments diagonaux sont de la forme s 5 , où s est le 5ème élément de la diagonale. Elle n'est pas inversible si et seulement si s . On a donc le résultat suivant. Dans une matrice triangulaire, les valeurs propres sont les éléments diagonaux. En particulier une matrice triangulaire dont les éléments diagonaux sont tous distincts est diagonalisable. Dire que l'endomorphisme n'est pas bijectif, c'est dire que la matrice n'est pas inversible. Or 5 0=. On en déduit donc que 0 est valeur propre de . Réciproquement si 0 est valeur propre de , alors 5 0= n'est pas inversible et donc l'endomorphisme n'est pas bijectif. 2.7) Valeurs propres et bijectivité Théorème : Un endomorphisme n'est pas bijectif si et seulement si il admet 0 comme valeur propre. 2.8) Valeurs propres de R On note D l'endomorphisme … . D termes Si est la matrice associée à dans la base de départ, on démontre par une récurrence évidente que l'endomorphisme D est associé à la matrice D . Soit λ une valeur propre de et un vecteur propre associé. On a NO On démontre alors par une récurrence immédiate que D D On en déduit le théorème suivant : On a donc - Théorème Si λ est une valeur propre de l'endomorphisme et est un vecteur propre associé à λ, alors D est une valeur propre de l'endomorphisme D et le même vecteur est associé à D . Conséquences : Dans certains cas particuliers, cette propriété est intéressante. 1 0 1 Considérons la matrice 0 0 1 51 0 51 Cette matrice est-elle diagonalisable ? On a 0 0 0 - 51 0 51 0 0 0 0 0 0 W 0 0 0 0 0 0 Si est une valeur propre de , on aura W valeur propre de W . Or la matrice W est triangulaire, sa seule valeur propre est 0. On aura donc W 0 Et donc 0 La matrice n'est pas diagonalisable car elle n'admet qu'une seule valeur propre sans être la matrice nulle. Considérons cet autre exemple. 2 0 1 Soit la matrice 51 52 51 0 0 3 Quelles sont les valeurs propres possibles de cette matrice ? Calculons - . On trouve 4 0 5 0 4 52 0 0 9 Si λ valeur propre de , alors est valeur propre de - . Comme - est une matrice triangulaire, on a nécessairement 4 ou - 9 Les valeurs propres possibles de sont donc 52, 2, 53, 3. Pour savoir si cette matrice est diagonalisable, on peut alors chercher pour chacune de ces valeurs si la matrice 5 = est inversible ou pas. On a 4 0 1 0 2= 51 0 51 0 0 5 Cette matrice n'est pas inversible car la famille de vecteurs colonnes est liée. Donc 52 est valeur propre. On a 0 0 1 5 2= 51 54 51 0 0 1 Cette matrice n'est pas inversible pour la même raison. On a 5 0 1 0 3= 51 1 51 0 0 6 On ne peut pas répondre immédiatement. Passons au dernier cas On a 51 0 1 5 3= 51 55 51 0 0 0 On voit facilement que 5, 0 W 2Cette matrice n'est pas inversible. Donc 3 est valeur propre de . Nous avons trois valeurs propres distinctes : 52,2,3 dans un espace de dimension 3. Il ne peut pas y en avoir d'autres. Donc la matrice est diagonalisable. On sait que les sous-espaces propres ont pour dimension 1 et qu'il s'agit des noyaux des applications 3! . Or ces noyaux sont visibles sur les matrices. 4 0 1 Pour 3i- , la matrice est 0 2= 51 0 51. On a évidemment 0 0 5 3i- y- 0) Donc i- 6yzs { y- | 0 0 1 Pour 3- , la matrice est 5 2= 51 54 51. 0 0 1 On a évidemment 3- y- 43- y, Donc 3- y- 5 4y, 0) Donc - 6yzs { 54y, 0 y- | 51 0 1 Pour 3W , la matrice est 5 3= 51 55 51. 0 0 0 On a vu que 5N3W y, 0 3W yW O 23W y- 3W 5y, 5 2y- 0 5yW 0) Ce qui donne W 6yzs { 5y, 5 2y- 0 5yW | On peut donc affirmer que la matrice 0 54 5 g 1 1 52 0 0 5 Est inversible et que 52 0 0 g i, g 0 2 0 0 0 3 On a donc 2.9) Matrices symétriques a) Transposée d'une matrice : La matrice transposée d'une matrice de ,D A est la matrice notée obtenue en échangeant les lignes et les colonnes dans la matrice . Par exemple, si ] 1 4 53 ^, on a 0 3 7 1 0 4 3 53 7 La transposée d'un vecteur colonne est un vecteur ligne : 1 2 1 2 3 3 La transposée d'une matrice carrée est une matrice carrée de même ordre : 1 2 1 5 ] ^] ^ 5 6 2 6 b) Matrices symétriques Définition : Une matrice carrée est symétrique si elle est égale à sa transposée. Par exemple 1 2 3 2 5 51 3 51 8 On a bien Intuitivement, une matrice est symétrique si ces éléments sont symétriques par rapport à la diagonale. c) Un théorème bien utile : On a un théorème utile et admis Théorème Toute matrice symétrique est diagonalisable. Nous rencontrerons souvent cette situation. 2.10) Polynôme annulateur Polynôme de matrices Un polynôme de matrices est une combinaison linéaire d'une matrice et de ses puissances successive. On aura par exemple g .D D 0 M 0 ., 0 .x = Où .x , … , .D sont des nombres réels. Polynôme annulateur d'une matrice On dit qu'un polynôme g est annulateur pour la matrice si g f 2 2 2 Par exemple si 2 3 3 52 53 53 On a 4 4 4 - 4 4 4 54 54 54 8 8 8 W 8 8 8 58 58 58 On en déduit simplement que W 5 2- f Le polynôme gp p W 5 2p - est annulateur pour la matrice . Attention, l'égalité W 5 2- f peut se factoriser mais n'implique absolument pas que - 5 2 f On a 4 4 4 2 2 2 0 0 0 4 4 4 5 2 2 3 3 0 52 52 54 54 54 52 53 53 0 2 2 Cela vient du fait que la matrice n'est pas inversible. Polynôme annulateur et valeurs propres Soit g un polynôme annulateur d'une matrice . g .D D 0 M 0 ., 0 .x = On suppose que la matrice admet au moins une valeur propre . Soit : un vecteur propre (colonne) associé à la valeur propre λ. On a .D D 0 M 0 ., 0 .x =: f: f Donc .D D : 0 M 0 ., : 0 .x =: f Mais l'on sait que 4\ P 1, [ : [ : On en déduit que .D D : 0 M 0 ., : 0 .x : f Ce qui donne .D D 0 M 0 ., 0 .x : f Comme le vecteur colonne : n'est pas nul, on a : .D D 0 M 0 ., 0 .x 0 Donc λ est une racine du polynôme gp 0. En pratique cela signifie que si l'on connaît un polynôme annulateur d'une matrice, on pourra rechercher les valeurs propres de cette matrice parmi les racines de ce polynôme. Si l'on reprend l'exemple précédent. On a vu que W 5 2- f On cherche les racines de gp p W 5 2p On obtient p W 5 2p - p - p 5 2 0 Ce qui donne p 0 ou p 2 Les valeurs propres possibles sont 0 ou 2. 2 2 2 La matrice 2 3 3 est évidemment non inversible : elle possède deux vecteurs colonnes 52 53 53 identiques. Il y a deux autres vecteurs colonnes non colinéaires. Le rang de la matrice est donc 2 et la dimension du noyau est égale à1. Le sous-espace propre x est donc de dimension 1. On a 0 2 2 5 2= 2 1 3 52 53 55 Il est clair que cette matrice n'est pas inversible car la somme des deux premières colonnes donne la troisième. Donc 2 est bien une valeur propre. Les deux premiers vecteurs ne sont pas colinéaires, donc le rang de cette matrice est 2 et la dimension du noyau est 1. On a donc dim- 1 0 et 2 sont bien des valeurs propres, mais la matrice n'est pas diagonalisable. Trouver un polynôme annulateur Si la matrice est diagonalisable, le polynôme obtenu en faisant le produit des matrices 5 =, pour toutes les valeurs propres, en répétant chaque 5 = autant de fois que la dimension du sous-espace propre associé, est un polynôme annulateur de la matrice. 2 0 1 Par exemple la matrice 51 52 51 admet trois valeurs propres : 52,2 et 3. 0 0 3 On calcule 5 2= 0 2= 5 3= W 5 3- 5 4 0 12= On a 2 0 1 51 52 51 0 0 3 2 0 1 W 8 0 19 51 52 51 54 58 510 0 0 3 0 0 27 8 0 19 2 0 1 1 0 0 0 0 0 4 0 5 54 58 510 5 3 0 4 52 5 4 51 52 51 0 12 0 1 0 0 0 0 0 0 27 0 0 3 0 0 1 0 0 0 0 0 9