0 UNIVERSITÉ PAUL SABATIER ALGÈBRE LINÉAIRE ET BILINÉAIRE (Résumé de cours) Claude WAGSCHAL Avertissement Ce texte est un résumé du cours d’algèbre linéaire et bilinéaire de la Licence (L2). Ce texte ne comporte aucune démonstration. Chapitre 1 Rappels et Notations 1.1 Espaces vectoriels Tous les espaces vectoriels seront des espaces vectoriels (en abrégé e.v.) sur un corps K qui sera soit le corps R des nombres réels, soit le corps C des nombres complexes. Si E est un e.v., un sous-espace vectoriel (en abrégé s.e.v.) est une partie non vide F ⊂ E stable par les opérations de E, c’est-à-dire (x, y) ∈ F × F ⇒ x + y ∈ F et (λ, x) ∈ K × F ⇒ λx ∈ F. L’addition (resp. la multiplication par les scalaires) par restriction à F × F (resp. K × F ) définissent une structure vectorielle sur F . Si B est une partie de E, il existe un plus petit (pour l’inclusion) sous-espace vectoriel contenant B, appelé sous-espace vectoriel engendré par B que nous noterons s.e.v.(B). Ce sous-espace vectoriel coïncide avec l’ensemble des combinaisons linéaires (finies) d’éléments de B. Une partie B de E est dite libre si pour toute famille finie (xi )i∈I d’éléments distincts de B et toute famille (λi )i∈I de scalaires X λi xi = 0 ⇒ λi = 0 pour tout i ∈ I. i∈I On dit qu’une famille (xi )i∈I d’éléments de E est libre si, pour toute partie finie 4 CHAPITRE 1 RAPPELS ET NOTATIONS J de I et toute famille (λi )i∈J de scalaires X λi xi = 0 ⇒ λi = 0 pour tout i ∈ J. i∈J S Ceci signifie que les xi sont distincts et que la partie i∈I {xi } est libre. On dit qu’une partie B de E engendre E, ou que B est une partie génératrice, si tout x ∈ E peut s’écrire comme une combinaison linéaire d’éléments de B, soit X x= λi xi où I est un ensemble fini, xi ∈ B, λi ∈ K. i∈I Une partie libre qui engendre l’espace E est appelée une base de E. Si un e.v. admet une base finie admettant n éléments, toute autre base est finie et admet n éléments. Cet entier n est alors appelé la dimension de E, il sera noté dim K E ou simplement dim E s’il n’y a pas d’ambiguïté sur le corps. Si B = (e1 , . . . , en ) [on notera que nous avons ordonné les vecteurs de base, ceci est essentiel pour l’écriture matricielle des applications linéaires] est une base d’un espace de dimension n, tout x de E s’écrit d’une seule façon n X x= xi ei où xi ∈ K. i=1 Dans un e.v. de dimension n, toute partie libre admet au plus n éléments ; toute partie libre admettant n éléments est une base et toute partie libre est contenue dans une base (théorème de la base incomplète). Si un e.v. E admet une partie génératrice finie M , alors E est de dimension finie et M contient une base de E. De plus, si E est de dimension finie n, toute partie génératrice admet au moins n éléments et c’est une base si elle admet exactement n éléments. Tout sous-espace vectoriel F d’un e.v. E de dimension finie est de dimension finie et dim F ≤ dim E ; de plus, E = F ⇐⇒ dim E = dim F. 1.2 Application linéaire Étant donné deux e.v. E et F , on note L(E; F ) l’espace vectoriel des applications linéaires de E dans F . Lorsque E = F , une aplication linéaire de E dans E est appelée un endomorphisme de E et on pose L(E) = L(E; E). Rappelons qu’une algèbre A est un e.v. muni d’une loi de composition interne (x, y) 7→ xy associative et bilinéaire. Une algèbre est dite unitaire s’il existe un élément e ∈ A tel que ex = xe = x pour tout x ∈ A. Par exemple, L(E) est pour la composition des endomorphismes une algèbre unitaire (e = IE ) non commutative si dim E ≥ 2. Soit T ∈ L(E; F ), on définit le noyau et l’image de T par Ker T = T −1 (0) = {x ∈ E ; T x = 0} et Im T = T (E). 1.3 REPRÉSENTATION MATRICIELLE 5 Ce sont des s.e.v. de E et F respectivement et l’application T est injective si, et seulement si, son noyau est réduit à 0. Si T ∈ L(E; F ) est une bijection linéaire, la bijection réciproque T −1 : F → E est linéaire ; on dit que T est un isomorphisme et que les espaces E et F sont isomorphes. Lorsque E = F , on parle d’automorphisme. Si E et F sont isomorphes et si E est de dimension finie, alors F est de dimension finie et dim E = dim F . Tout e.v. de dimension finie n est isomorphe à Kn . Soit T ∈ L(E; F ) où E et F sont de dimension finie, alors dim E = dim Ker T + dim Im T. Si, de plus, E et F sont de même dimension, on a les équivalences T est injective ⇔ T est surjective ⇔ T est un isomorphisme. 1.3 Représentation matricielle Soient E et F deux e.v. de dimension finie, on pose q = dim E et p = dim F. Soient BE = (e1 , . . . , eq ) et BF = (f1 , . . . , fp ) des bases de E et F et soit T ∈ L(E; F ). On pose p X T ej = aij fi , aij ∈ K. i=1 Si x = Pq j=1 xj ej ∈ E, on a alors Tx = p X i=1 yi fi où yi = q X aij xj . j=1 La matrice AT = (aij ) 1≤i≤p 1≤j≤q est une matrice de type (p, q), c’est-à-dire à p lignes et q colonnes, dite matrice représentative de T dans les bases BE et BF . On notera Mp,q (K) l’espace vectoriel des matrices de type (p, q). L’application T 7→ AT est un isomorphisme de L(E; F ) sur Mp,q (K). Si G est un troisième e.v. de dimension finie muni d’une base BG et si S ∈ L(F ; G), on a alors AS◦T = AS AT (produit des matrices représentatives). Lorsque E est un espace de dimension finie n muni d’une base BE , la matrice représentative d’un endomorphisme de E est une matrice carrée de type (n, n) ; l’espace Mn,n (K) des matrices carrées est une algèbre unitaire, l’élément unité, noté In , est la matrice diagonale dont les éléments diagonaux valent 1 et l’application A ∈ L(E) 7→ AT ∈ Mn,n (K) est un isomorphisme d’algèbre. L’ensemble 6 CHAPITRE 1 RAPPELS ET NOTATIONS GL(E) des automorphismes de E est un groupe pour la composition des applications qu’on appelle le groupe linéaire de E ; de même l’ensemble GL(n; K) des matrices A ∈ Mn,n (K) inversibles est un groupe pour le produit des matrices et l’application A ∈ GL(E) 7→ AT ∈ GL(n; K) est un homomorphisme de groupe. Revenons à la situation envisagée au début de ce paragraphe et considérons 0 deux autres bases BE = (e01 , . . . , e0q ) et BF0 = (f10 , . . . , fp0 ) de E et F repectivemen. On appelle matrice de passage de la base BE (dite ancienne base) 0 à la base BE (dite nouvelle base) la matrice représentative de l’application 0 IE : (E, BE ) → (E, BE ). Si Q = (qij )1≤i,j≤q désigne cette matrice, on a par définition q X e0j = qij ei . i=1 On retiendra que les vecteurs colonnes de la matrice de passage sont les coordonnées dans l’ancienne base des vecteurs de la nouvelle base. Rappelons que cette matrice Q est inversible, soit Q ∈ GL(q; K), la matrice inverse étant la matrice 0 à la base BE . On définit de même la matrice de passage de passage de la base BE P ∈ GL(p; K) de la base BF à la base BF0 . Notons A et A0 les matrices représen0 tatives de T ∈ L(E; F ) dans les bases BE , BF et BE , BF0 respectivement. On a alors la relation A0 = P −1 AQ. Deux matrices A, A0 ∈ Mp,q (K) liées par une telle relation où P ∈ GL(p; K), 0 = BF0 ) Q ∈ GL(q; K) sont dites équivalentes. Lorsque E = F (BE = BF , BE la relation précédente s’écrit A0 = P −1 AP et on dit que les matrices A et A0 sont semblables. Ces relations sont des relations d’équivalence. La matrice repésentative d’un endomorphisme T ∈ L(E) n’est donc définie qu’à une similitude près. Le problème étudié dans les chapitres suivants est de déterminer une base de E telle que la matrice repésentative de T ∈ L(E) soit aussi simple que possible. 1.4 Déterminants Soit E un e.v. de dimension n muni d’une base B = (e1 , . . . , en ), alors il existe une unique forme n-linéaire alternée (ou antisymétrique) notée détB : E n → K telle que Pn détB (e1 , . . . , en ) = 1. Elle est donnée par la formule suivante. Soient xi = j=1 xij ej n vecteurs de E, alors X détB (x1 , . . . , xn ) = ε(σ)x1 σ(1) × . . . × xn σ(n) σ∈Sn où Sn désigne le groupe symétrique, groupe des permutations de l’ensemble {1, . . . , n}, et ε(σ) est la signature de la permutation σ. 1.4 DÉTERMINANTS 7 On définit alors le déterminant d’un endomorphisme T ∈ L(E) par dét T = détB (T e1 , . . . , T en ) ; ce scalaire ne dépend pas du choix de la base B. Les propriétés du déterminant sont supposées connues. Rappelons simplement qu’un endomorphisme T est un automorphisme si, et seulement si, dét T 6= 0 et que l’application dét : GL(E) → K∗ est un homomorphisme de groupe sur le groupe multiplicatif K∗ . Une matrice carrée A = (aij )1≤i,j≤n peut toujours être considérée comme la matrice représentative d’un endomorphisme T ∈ L(E) ; on définit alors le déterminant de A en posant dét A = dét T . On vérifie que X ε(σ)aσ(1) 1 × . . . × aσ(n) n détA = σ∈Sn et ceci prouve que le scalaire détA ne dépend pas du choix de l’espace E et de la base de cet espace. Les règles usuelles de calcul des déterminants sont supposées acquises. 8 CHAPITRE 1 RAPPELS ET NOTATIONS Chapitre 2 Réduction des endomorphismes 2.1 Valeur propre, vecteur propre Soient E un e.v. de dimension n ≥ 1, T ∈ L(E) un endomorphisme et λ ∈ K un scalaire, on pose Tλ = T − λIE et Eλ = Ker Tλ = {x ∈ E ; T x = λx}. Alors, ou bien Tλ est un automorphisme, ou bien Tλ n’est pas injectif, c’est-à-dire Eλ 6= {0}. Ceci conduit à la définition suivante. Définition 2.1.1 Un scalaire λ ∈ K est appelé une valeur propre de T si Tλ n’est pas injectif. Un vecteur x ∈ Eλ , x 6= 0, est appelé un vecteur propre associé à la valeur propre λ et Eλ le sous-espace propre associé à la valeur propre λ. L’ensemble σ(T ) ⊂ K des valeurs propres est appelé le spectre de T . Dire que λ est une valeur propre signifie donc que P (λ) ≡ dét Tλ = dét (T − λIE ) = 0. 10 CHAPITRE 2 RÉDUCTION DES ENDOMORPHISMES Si B = (e1 , . . . en ) est une base de E et A = (aij )1≤i,j≤n ∈ Mn,n (K) la matrice représentative de T dans cette base, on a X ε(σ) aσ(1) 1 −λδσ(1) 1 ×. . .× aσ(n) n −λδσ(n) n P (λ) = dét (A−λIn ) = σ∈Sn où δij désigne le symbole de Kronecker. Ceci montre que P est un polynôme de degré n de la forme n−1 X P (λ) = (−1)n λn + αj λj , αj ∈ K. j=0 Ce polynôme s’appelle le polynôme caractéristique de l’endomorphisme T ; les scalaires αj ne dépendent que de l’endomorphisme T . On a par exemple α0 = dét T et on définit la trace de T par n X n−1 ajj . Tr T = (−1) αn−1 = j=1 Un endomorphisme T admet au plus n valeurs propres. Lorsque K = C, le théorème de D’Alembert permer d’affirmer qu’il existe exactement n valeurs propres λ1 , . . . , λn , chaque valeur propre étant répétée un nombre de fois égal à sa multiplicité. On a alors n Y P (λ) = (−1)n (λ − λj ), j=1 d’où dét T = n Y λj , Tr T = j=1 n X λj . j=1 Remarque 2.1.1 Une matrice A = (aij )1≤i,j≤n ∈ Mn,n (K) peut être considérée comme la matrice représentative d’un unique endomorphisme T ∈ L(Kn ), Kn étant muni de sa base canonique, à savoir n X T : x = (xj )1≤j≤n ∈ Kn 7→ aij xj ∈ Kn . j=1 1≤i≤n Les valeurs propres de A seront par définition les valeurs propres de T , etc. Dans la pratique, on notera encore A l’endomorphisme associé à la matrice A et on utilisera pour les matrices la même terminologie que pour les endomorphismes. Une matrice à coefficients réels peut être considérée comme une matrice à coefficients complexes et il faut éventuellement préciser le corps. Par exemple, si on note σK (A) le spectre de A, on a σR (A) = σC (A) ∩ R et il faut bien distinguer le spectre réel et le spectre complexe. Proposition 2.1.1 Soient λ1 . . . , λp p valeurs propres distintes de T ∈ L(E) et x1 , . . . , xp des vecteurs propres associés à ces valeurs propres, alors la famille (xi )1≤i≤p est libre. 2.2 ENDOMORPHISME DIAGONALISABLE 11 Ceci peut être précisé comme suit. Définition 2.1.2 Soient E un e.v., E1 , . . .,Ep des s.e.v., on définit la somme de ces sous-espaces vectoriels par p X F ≡ E1 + . . . + Ep = Ei = {x1 + . . . + xp ; xi ∈ Ei pour tout 1 ≤ i ≤ p}. i=1 Alors, F est un s.e.v. de E et on dit que F est la somme directe des sous-espaces Ei si tout x ∈ F s’écrit d’une seule manière x = x1 + . . . + xp où xi ∈ Ei . On écrit alors F = p M Ei . i=1 Dire que la somme Pp i=1 Ei est directe signifie donc que ∀xi ∈ Ei , x1 + . . . + xp = 0 =⇒ xi = 0 pour tout 1 ≤ i ≤ p. On peut alors définir des projecteurs linéaires pi : F → Ei en posant pi (x) = xi si x = x1 + . . . + xp , xj ∈ Ej . Proposition 2.1.2 PpSoient λ1 . . . , λp p valeurs propres distintes de T ∈ L(E), alors la somme i=1 Eλi est directe. On utilisera ultérieurement la caractérisation suivante. Proposition 2.1.3 On suppose E de dimension finie, avec les notations de la définition 2.1.2 on a l’équivalence des propriétés suivantes Pp 1. la somme F = i=1 Ei est directe, 2. soit Bi = (eij )1≤j≤ni , ni = dim Ei , une base de Ei , alors B = (eij ) 1≤i≤p 1≤j≤ni est une base de F P, p 3. dim F = i=1 dim Ei . 2.2 Endomorphisme diagonalisable Définition 2.2.1 Un endomorphisme T ∈ L(E) est dit diagonalisable s’il existe une base de E telle que sa matrice représentative dans cette base soit diagonale. Une matrice A ∈ Mn,n (K) est dite diagonalisable si elle est semblable à une matrice diagonale. Une matrice diagonale A = (aij )1≤i,j≤n sera notée A = diag (λ1 , . . . , λn ) où λi = aii . Son polynôme caractéristique s’écrit n Y (−1)n (λ − λi ). i=1 Ceci conduit à la définition suivante. 12 CHAPITRE 2 RÉDUCTION DES ENDOMORPHISMES Définition 2.2.2 Un polynôme P ∈ K[λ] de degré n est dit scindé si n Y P (λ) = a (λ − λi ) où a ∈ K∗ et λi ∈ K. i=1 Lorsque K = C, tout polynôme est scindé (D’Alembert) ; il n’en est rien sur R. Le polynôme caractéristique d’un endomorphisme diagonalisable est nécessairement scindé ; sur R, on obtient ainsi une condition nécessaire pour qu’un endomorphisme soit diagonalisable, mais cette condition n’est pas suffisante. Théorème 2.2.1 (caractérisation des endomorphismes diagonalisables) Soient λ1 , . . . , λp les valeurs propres distinctes d’un endomorphisme T ∈ L(E), alors les propriétés suivantes sont équivalentes 1. T est diagonalisable, 2. il existe Lpune base de E constituée de vecteurs propres, 3. E = i=1 λi , PE p 4. dim E = i=1 dim Eλi . Corollaire 2.2.2 Un endomorphisme admettant n valeurs propres distinctes est diagonalisable et ses sous-espaces propres sont de dimension 1. Définition 2.2.3 Un endomorphisme T ∈ L(E) (resp. une matrice A ∈ Mn,n (K)) est dit nilpotent s’il existe un entier k ≥ 1 tel que T k = 0 (resp. Ak = 0). Le plus petit entier k ≥ 1 tel que T k = 0 (resp. Ak = 0) est appelé l’indice de nilpotence de T (resp. A). On a alors la Proposition 2.2.3 Un endomorphisme nilpotent diagonalisable est nécessairement nul. Considérons par exemple la matrice 0 1 A= . 0 0 On vérifie que A2 = 0 ; cette matrice est donc nilpotente, donc non diagonalisable, alors que son polynôme caractéristique P (λ) = λ2 est scindé. Voici enfin une propriété concernant la dimension des sous-espaces propres qui permettra d’établir une autre caractérisation des endomorphismes diagonalisables. Proposition 2.2.4 Soient λ une valeur propre de T de multiplicité m, c’est-à-dire P (X) = (X − λ)m Q(X) où Q ∈ K[X], Q(λ) 6= 0, alors dim Eλ ≤ m. En particulier, si λ est une valeur propre simple (m = 1), le sous-espace propre est de dimension 1. Corollaire 2.2.5 Un endomorphisme T ∈ L(E) est diagonalisable si, et seulement si, son polynôme caractéristique est scindé et si, pour toute valeur propre λ, la dimension du sous-espace propre est égale à la multiplicité de λ. 2.3 POLYNÔMES D’ENDOMORPHISME 13 Remarque 2.2.1 Pour calculer la dimension des sous-espaces propres, on peut utiliser la formule dim Eλ = n − r où r est le rang de T −λIE ; rappelons que, par définition, ce rang est la dimension de l’image de T − λIE . Un endomorphisme dont le polynôme caractéristique est scindé n’est pas nécessairement diagonalisable, mais nous allons montrer qu’il est toujours trigonalisable. Une matrice A = (aij )1≤i,j≤n ∈ Mn,n (K) est dite triangulaire supérieure (resp. inférieure) si aij = 0 si i > j (resp. i < j). On vérifie qu’une matrice triangulaire inférieure est toujours semblable à une matrice triangulaire supérieure ; nous raisonnerons donc avec des matrices triangulaires supérieures. Définition 2.2.4 Un endomorphisme T ∈ L(E) est dit trigonalisable s’il existe une base de E pour laquelle la matrice représentative de T est triangulaire supérieure. On a alors la caratérisation suivante. Proposition 2.2.6 Un endomorphisme T ∈ L(E) est trigonalisable si, et seulement si, son polynôme caractéristique est scindé. 2.3 Polynômes d’endomorphisme Soient T ∈ L(E) un endomorphisme et P ∈ K[X] un polynôme à une indéterminée, on pose m m X X P (T ) = aj T j si P (X) = aj X j , aj ∈ K j=0 j=0 où T 0 = IE . On définit ainsi un endomorphisme P (T ) ∈ L(E). On définit de même P (A) si A ∈ Mn,n (K) est une matrice. On notera que, pour tout P, Q ∈ K[X], (P + Q)(T ) = P (T ) + Q(T ) et (P Q)(T ) = P (T ) ◦ Q(T ) = Q(T ) ◦ P (T ). Théorème 2.3.1 (Cayley-Hamilton) Soient T ∈ L(E), P son polynôme caractéristique, alors P (T ) = 0. Corollaire 2.3.2 Soit T ∈ L(E) un endomorphisme dont le polynôme caractéristique est scindé, alors les propriétés suivantes sont équivalentes 1. T est nilpotent, 2. toutes les valeurs propres de T sont nulles, 3. le polynôme caractéristique de T est P (X) = (−1)n X n . Le théorème de Cayley-Hamilton conduit à s’intéresser à l’ensemble des polynômes annulateurs de T , soit Z = {P ∈ K[X] ; P (T ) = 0}. 14 CHAPITRE 2 RÉDUCTION DES ENDOMORPHISMES On a alors la Proposition 2.3.3 Soit T ∈ L(E), il existe un unique polynôme unitaire m ∈ Z, m 6= 0, dit polynôme minimal de T , tel que 1 ≤ degré m ≤ degré P pour tout P ∈ Z, P 6= 0. De plus, un polynôme P ∈ K[X] appartient à Z si, et seulement si, il existe un polynôme Q ∈ K[X] tel que P = mQ. Proposition 2.3.4 L’ensemble des racines du polynôme minimal coïncide avec le spectre de T . Plus précisément, si λ est une valeur propre de multiplicité q, soit P (X) = (X − λ)q Q(X), Q(λ) 6= 0, alors m(X) = (X − λ)r R(X), R(λ) 6= 0 et 1 ≤ r ≤ q. Corollaire 2.3.5 Si le polynôme caractéristique de T est scindé, il en est de même du polynôme minimal. Le polynôme minimal va nous permettre de donner une nouvelle caractérisation des endomorphismes diagonalisables. Nous utiliserons le résultat suivant. Théorème 2.3.6 (lemme des noyaux) Soient T ∈ L(E) un endomorphisme, P1 , . . . , Pk ∈ K[X] des polynômes deux à deux premiers entre eux et P = P1 × . . . × Pk , alors k M Ker P (T ) = Ker Pj (T ). j=1 Théorème 2.3.7 Un endomorphisme T ∈ L(E) est diagonalisable si, et seulement si, son polynôme minimal est scindé et à racines simples. Corollaire 2.3.8 Soient T ∈ L(E) un endomorphisme diagonalisable et F un s.e.v. de E stable par T , alors T |F ∈ L(F ) est un endomorphisme diagonalisable. Corollaire 2.3.9 Si T, T 0 ∈ L(E) sont des endomorphismes diagonalisables qui commutent, alors T + T 0 est un endomorphisme diagonalisable. Plus précisément, il existe une base de vecteurs propres communs. Exemple 2.3.1 Soit T ∈ L(E) tel que T k = IE , k ≥ 1, on suppose K = C, alors T est diagonalisable et ses valeurs propres sont des racines k ième de l’unité. 2.4 Sous-espaces caractéristiques Soit T ∈ L(E) un endomorphisme, dans ce paragraphe on suppose son polynôme caractéristique scindé, soit p Y n P (X) = (−1) (X − λi )mi où λi 6= λj si i 6= j. i=1 2.4 SOUS-ESPACES CARACTÉRISTIQUES 15 D’après le lemme des noyaux, on a p M E= Ci où Ci = Ker (T − λi IE )mi . i=1 Le s.e.v. Ci s’appelle le sous-espace caractéristique associé à la valeur propre λi . On vérifie que Eλi ⊂ Ci et T (Ci ) ⊂ Ci . On peut donc définir des endomorphismes Ti ∈ L(Ci ) en posant Ti = T |Ci ; notons Pi le polynôme caractéristique de Ti . Choisissons une base Bi de Ci et soit Ai la matrice représentative de Ti dans cette base. Alors B = (B1 , . . . , Bp ) est une base de E et la matrice représentative de T dans cette baseQest la matrice diagonale par blocs A = diag (A1 , . . . , Ap ). Il p en résulte que P = i=1 Pi . Lemme 2.4.1 On a dim Ci = mi et Pi = (−1)mi (X − λi )mi . Remarque 2.4.1 Les polynômes Pi étant scindés, on peut choisir les bases Bi telles que les matrices Ai soient triangulaires supérieures, la matrice A est alors triangulaire supérieure. De plus, on observera que la matrice Ai s’écrit alors Ai = Di + Ni où Di = diag (λi , . . . , λi ) et Ni est une matrice triangulaire supérieure dont la diagonale est nulle, donc nilpotente d’après le théorème de CayleyHamilton. Voici une application de ce qui précède à la résolution des relations de récurrence linéaires. On se donne un entier k ≥ 1, des nombres complexes α0 , . . . , αk−1 où α0 6= 0 et on cherche les suites (un )n≥0 telles que (2.4.1) un+k = αk−1 un+k−1 + . . . + α0 un pour tout entier n ≥ 0. Notons E l’espace de toutes les solutions de (2.4.1) ; E est un s.e.v. de CN . Définissons une application f : Ck → E : si v = (vj )0≤j≤k−1 ∈ Ck , on note u = f (v) ∈ E la solution de (2.4.1) telle que uj = vj pour 0 ≤ j ≤ k − 1. Alors, f : Ck → E est un isomorphisme et E est de dimension k. Afin de déterminer une base de E, on considère l’application linéaire Φ : (un )n≥0 ∈ CN 7→ (un+1 )n≥0 ∈ CN . Vu que Φ(E) ⊂ E, on peut définir un endomorphisme Ψ = Φ|E ∈ L(E) et l’application g = f −1 ◦ Ψ ◦ f : (u0 , . . . , uk−1 ) ∈ Ck 7→ (u1 , . . . , uk ) ∈ Ck . On a uk = αk−1 uk−1 + . . . + α0 u0 et la matrice représentative de g dans la base canonique de Ck est 0 1 0 . . . 0 0 1 0 . . 0 . . . . . . 0 . . . . . . 0 . . . . . . . 0 . . . . . . 0 1 α0 α1 . . . . αk−1 16 CHAPITRE 2 RÉDUCTION DES ENDOMORPHISMES Le polynôme caractéristique de Ψ est égal à celui de la matrice A et on vérifie que P (X) = (−1)k X k − αk−1 X k−1 − . . . − α0 . On pose k P (X) = (−1) p Y (X − λi )mi , Ci = Ker (Ψ − λi IE )mi . i=1 Lp On a donc E = i=1 Ci et dim Ci = mi . On vérifie que Ci = Ker (Φ−λi ICN )mi et on en déduit que u = (un )n≥0 appartient à Ci si, et seulement si, pour tout n ≥ 0, m m i i un+mi − λi un+mi −1 + λ2i un+mi −2 − · · · 1 2 mi i +(−1)mi λm i un = 0. mi On montre que ces équations admettent pour solutions les mi suites linéairement indépendantes un = λni nq , n ∈ N où 0 ≤ q ≤ mi − 1. On obtient ainsi une base de Ci , d’où une base de E. 2.5 Décomposition de Dunford Théorème 2.5.1 Soit T ∈ L(E) un endomorphisme dont le polynôme caractéristique est scindé, alors T s’écrit d’une façon unique sous la forme T = D + N (décomposition de Dunford) où D est un endomorphisme diagonalisable, N un endomorphisme nilpotent et les endomorphismes D et N commutent. De pus, on peut choisir une base Bi de chaque sous-espace caractéristique telle que, dans cette base, la matrice représentative Ai de Ti soit de la forme Ai = Di + Ni où Di = diag (λi , . . . , λi ) et Ni est une matrice triangulaire supérieure dont la diagonale est nulle. Remarque 2.5.1 L’endomorphisme T = D + N est diagonalisable si, et seulement si, N = 0. L’existence d’une telle décomposition résulte de la remarque 2.4.1. Notons T = D + N cette décomposition qui vérifie la propriété suivante p p X X si x = xi , xi ∈ Ci , alors Dx = λi xi . i=1 i=1 Pour établir l’unicité, on utilisera la proposition 2.2.3, le corollaire 2.3.9 et les lemmes suivants. Lemme 2.5.2 Soit T = D0 + N 0 une autre décomposition de Dunford, alors D et D0 commutent, ainsi que N et N 0 . Lemme 2.5.3 Si N, N 0 ∈ L(E) sont deux endomorphismes nilpotents qui commutent, N + N 0 est un endomorphisme nilpotent. 2.6 RÉDUCTION DES ENDOMORPHISMES NILPOTENTS 2.6 17 Réduction des endomorphismes nilpotents Théorème 2.6.1 Soit T ∈ L(E) un endomorphisme nilpotent dont le polynôme caractéristique est scindé, alors il existe une base de E dans laquelle la matrice représentative de T est diagonale par blocs, chaque bloc étant de la forme 0 1 0 . . . . . 0 1 0 . . . . . 0 1 0 . . . . . . . . . (matrice nilpotente de Jordan.) . . . . 0 1 0 . . . . . 0 1 . . . . . . 0 La preuve de ce théorème s’effectue comme suit. Soient P (X) = (−1)n X n le polynôme caractéristique de T (corollaire 2.3.2) et 1 ≤ p ≤ n son indice de nilpotence. On considère les s.e.v. Ni = Ker T i pour 0 ≤ i ≤ p ; on a {0} = N0 ⊂ N1 ⊂ · · · ⊂ Np = E et on construit une suite (Mi )1≤i≤p de s.e.v. non réduits à 0 telle que Ni = Ni−1 ⊕ Mi pour 1 ≤ i ≤ p et T (Mi ) ⊂ Mi−1 pour 2 ≤ i ≤ p. On a alors E= p M Mi i=1 et on vérifie que l’application T |Mi : Mi → Mi−1 est injective ; si mi = dim Mi , on en déduit que m1 ≥ m2 ≥ · · · ≥ mp > 0. On construit ensuite une base de E eij , 1 ≤ i ≤ p, 1 ≤ j ≤ mi de la façon suivante : (epj )1≤j≤mp est une base de Mp et, pour 1 ≤ q ≤ p − 1, (eqj )1≤j≤mq est une base de Mq complètant la famille libre (T eq+1 )1≤j≤mq+1 . j Pour 1 ≤ j ≤ m1 , on note Ej le s.e.v. engendré par les vecteurs eij , 1 ≤ i ≤ p, mi ≥ j. (2.6.1) Lm1 On vérifie que E = j=1 Ej , que T (Ej ) ⊂ Ej et que la matrice représentative de T |Ej dans la base (2.6.1) est une matrice nilpotente de Jordan, ce qui prouve le théorème. On en déduit le Théorème 2.6.2 (Jordan) Soit T ∈ L(E) un endomorphisme dont le polynôme caractéristique est scindé, alors il existe une base de E dans laquelle la matrice 18 CHAPITRE 2 RÉDUCTION DES ENDOMORPHISMES représentative de T λ 1 . λ . . . . . . . . . . est diagonale par blocs, chaque bloc étant de la forme 0 . . . . 1 0 . . . λ 1 0 . . . . . . . (bloc de Jordan) où λ ∈ σ(T ). . . λ 1 0 . . . λ 1 . . . . λ Chapitre 3 Espaces euclidiens 3.1 Forme bilinéaire Soit E un e.v., rappelons qu’une forme bilinéaire sur E est une application B : E × E → K telle que pour tout y ∈ E, l’application x 7→ B(x, y) est linéaire et pour tout x ∈ E, l’application y 7→ B(x, y) est linéaire . Notons B(E) l’ensemble des formes bilinéaires sur E ; il s’agit d’un s.e.v. de l’e.v. F(E × E; K). Lorsque est de dimension PE Pn finie n, étant donné une base B = (e1 , · · · , en ) de n E, si x = i=1 xi ei , y = i=1 yi ei , on peut écrire n X B(x, y) = bij xi yj où bij = B(ei , ej ). i,j=1 On définit ainsi une matrice b = (bij )1≤i,j≤n ∈ Mn,n (K), appelée matrice de la forme bilinéaire B dans la base B. L’application B 7→ b est évidemment un isomorphisme de B(E) sur Mn,n (K) ; l’e.v. B(E) est donc de dimension n2 . Si B0 est une autre base de E, b0 la matrice représentative de la forme B dans cette base, on vérifie que b0 = t P b P 20 CHAPITRE 3 ESPACES EUCLIDIENS où P est la matrice de passage de B à B0 . Le rang r(B) d’une forme bilinéaire est par définition le rang de sa matrice représentative dans une base, ce rang ne dépendant pas du choix de la base. La forme est dit non dégénérée si ce rang est maximum, soit r(B) = n, c’est-à-dire si la matrice b est inversible ; sinon, on dit que la forme est dégénérée. Le déterminant de b est appelé le discriminant de la forme B dans la base B. Une forme bilinéaire B est dite symétrique si B(x, y) = B(y, x) pour tout x, y ∈ E. Ceci signifie que sa matrice représentative dans une base est symétrique, soit t b = b. L’espace S(E) des formes bilinéaires symétriques est donc un e.v. de dimension n(n + 1)/2. 3.2 Espace euclidien Définition 3.2.1 Soit E un e.v. réel de dimension finie n, une structure euclidienne sur E est définie par la donnée d’une forme bilinéaire symétrique (•|•) : (x, y) ∈ E × E 7→ (x|y) ∈ R définie positive, c’est-à-dire telle que (x|x) > 0 pour tout x ∈ E, x 6= 0. Le réel (x|y) est appelé le produit scalaire de x et y. La norme d’un vecteur x est définie par kxk = (x|x)1/2 . On notera que kλxk = |λ| kxk pour tout λ ∈ R et tout x ∈ E et que kxk = 0 équivaut à x = 0. Exemple 3.2.1 Si B = (e1 , · · · , en ) est une base de E, on définit une structure euclidienne sur E en posant n n n X X X yi ei . (x|y) = xi yi si x = xi ei , y = i=1 i=1 On a alors kxk = n X x2i i=1 1/2 . i=1 Proposition 3.2.1 Pour tout x, y ∈ E, on a |(x|y)| ≤ kxk kyk (inégalité de Cauchy-Schwarz), kx + yk ≤ kxk + kyk (inégalité triangulaire), 2 kx + yk + kx − yk2 = 2(kxk2 + kyk2 ) (identité du parallèlogramme). Dans un espace euclidien, on dit que deux vecteurs x et y sont orthogonaux si leur produit scalaire est nul, soit (x|y) = 0. 3.3 BASE ORTHONORMALE 21 Théorème 3.2.2 (Pythagore) Soient x1 , · · · , xp ∈ E des vecteurs orthogonaus deux à deux, alors p p X X k xi k2 = kxi k2 . i=1 i=1 Remarque 3.2.1 Si F est un s.e.v. d’un espace euclidien E, la restriction à F × F du produit scalaire de E définit une structure euclidienne sur F : on dit que F est un sous-espace euclidien de E. 3.3 Base orthonormale Dans un espace euclidien E, on dit qu’une famille (xi )i∈I de vecteurs de E est une famille orthonormale si (xi |xj ) = δij pour tout i, j ∈ I. Ce sont donc des vecteurs unitaires orthogonaux deux à deux. On vérifie qu’une telle famille est libre, donc Card I ≤ n. Une famille orthonormale qui est une base est appelée une base orthonormale. Si B = (e1 , · · · , en ) est une base orthonormale, on a pour x, y ∈ E n n X X x2i où xi = (x|ei ) xi ei , kxk2 = x= i=1 i=1 et (x|y) = n X xi yi où xi = (x|ei ), yi = (y|ei ). i=1 Théorème 3.3.1 Tout espace euclidien admet une base orthonormale. Si A est une partie de E, on définit l’orthogonal de A par A⊥ = {x ∈ E ; (x|y) = 0 pour tout y ∈ A}. Proposition 3.3.2 Pour tout A ⊂ E, A⊥ est un s.e.v. de E et A⊥ = s.e.v. (A)⊥ . Théorème 3.3.3 1. Soient F un s.e.v. d’un espace euclidien E et x ∈ E, il existe un unique y ∈ F tel que x − y ∈ F ⊥ . On dit que y est la projection orthogonale de x sur F , on le note y = PF x. L’application PF : E → F est linéaire. 2. La projection orthogonale de x sur F est l’unique point y ∈ F tel que kx − yk = inf kx − zk = d(x, F ) (distance de x à F ). z∈F ⊥ 3. On a E = F ⊕ F . Corollaire 3.3.4 (théorème de la base incomplète) Toute famile orthonormale est contenue dans une base orthonormale. Proposition 3.3.5 (orthonormalisation de Schmidt) Soit (a1 , · · · , an ) une base de E, alors il existe une unique base orthonormale (e1 , · · · , en ) telle que, pour tout 1 ≤ p ≤ n, 22 CHAPITRE 3 ESPACES EUCLIDIENS 1. s.e.v. (e1 , · · · , ep ) = s.e.v. (a1 , · · · , ap ), 2. (ep |ap ) > 0. 3.4 Le groupe orthogonal Soient E un e.v. de dimension n et B, B 0 deux bases orthonormales, alors la matrice de passage P de B à B 0 vérifie t P P = In . (3.4.1) Une telle matrice est appelée une matrice orthogonale et l’ensemble O(n) des matrices orthogonales est un sous-groupe du groupe linéaire GL(n; R). Étant donné une base B, une matrice orthogonale peut toujours être considérée comme la matrice de passage de la base B à une base B 0 et, si l’une des bases est une base orthonormale, il en est de même de l’autre. On remarquera que dét P = ±1 si P ∈ O(n), on peut donc définir le sousgroupe, groupe spécial orthogonal, SO(n) = {P ∈ O(n) ; dét P = 1}. Proposition 3.4.1 Soient E un espace euclidien et T ∈ L(E) un endomorphisme, alors les propriétés suivantes sont équivalentes 1. pour tout x ∈ E, kT xk = kxk, 2. pour tout x, y ∈ E, (T x|T y) = (x|y), 3. la matrice représentative de T dans une base orthonormale est une matrice orthogonale. Un endomorphisme T ∈ L(E) vérifiant ces propriétés est appelé une isométrie ou une transformation orthogonale ; un tel endomorphisme est un automorphisme de E. On notera O(E) l’ensemble des transformations orthogonales ; il s’agit d’un sous-groupe du groupe linéaire GL(E) isomorphe (en tant que groupe) au groupe O(n). Étudions ce groupe O(E) lorsque n = 1, 2 ou 3. Soient T ∈ O(E) et A ∈ O(n) sa matrice représentative dans une base orthonormale. Lorsque n = 1, on a A = (±1) ; si A = (1), T = IE et si A = (−1), T est la symétrie par rapport à l’origine. Lorsque n = 2, prenons E = R2 muni de la stucture euclidienne associée à sa base canonique (exemple 3.2.1). La transformation orthogonale T s’écrit dans cette base X x cos θ − sin θ cos θ sin θ =A où A = ou , 0 ≤ θ < 2π. Y y sin θ cos θ sin θ − cos θ En posant Z = X + iY et z = x + iy, on a Z = eiθ z dans le premier cas (rotation d’angle θ) et Z = eiθ z dans le second cas (symétrie par rapport à l’axe des x suivie d’une rotation d’angle θ, c’est-à-dire symétrie par rapport à la droite d’angle θ/2). Lorsque n = 3, prenons E = R3 muni de la stucture euclidienne associée à sa base canonique (exemple 3.2.1). On peut supposer dét T = 1 : si 3.5 ADJOINT D’UN ENDOMORPHISME 23 dét T = −1, dét (−T ) = 1 et il suffit de composer avec la symétrie par rapport à l’origine. Notons λ1 , λ2 , λ3 les valeurs propres réelles ou complexes de A. On a alors 3 cas posssibles (λ1 = λ2 = λ3 = 1) ou (λ1 = 1, λ2 = λ3 = −1) ou (λ1 = 1, λ2 = µ, λ3 = µ, µ ∈ C − R). Notons E1 le sous-espace propre associé à la valeur propre 1 E1 = {x ∈ R3 ; T x = x} (ensemble des points invariants par T). Lemme 3.4.2 Si T 6= IR3 , dim E1 = 1. Supposons T 6= IR3 , alors E1⊥ est un s.e.v. de dimension 2 stable par T et T |E1⊥ est une isométrie de ce sous-espace. Choisissons une base orthonormale (e1 , e2 ) de E1⊥ et un vecteur unitaire e3 ∈ E1 . On obtient ainsi une base orthonormale (e1 , e2 , e3 ) de R3 et dans cette base la matrice représentative de T s’écrit cos θ − sin θ 0 sin θ cos θ 0 où 0 ≤ θ < 2π. 0 0 1 La transformation T est une rotation d’angle θ autour de l’axe e3 . 3.5 Adjoint d’un endomorphisme Soient E un espace euclidien et E ? son dual, on définit une application j : E → E ∗ par j(y) : x ∈ E 7→ (x|y) ∈ R où y ∈ E. Théorème 3.5.1 L’application j : E → E ? est un isomorphisme. Autrement dit, pour toute forme linéaire T ∈ E ? , il existe un unique y ∈ E tel que T x = (x|y) pour tout x ∈ E. Soit T ∈ L(E) un endomorphisme, pour tout y ∈ E, il existe un unique point y ? = T ? y ∈ E tel que (T x|y) = (x|T ? y) pour tout x ∈ E. Proposition 3.5.2 L’application T ? : F → E est linéaire. L’endomorphisme T ? est appelé l’adjoint de l’endomorphisme T . On vérifie que l’application T ∈ L(E) 7→ T ? ∈ L(E) est un isomorphisme, et, pour tout S, T ∈ L(E), T ?? = T et (T ◦ S)? = S ? ◦ T ? . Proposition 3.5.3 Dans une base orthonormale, la matrice représentative de T ? est la transposée de celle de T . Définition 3.5.1 Un endomorphisme T ∈ L(E) est dit symétrique si T = T ? . 24 CHAPITRE 3 ESPACES EUCLIDIENS Proposition 3.5.4 Un endomorphisme est symétrique si, et seulement si, sa matrice représentative A dans une base orthonormale est symétrique :A = t A. Proposition 3.5.5 Le polynôme caractéristique d’un endomorphisme symétrique est scindé et des vecteurs propres associés à des valeurs propres distinctes sont orthogonaux. Théorème 3.5.6 Tout endomorphisme symétrique T ∈ L(E) est diagonalisable. Plus précisément, il existe une base orthonormale dans laquelle la matrice représentative de T est diagonale. 3.6 Forme quadratique Soient E un e.v. réel de dimension n, B = (e1 , · · · , en ) une base de E et B une forme bilinéaire de matrice b = (bij )1≤i,j≤n . On pose n n X X xi ei . bij xi xj si x = Q(x) = B(x, x) = i,j=1 i=1 On dit que Q est une forme quadratique ; une forme quadratique est simplement un polynôme homogène de degré 2. Proposition 3.6.1 Soit B une forme bilinéaire symétrique, alors 1 B(x, y) = B(x + y, x + y) − B(x, x) − B(y, y) ( formule de polarisation). 2 Ceci montre que, si Q est une forme quadratique, il existe une unique forme bilinéaire symétrique B telle que Q(x) = B(x, x). On l’appelle la forme polaire de Q ; elle est donnée également par la formule n n X X 1 ∂Q Qi (y)xi où Qi (x) = Qi (x)yi = B(x, y) = (x). 2 ∂xi i=1 i=1 Théorème 3.6.2 (loi d’inertie de Sylvester) Soit Q une forme quadratique, il existe une base B = (e1 , · · · , en ) de E telle que dans cette base Q(x) = x21 + · · · + x2p − x2p+1 + · · · + x2r où r est le rang de la forme polaire de Q et 0 ≤ p ≤ r. L’entier p ne dépend pas du choix de la base B et le couple (p, q) où q = r − p est appelé la signature de la forme quadratique. On dit qu’on a réduit Q à une somme de carrés. Une autre façon d’exprimer ce résultat consiste à prendre une forme quadratique sur Rn n X Q(x) = aij xi xj . i,j=1 Alors, il existe des formes linéaires, linéairement indépendantes, n X li (x) = lij xj , 1 ≤ i ≤ n, j=1 3.6 FORME QUADRATIQUE et des réels λi tels que Q(x) = n X 25 λi li (x)2 . i=1 L’entier p (resp. q) est le nombre de λi > 0 (resp. λi < 0). La méthode de Gauss permet d’effectuer pratiquement cette réduction. 26 CHAPITRE 3 ESPACES EUCLIDIENS Chapitre 4 Espaces hermitiens 4.1 Forme hermitienne On considère ici un espce vectoriel complexe de dimension finie n. Définition 4.1.1 Soit E un espace vectoriel complexe, une application B : E × E → C est appelée une forme sesquilinéaire si, pour tout x, y, x1 , x2 , y1 , y2 de E et tout λ1 , λ2 de C B(λ1 x1 + λ2 x2 , y) = λ1 B(x1 , y) + λ2 B(x2 , y), B(x, λ1 y1 + λ2 y2 ) = λ1 B(x, y1 ) + λ2 B(x, y2 ). On dit que B est une forme hermitienne si on a de plus, pour tout x, y de E, B(x, y) = B(y, x). Si B est une forme sesquilinéaire, l’application B(•, y) est, pour tout y, une forme linéaire sur E ; pour tout x, l’application B(x, •) est dite semi-linéaire. Si B est une forme hermitienne, B(x, x) est réel pour tout x ; autrement dit, une forme hermitienne est réelle sur la diagonale de E. Cette propriété caractérise les formes. hermitiennes. Proposition 4.1.1 Soit E un espace vectoriel complexe, alors toute forme sesquilinéaire réelle sur la diagonale de E est hermitienne. 28 CHAPITRE 4 ESPACES HERMITIENS Une forme hermitienne B : E × E → C est dite positive si B(x, x) ≥ 0 pour tout x ∈ E et elle est dite définie positive ou positive non dégénérée si B(x, x) > 0 pour tout x ∈ E − {0}. Soient Pn B une forme Pn sesquilinéaire et B = (e1 , · · · , en ) une base de E, si x = i=1 xi ei , y = i=1 yi ei , on a n X B(x, y) = bij xi y j où bij = B(ei , ej ). i,j=1 On définit ainsi une matrice b = (bij )1≤i,j≤n ∈ Mn,n (K), appelée matrice de la forme sesquilinéaire B dans la base B. La forme B est hermitienne si, et seulement si, bji = bij , soit t b = b ; on dit que la matrice b est hermitienne. positive (resp. définie positive) si, et seulement si, PnLa forme hermitienne BPest n x ≥ 0 (resp. b x i,j=1 ij i j i,j=1 bij xi xj > 0) pour tout x 6= 0. Si B0 est une autre base de E, b0 la matrice représentative de la forme B dans cette base, on vérifie que b0 = t P b P où P est la matrice de passage de B à B0 . 4.2 Espaces hermitiens Définition 4.2.1 Soit E un e.v. complexe de dimension finie n, une structure hermitienne sur E est définie par la donnée d’une forme hermitienne (•|•) : (x, y) ∈ E × E 7→ (x|y) ∈ C définie positive. Le complexe (x|y) est appelé le produit scalaire de x et y. La norme d’un vecteur x est définie par kxk = (x|x)1/2 . On notera que kλxk = |λ| kxk pour tout λ ∈ C et tout x ∈ E et que kxk = 0 équivaut à x = 0. Exemple 4.2.1 Si B = (e1 , · · · , en ) est une base de E, on définit une structure hermitienne sur E en posant n n n X X X xi ei , y = yi ei . (x|y) = xi y i si x = i=1 i=1 On a alors kxk = n X i=1 |xi |2 i=1 1/2 . 4.3 ADJOINT D’UN ENDOMORPHISME 29 La proposition 3.2.1, le théorème 3.2.2 et la remarque 3.2.1 valent encore dans le cas hermitien. Le paragraphe 3.3 concernant les bases orthonormales subsiste également. Soient B et B 0 deux bases de E et P la matrice de passage de B à B 0 , alors, si B est une base orthonormale, il en est de même de B 0 si, et seulement si, (4.2.1) P ∗ P = In où P ∗ = t P est appelée la matrice adjointe de P . Une matrice vérifiant (4.2.1) est dite unitaire. L’ensemble U (n) des matrices unitaires est un sous-groupe du groupe linéaire GL(n : C), appelé groupe unitaire. Si P est une matrice unitaire, on notera que |dét P | = 1. 4.3 Adjoint d’un endomorphisme Soient E un espace hermitien, E ∗ le dual de E, on définit une application j : E → E ∗ en posant pour y ∈ E j(y) : x ∈ E 7→ (x|y) ∈ C. Théorème 4.3.1 L’application j : E → E ? est une bijection semi-linéaire. Autrement dit, pour toute forme linéaire T ∈ E ? , il existe un unique y ∈ E tel que T x = (x|y) pour tout x ∈ E. On dit que j est un semi-isomorphisme. Soient E et F deux espaces hermitiens et T ∈ L(E; F ), pour tout y ∈ F , il existe un unique point y ? = T ? y ∈ E tel que (T x|y)F = (x|T ? y)E pour tout x ∈ E. Proposition 4.3.2 L’application T ? : F → E est linéaire. L’application T ? est appelée l’adjointe de T . On vérifie que l’application T ∈ L(E) 7→ T ? ∈ L(E) est un semi-isomorphisme et, si E, F et G sont des espaces hermitiens, S ∈ L(E; F ), T ∈ L(F ; G), (T ◦ S)? = S ? ◦ T ? . Proposition 4.3.3 Dans une base orthonormale, la matrice représentative de T ? est l’adjointe de celle de T . Définition 4.3.1 Un endomorphisme T ∈ L(E) est dit hermitien si T = T ? . Proposition 4.3.4 Un endomorphisme est hermitien si, et seulement si, sa matrice représentative A dans une base orthonormale est hermitienne :A = A? . Proposition 4.3.5 Les valeurs propres d’un endomorphisme hermitiens sont réelles et des vecteurs propres associés à des valeurs propres distinctes sont orthogonaux. 30 4.4 CHAPITRE 4 ESPACES HERMITIENS Opérateurs normaux On dit qu’un opératreur T ∈ L(E) est normal si T ◦ T ? = T ? ◦ T . Si A est la matrice représentative de T dans une base orthonormale, ceci signifie que la matrice A est normale, c’est-à-dire que A A? = A? A. Tout opérateur hermitien, ainsi que tout opérateur unitaire, est normal. Lemme 4.4.1 Soit T ∈ L(E) un opérateur normal, alors Ker T = Ker T ? . Lemme 4.4.2 Soit T ∈ L(E) un opérateur normal, alors λ ∈ σ(T ) ⇐⇒ λ ∈ σ(T ? ) et Eλ (T ) = Eλ (T ? ). Lemme 4.4.3 Soient T ∈ L(E) un opérateur normal, λ, µ ∈ σ(T ), λ 6= µ, alors les sous-espaces propres Eλ (T ) et Eµ (T ) sont orthogonaux. Lemme 4.4.4 Soient T ∈ L(E) un endomorphisme et F un s.e.v. stable par T et T ? , alors F ⊥ est stable par T et T ? . Théorème 4.4.5 Soient T ∈ L(E) un opérateur normal, alors T est diagonalisable et il existe une base orthonormale dans laquelle la matrice représentative de T est diagonale, autrement dit il existe une base orthonormale de vecteurs propres. En termes de matrices, si A ∈ Mn (C) est une matrice normale, il existe une matrice unitaire P ∈ U (n) telle que P ? AP soit diagonale. On a alors E = ⊕λ∈σ(T ) Eλ (T ), les sous-espaces propres Eλ (T ) étant orthogonaux deux à deux. On en déduit qu’une matrice normale est hermitienne si, et seulement si, toutes ses valeurs propres sont réelles et qu’elle est unitaire si, et seulement si, toutes ses valeurs propres sont de module 1.