Cycle préparatoire 2ème année Algèbre linéaire et bilinéaire – Notes de cours Romain Dujol 2013 – 2014 Table des matières 0 Révisions d’algèbre linéaire 0.1 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . 0.2 Sous-espace vectoriel . . . . . . . . . . . . . . . . . . . 0.2.1 Somme de deux sous-espaces vectoriels 0.2.2 Famille de vecteurs . . . . . . . . . . . . . . . . 0.2.3 Espace vectoriel de dimension finie . . . 0.3 Applications linéaires . . . . . . . . . . . . . . . . . . . 0.3.1 Application linéaire . . . . . . . . . . . . . . . 0.3.2 Sous-espaces particuliers . . . . . . . . . . . Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Réduction des endomorphismes 1.1 Élements propres . . . . . . . . . . . . . . 1.1.1 Valeur propre. Vecteur propre 1.1.2 Sous-espace propre . . . . . . . 1.2 Polynôme caractéristique . . . . . . . . 1.2.1 Définition . . . . . . . . . . . . . . 1.2.2 Propriétés . . . . . . . . . . . . . . 1.3 Réduction des endomorphismes . . . 1.3.1 Diagonalisation . . . . . . . . . . 1.3.2 Trigonalisation . . . . . . . . . . . Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 . 4 . 5 . 5 . 6 . 7 . 9 . 9 . 9 . 10 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 12 12 13 14 14 15 16 16 18 20 2 Réduction des endomorphismes, techniques avancées 2.1 Polynôme annulateur . . . . . . . . . . . . . . . . . . . . . . 2.1.1 Polynôme d’endomorphisme . . . . . . . . . . . 2.1.2 Polynôme annulateur. Polynôme minimal . . 2.2 Sous-espaces caractéristiques. Forme de JORDAN . . 2.2.1 Sous-espace caractéristique . . . . . . . . . . . . 2.2.2 Forme de JORDAN . . . . . . . . . . . . . . . . . . . . Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 22 22 25 28 28 29 31 Romain Dujol . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 3 Réduction des endomorphismes, applications 3.1 Puissances entières d’une matrice . . . . . . . . . . . . . . 3.1.1 Méthode par réduction d’endomorphisme . . 3.1.2 Méthode par division euclidienne . . . . . . . . . 3.2 Suites récurrentes linéaires . . . . . . . . . . . . . . . . . . . 3.2.1 Suites vectorielles récurrentes d’ordre un . . . 3.2.2 Suites récurrentes linéaires d’ordre supérieur 3.3 Systèmes différentiels linéaires . . . . . . . . . . . . . . . . 3.3.1 Méthode par réduction directe . . . . . . . . . . . 3.3.2 Méthode par exponentielle . . . . . . . . . . . . . . Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 32 32 33 34 34 35 36 36 36 39 4 Formes bilinéaires. Formes quadratiques 4.1 Forme bilinéaire . . . . . . . . . . . . . . . . . . . . 4.1.1 Définitions . . . . . . . . . . . . . . . . . . . 4.1.2 Orthogonalité . . . . . . . . . . . . . . . . 4.1.3 Matrice d’une forme bilinéaire . . . . 4.2 Forme quadratique . . . . . . . . . . . . . . . . . . 4.2.1 Définitions . . . . . . . . . . . . . . . . . . . 4.2.2 Orthogonalité . . . . . . . . . . . . . . . . 4.2.3 Matrice d’une forme quadratique . . 4.2.4 Réduction d’une forme quadratique Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 40 40 42 43 46 46 47 49 50 54 5 Espaces euclidiens 5.1 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . 5.1.2 Exemples fondamentaux . . . . . . . . . . . . . 5.2 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . 5.2.2 Familles orthogonales . . . . . . . . . . . . . . . 5.2.3 Procédé d’orthonormalisation de SCHMIDT 5.3 Théorème de projection . . . . . . . . . . . . . . . . . . . Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 58 58 59 60 60 60 63 65 68 6 Endomorphismes remarquables d’un espace euclidien 6.1 Endomorphismes orthogonaux. Matrices orthogonales 6.1.1 Endomorphismes orthogonaux . . . . . . . . . . . . 6.1.2 Matrices orthogonales . . . . . . . . . . . . . . . . . . . 6.2 Endomorphismes autoadjoints . . . . . . . . . . . . . . . . . . 6.2.1 Adjoint d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 70 70 72 73 73 Romain Dujol . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 6.2.2 Endomorphisme autoadjoint . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 6.2.3 Endomorphisme anti-autoadjoint . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 7 Espaces préhilbertiens complexes 7.1 Forme sesquilinéaire. Produit scalaire . . . . . . . . . . . . . 7.1.1 Forme sesquilinéaire . . . . . . . . . . . . . . . . . . . . 7.1.2 Forme sesquilinéaire hermitienne . . . . . . . . . . . 7.1.3 Forme quadratique hermitienne . . . . . . . . . . . . 7.1.4 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . 7.2 Endomorphismes remarquables d’un espace hermitien 7.2.1 Endomorphismes unitaires . . . . . . . . . . . . . . . . 7.2.2 Endomorphismes hermitiens et anti-hermitiens 7.3 Matrices remarquables . . . . . . . . . . . . . . . . . . . . . . . . 7.3.1 Matrice d’une forme sesquilinéaire . . . . . . . . . . 7.3.2 Matrices unitaires . . . . . . . . . . . . . . . . . . . . . . 7.3.3 Matrices hermitiennes et anti-hermitiennes . . . Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Romain Dujol . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 78 78 79 79 80 81 81 81 82 82 82 82 84 Chapitre 0 Révisions d’algèbre linéaire 0.1 Espaces vectoriels Définition 0.1 (Espace vectoriel). Soit K un corps commutatif. Un espace vectoriel sur K ou K-espace vectoriel est un ensemble E muni : – d’une loi de composition interne + telle que (E , +) est un groupe abélien ; – d’une loi de composition externe · : K × E → E telle que : (λ, x ) 7→ λ · x 1. ∀x ∈ E , 1K · x = x 2. ∀λ ∈ K, ∀µ ∈ K, ∀x ∈ E , λ · (µ · x ) = (λµ) · x 3. ∀λ ∈ K, ∀µ ∈ K, ∀x ∈ E , (λ + µ) · x = λ · x + µ · x 4. ∀λ ∈ K, ∀x ∈ E , ∀y ∈ E , λ · (x + y ) = λ · x + λ · y Les éléments de E sont appelés des vecteurs. Les éléments de K sont appelés des scalaires. Remarque. Les propriétés 1 et 2 indiquent que · est une action à gauche du groupe K sur E . Proposition 0.1. Soit K un corps commutatif et E un K-espace vectoriel. Alors : 1. ∀λ ∈ K, λ · 0E = 0E 2. ∀x ∈ E , 0K · x = 0E 3. ∀x ∈ E , (−1K ) · x = −x Proposition 0.2 (Exemples fondamentaux). Soit n un entier naturel non nul. 1. L’ensemble Kn = K × · · · × K (n fois) des n -uplets à valeurs dans K est un K-espace vectoriel. 2. L’ensemble K[X ] des polynômes à coefficients dans K est un K-espace vectoriel Romain Dujol 4 Démonstration. 1. Kn est un K-espace vectoriel pour les opérations +: Kn × Kn (x 1 , . . . , x n ), (y 1 , . . . , y n ) Kn et + : (x 1 + y 1 , . . . , x n + y n ) → 7 → K × Kn λ, (x 1 , . . . , x n ) → 7→ Kn (λx 1 , . . . , λx n ) 2. K[X ] est un K-espace vectoriel pour les opérations +: p X K[X ] × K[X ] ! q X bk X k akXk, k =0 k =0 → et + : K[X ] max(p,q X ) 7→ (a k + b k )X k K × K[X ] ! p X akXk λ, → 7→ k =0 k =0 K[X ] p X (λa k )X k k =0 Remarque. R et C sont des corps commutatifs et sont les corps les plus fréquemment utilisés. 0.2 Sous-espace vectoriel Définition 0.2 (Sous-espace vectoriel). Soit E un K-espace vectoriel. F est un sous-espace vectoriel de E si et seulement si : (F est inclus dans E ) et (F est un K-espace vectoriel) Proposition 0.3 (Caractérisation d’un sous-espace vectoriel). Soit E un K-espace vectoriel. Une partie non vide F de E est un sous-espace vectoriel de E si et seulement si ∀x ∈ F, ∀y ∈ F, x + y ∈ F et ∀λ ∈ K, ∀x ∈ F, λ · x ∈ F ou si et seulement si ∀λ ∈ K, ∀x ∈ F, ∀y ∈ F, x + λ · y ∈ F Proposition 0.4. Soit n un entier naturel. Alors l’ensemble Kn [X ] des polynômes à coefficients dans K de degré au plus n est un sous-espace vectoriel de K[X ]. 0.2.1 Somme de deux sous-espaces vectoriels Définition 0.3 (Somme. Somme directe). Soit E un K-espace vectoriel et F et G deux sousespaces vectoriels de E . On définit la somme de F et G , notée F + G par F + G = {x + y , x ∈ F, y ∈ G } La somme F + G est dite directe si et seulement si tout élément de F + G admet une et une seule décomposition comme somme d’un élément de F et d’un élément de G . La somme est alors noté F ⊕ G . Romain Dujol 5 Proposition 0.5. Soit E un K-espace vectoriel et F et G deux sous-espaces vectoriels de E . Alors F + G est un sous-espace vectoriel de E . Remarque. On peut étendre cette définition à plus de deux sous-espaces vectoriels. Proposition 0.6 (Caractérisation). Soit F et G deux sous-espaces vectoriels du K-espace vectoriel E . Alors F et G sont en somme directe si et seulement si F ∩ G = {0E }. Définition 0.4. Soit E un K-espace vectoriel et F et G deux sous-espaces vectoriels de E . F et G sont dits supplémentaires dans E si et seulement si E = F ⊕ G . 0.2.2 Famille de vecteurs Définition 0.5 (Combinaison linéaire). Soit E un K-espace vectoriel. Un vecteur x de E est une combinaison linéaire des vecteurs x 1 , . . . , x n si et seulement si il existe des scalaires λ1 , . . . , λn tels que x = λ1 x 1 + λ2 x 2 + · + λn x n . Définition 0.6 (Sous-espace vectoriel engendré). Soit E un K-espace vectoriel. Le sous-espace engendré par x 1 , . . . , x n est l’ensemble des combinaisons linéaires des vecteurs x 1 , . . . , x n , noté Vect(x 1 , . . . , x n ). Définition 0.7 (Famille génératrice). Soit E un K-espace vectoriel. Une famille (x 1 , . . . , x n ) de vecteurs de E est dite génératrice si et seulement si tout élément de E est une combinaison linéaire des vecteurs x 1 , . . . , x n , i.e. E ⊂ Vect(x 1 , . . . , x n ). Romain Dujol 6 Définition 0.8 (Famille liée. Famille libre). Soit E un K-espace vectoriel. Une famille (x 1 , . . . , x n ) de vecteurs de E est dite liée si et seulement si il existe des scalaires λ1 , . . . , λn non tous nuls tels que λ1 x 1 + λ2 x 2 + · · · + λn x n = 0 E Une famille libre est une famille non liée. Proposition 0.7 (Caractérisation). Soit E un K-espace vectoriel. Une famille (x 1 , . . . , x n ) de vecteurs de E est liée si et seulement si ∀(λ1 , . . . , λn ) ∈ Kn , λ1 x 1 + λ2 x 2 + · · · + λn x n = 0E =⇒ λ1 = · · · = λn = 0 Définition 0.9 (Base). Une base est une famille libre et génératrice. 0.2.3 Espace vectoriel de dimension finie Définition 0.10 (Espace vectoriel de dimension finie). Un espace vectoriel est dit de dimension finie si et seulement il admet une famille génératrice finie. Théorème (Dimension). Tout espace vectoriel E de dimension finie admet au moins une base. Toutes les bases de E ont le même nombre de vecteurs : cet entier commun est appelé dimension de E , notée dim E . On convient que dim{0E } = 0. Proposition 0.8. 1. Kn est un K-espace vectoriel de dimension n . 2. Kn [X ] est un K-espace vectoriel de dimension n + 1. 3. K[X ] n’est pas de dimension finie. 4. F (K, K) n’est pas de dimension finie. Romain Dujol 7 Démonstration. ( 1. Une base B = (e i )1≤i ≤n de Kn est définie par e i = (δi j )1≤j ≤n où δi j = base canonique de Kn . 1 si i = j 0 si i 6= j . Elle est appelée 2. Une base de Kn [X ] est (X i )0≤i ≤n . Elle est appelée base canonique de K[X ]. 3. Supposons par l’absurde que K[X ] est de dimension finie n : soit alors B une base de n polynômes. On note d = max deg P le plus haut degré des polynômes de B : alors K[X ] = Vect(B ) ⊂ Kd [X ]. Or P∈B X d +1 ∈ K[X ]\Kd [X ], ce qui est impossible. On conclut que K[X ] n’est pas dimension finie. 4. F (K, K) contient l’ensemble des fonctions polynômiales sur K. Comme cet ensemble n’est pas de dimension finie, F (K, K) non plus. Remarque. La notation δi j est communément appelée symbole de KRONECKER. Proposition 0.9 (Dimension d’un sous-espace vectoriel). Soit E un K-espace vectoriel et F un sous-espace vectoriel de E . Alors dim F ≤ dim E . De plus F = E si et seulement si dim F = dim E . Proposition 0.10 (Dimension d’une somme). Soit E un K-espace vectoriel et F et G deux sous-espaces vectoriels de E . Alors dim(F + G ) = dim F + dimG − dim(F ∩ G ) En particulier dim(F ⊕ G ) = dim F + dimG . Définition 0.11 (Rang). On appelle rang d’une famille finie de vecteurs la dimension du sousespace engendré par cette famille de vecteurs. Proposition 0.11. Une famille (finie) de vecteurs est libre si et seulement si son rang est égal au nombre de vecteurs qui composent cette famille. Romain Dujol 8 0.3 Applications linéaires 0.3.1 Application linéaire Définition 0.12. Soient E et F deux K-espaces vectoriels. Une application f de E dans F est dite linéaire si et seulement si : – elle est un morphisme du groupe (E , +) dans (F, +) ; – ∀λ ∈ K, ∀x ∈ E , f (λ · x ) = λ · f (x ) L’ensemble des applications linéaires de E dans F est noté L (E , F ). Un endomorphisme de E est une application linéaire de E dans E . Un isomorphisme de E dans F est une application linéaire bijective de E dans F . Un automorphisme de E est un endomorphisme bijectif de E . Une forme linéaire sur E est une application linéaire de E dans K. 0.3.2 Sous-espaces particuliers Définition 0.13 (Noyau. Image). Soit E et F deux K-espaces vectoriels et f une application linéaire de E dans F . On appelle noyau de f , noté Ker f , le sous-espace vectoriel de E défini par Ker f = f −1 (0F ) = {x ∈ E , f (x ) = 0F } On appelle image de f , noté Im f , le sous-espace vectoriel de F défini par Im f = f (E ) = { f (x ), x ∈ E } Si F est de dimension finie, alors Im f aussi et on définit le rang de f comme étant égal à la dimension de Im f . Proposition 0.12 (Caractérisation rapide de l’injectivité). Soit E et F deux K-espaces vectoriels et f une application linéaire de E dans F . Alors : f est injective si et seulement si Ker f = {0E }. Théorème (Formule du rang). Soit E et F deux K-espaces vectoriels et f une application linéaire de E dans F . Alors dim E = dim(Im f ) + dim(Ker f ) Corollaire (Corollaire fondamental). Soit E et F deux K-espaces vectoriels de même dimension (finie) et f une application linéaire de E dans F . Alors f injective ⇐⇒ f surjective ⇐⇒ f bijective Remarque. Ce corollaire est donc valable en particulier si E = F . Romain Dujol 9 Révisions d’algèbre linéaire : Exercices Exercice 0.1. 1. La famille de vecteurs {(1, 2, 3), (1, −2, −3), (1, 4, 3)} est-elle libre dans R3 ? 2. La famille de vecteurs {(2, i , 4, −i ), (i , −1, −i , 1), (0, 3, −i , 1)} est-elle libre dans C4 ? Exercice 0.2. Soit n un entier naturel non nul et (a i )1≤i ≤n un n -uplet de nombres réels distincts deux à deux rangés dans l’ordre croissant : 2 ∀(i , j ) ∈ J1, n K , (i < j ) ⇒ a i < a j 1. Montrer que la famille {x 7→ e a i x }i ≤n est libre dans F (R, R) : (a) lorsque tous les coefficients a i sont des entiers naturels ; (b) lorsque tous les coefficients a i sont des nombres réels quelconques. 2. En déduire que F (R, R) est de dimension infinie. 4 3 Exercice 0.3. Soit f une application linéaire de R dans R dont la matrice dans les deux bases −11 7 0 3 1 11 2. canoniques respectives est 0 1 0 7 1 1. Déterminer le rang de f . 2. Déterminer une base de Ker f . 3. Déterminer une base de Im f . Exercice 0.4. On considère l’application U : R3 [X ] → R3 [X ] . P 7→ P ′ + P 1. Vérifier que l’application U est bien définie et qu’il s’agit d’un automorphisme de R3 [X ]. 2. Écrire la matrice de U dans la base canonique de R3 [X ]. Romain Dujol 10 Exercice 0.5. Soit m 1 1 1. 1 + m −1 2 −m 1 1 1 1 m 1 2. 1 m 1 m 1 1 un nombre réel. Déterminer le rang des matrices suivantes : 1−m 2 3 m 1 1 1 Exercice 0.6. Calculer les déterminants suivants : 1 cos(t ) cos(2t ) 1. cos(t ) cos(2t ) cos(3t ) cos(2t ) cos(3t ) cos(4t ) a a a a a b b b où a , b , c et d sont des réels quelconques 2. a b c c a b c d Exercice 0.7. Soit E un espace vectoriel de dimension trois et B = (e 1 , e 2 , e 3 ) une base de E . Soit θ un nombre réel et f l’endomorphisme de E tel que sa matrice dans la base B soit 0 A = −1 − sin θ 1 0 cos θ − sin θ cos θ 0 1. Montrer que f 3 = f ◦ f ◦ f = 0. 2. On note e 1′ = (cos θ ) · e 1 + (sin θ ) · e 2 , e 2′ = f (e 1 ) et e 3′ = f (e 2 ). (a) Montrer que B ′ = (e 1′ , e 2′ , e 3′ ) est une base de E et déterminer la matrice de passage de B dans B ′ . (b) En déduire la matrice de f dans B ′ . Romain Dujol 11 Chapitre 1 Réduction des endomorphismes Dans ce chapitre, K désigne un corps commutatif (dans la pratique, on prendra K = R ou C). 1.1 Élements propres 1.1.1 Valeur propre. Vecteur propre Définition 1.1 (Valeur propre, vecteur propre d’un endomorphisme). Soit E un K-espace vectoriel et f un endomorphisme de E . Un scalaire λ ∈ K est une valeur propre de f si et seulement il existe un vecteur non nul x de E tel que f (x ) = λ · x Auquel cas, x est un vecteur propre de f associé à la valeur propre λ. L’ensemble des valeurs propres de f est appelé spectre de f et noté Sp f . ATTENTION. Le vecteur nul n’est JAMAIS un vecteur propre. Remarque. L’équation f (x ) = λ · x est parfois appelé équation aux valeurs propres. Définition 1.2 (Valeur propre, vecteur propre d’une matrice carrée). Soit n un entier naturel non nul et A une matrice carrée d’ordre n à coefficients dans K. Un scalaire λ ∈ K est une valeur propre de A si et seulement il existe une matrice-colonne non nulle X telle que AX = λX Auquel cas, X est un vecteur propre de A associé à la valeur propre λ. L’ensemble des valeurs propres de A est appelé spectre de A et noté Sp A. Romain Dujol 12 Théorème 1.1 (Équivalence des formulations). Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E . Soit B une base de E et A la matrice de f dans B . Alors : 1. λ est une valeur propre de f si et seulement si λ est valeur propre de A ; 2. x est un vecteur propre de f associé à la valeur propre λ si et seulement si X = matB x est un vecteur propre de A associé à la valeur propre λ. DONC TOUS LES RÉSULTATS ÉNONCÉS DANS CE CHAPITRE PEUVENT ÊTRE TRANSPOSÉS DANS UNE FORMULATION MATRICIELLE AVEC LES SUBSTITUTIONS SUIVANTES f ↔A , x ↔X , : idE ↔ I n (matrice identité) Proposition 1.1 (Caractérisation de la valeur propre). Soit E un K-espace vectoriel et f un endomorphisme de E . Alors : λ ∈ Sp f ⇐⇒ Ker( f − λ idE ) 6= {0E } ⇐⇒ ( f − λ idE ) n’est pas injectif Démonstration. On part de la définition de la valeur propre : λ ∈ Sp f ⇐⇒ ∃x ∈ E \{0E }, f (x ) = λ · x ⇐⇒ ∃x ∈ E \{0E }, f (x ) − λ · x = 0E ⇐⇒ ∃x ∈ E \{0E }, ( f − λ idE )(x ) = 0E ⇐⇒ Ker( f − λ idE ) 6= {0E } ⇐⇒ ( f − λ idE ) n’est pas injectif Corollaire (Valeur propre d’un automorphisme). Soit E un K-espace vectoriel et f un endomorphisme de E . Alors f est bijective si et seulement si 0 n’est pas valeur propre de f . Démonstration. C’est l’application de la proposition précédente avec λ = 0 et le fait que f est injective si et seulement si elle est bijective. 1.1.2 Sous-espace propre Définition 1.3 (Sous-espace propre). Soit E un K-espace vectoriel. Soit f un endomorphisme de E et λ une valeur propre de f . On appelle sous-espace propre de f associé à la valeur propre λ, noté E λ ( f ) ou SEP( f , λ) par E λ ( f ) = Ker( f − λ idE ) = {x ∈ E , f (x ) = λ · x } Lorsqu’il n’y a pas d’ambigüité, on notera E λ au lieu de E λ ( f ). Romain Dujol 13 Proposition 1.2. Soit E un K-espace vectoriel. Soit f un endomorphisme de E et λ une valeur propre de f . 1. E λ ( f ) est un sous-espace vectoriel de E . 2. E λ ( f ) est composé de l’ensemble de tous les vecteurs propres de f associés à λ et de 0E . Proposition 1.3. Soit E un K-espace vectoriel et f un endomorphisme de E . Soit λ1 et λ2 deux valeurs propres distinctes de f . Alors E λ1 ( f ) et E λ2 ( f ) sont en somme directe. Démonstration. Soit x ∈ E λ1 ( f ) ∩ E λ2 ( f ), alors : – x ∈ E λ1 ( f ), donc f (x ) = λ1 x – x ∈ E λ2 ( f ), donc f (x ) = λ2 x Donc λ1 x = λ2 x et (λ1 − λ2 )x = 0. Comme λ1 et λ2 sont distincts, il vient que λ1 − λ2 6= 0, puis que x = 0. On en déduit que E λ1 ( f ) ∩ E λ2 ( f ) = {0E } et que E λ1 ( f ) et E λ2 ( f ) sont en somme directe. 1.2 1.2.1 Polynôme caractéristique Définition Proposition 1.4 (Introduction du polynôme caractéristique). Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E . Alors λ ∈ Sp f ⇐⇒ det( f − λ idE ) = 0 Démonstration. λ ∈ Sp f ⇐⇒ ( f − λ idE ) n’est pas injectif ⇐⇒ ( f − λ idE ) n’est pas bijectif ⇐⇒ det( f − λ idE ) = 0 Définition 1.4 (Polynôme caractéristique d’un endomorphisme). Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E . L’expression det( f − X idE ) [où X est ici l’indéterminée des polynômes] est un polynôme à coefficients dans K appelé polynôme caractéristique de f , noté χ f . Définition 1.5 (Polynôme caractéristique d’une matrice carrée). Soit n un entier naturel non nul et A une matrice carrée d’ordre n à coefficients dans K. L’expression det(A − X I n ) [où X est ici l’indéterminée des polynômes] est un polynôme à coefficients dans K appelé polynôme caractéristique de A, noté χA . Romain Dujol 14 1.2.2 Propriétés Corollaire (Caractérisation rapide d’une valeur propre). Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E . Alors Sp f est l’ensemble des racines de χ f . Proposition 1.5 (Coefficients du polynôme caractéristique). Soit E un K-espace vectoriel de dimension n et f un endomorphisme de E . Alors χ f est un polynôme de degré n et : 1. le coefficient dominant, i.e. de degré n , de χ f est (−1)n ; 2. le coefficient de degré n − 1 de χ f est (−1)n−1 tr f ; 3. le coefficient constant, i.e. de degré 0, de χ f est det f . (On rappelle que tr f est la trace de l’endomorphisme f .) Corollaire. Soit E un K-espace vectoriel de dimension n et f un endomorphisme de E . Alors f admet au plus n valeurs propres. Démonstration. D’après le théorème de D’ALEMBERT-GAUSS, χ f admet au plus n racines distinctes (certaines pouvant être répétées). Comme les racines de χ f sont exactement les valeurs propres de f , on conclut immédiatement. 8 12 10 Exemple. Déterminer les éléments propres de A = −9 −22 −22. 9 18 17 Définition 1.6 (Ordre de multiplicité géométrique. Ordre de multiplicité algébrique). Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E . Soit λ une valeur propre de f . L’ordre de multiplicité géométrique de λ est la dimension de son sous-espace propre, i.e. dim E λ ( f ). L’ordre de multiplicité algébrique de λ est l’ordre de multiplicité de λ en tant que racine du polynôme caractéristique χ f . Une valeur propre λ est dite simple si et seulement si son ordre de multiplicité algébrique est égal à un. Une valeur propre λ est dite double si et seulement si son ordre de multiplicité algébrique est égal à deux, et ainsi de suite. Exemple. Reprendre l’exemple précédent et déterminer les ordres de multiplicités géométriques et algébriques des valeurs propres de A. Romain Dujol 15 Proposition 1.6 (Comparaison des ordres de multiplicité). Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E . Soit λ une valeur propre de f dont on note γ l’ordre de multiplicité géométrique et α l’ordre de multiplicité algébrique. Alors 1≤γ≤α Corollaire. Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E . Soit λ une valeur propre simple de f : alors dim E λ ( f ) = 1. Démonstration. On note respectivement γ et α les ordres de multiplicité géométrique et algébrique de λ. Comme λ est une valeur propre simple, α = 1 et 1 ≤ γ ≤ 1 : on en déduit que dim E λ ( f ) = γ = 1. 1.3 1.3.1 Réduction des endomorphismes Diagonalisation Définition 1.7 (Endomorphisme diagonalisable). Soit E un K-espace vectoriel de dimension finie. Un endomorphisme f de E est dit diagonalisable sur K si et seulement si il existe une base B de E telle que la matrice de f dans B soit diagonale. Auquel cas, B est appelée la base de diagonalisation de f . Définition 1.8 (Matrice carrée diagonalisable). Soit n un entier naturel non nul. Une matrice A carrée d’ordre n à coefficients dans K est dite diagonalisable sur K si et seulement si elle est semblable à une matrice diagonale, i.e. ∃P ∈ GLn (K), ∃D ∈ Dn (K), A = PDP −1 Auquel cas, la donnée du couple (P, D) constitue la diagonalisation de A. Remarque. 1. On trouve parfois réduction à la forme diagonale au lieu de diagonalisation. 2. Une diagonalisation n’est pas unique : pour une matrice diagonalisable A donnée, il existe plusieurs (une infinité) couples (P, D) possibles. 3. Diagonaliser A, c’est trouver une diagonalisation de A. Romain Dujol 16 Proposition 1.7. Toute matrice diagonale à coefficients dans K est diagonalisable sur K. Démonstration. Une matrice diagonale est semblable à elle-même, donc elle est diagonalisable. Donc (I , D) est une diagonalisation de la matrice diagonale D. Proposition 1.8 (Équivalence des formulations). Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E . Soit B une base de E et A la matrice de f dans B . Alors f est diagonalisable sur K si et seulement si A est diagonalisable sur K. Proposition 1.9 (Caractérisation de la diagonalisabilité). Soit E un K-espace vectoriel de dimension n et f un endomorphisme de E . Alors les propositions suivantes sont équivalentes. 1. f est diagonalisable sur K 2. Il existe une base B de E constituée exclusivement de vecteurs propres de f . 3. La somme (directe) de tous les sous-espaces propres de f est égale à E . 4. La somme des dimensions de tous les sous-espaces propres de E est égale à n . Proposition 1.10 (Caractérisation rapide de la diagonalisabilité). Soit E un K-espace vectoriel de dimension n et f un endomorphisme de E . Alors f est diagonalisable sur K si et seulement si les deux propositions suivantes sont vérifiées : 1. le polynôme caractéristique χ f de f est scindé sur K ; 2. pour chaque valeur propre de f , les ordres de multiplicité géométrique et algébrique sont égaux, i.e. la dimension du sous-espace propre est égale à son ordre de multiplicité dans χ f . Corollaire (Condition suffisante de diagonalisabilité). Soit E un K-espace vectoriel de dimension n et f un endomorphisme de E . Si f admet n valeurs propres distinctes deux à deux, alors f est diagonalisable sur K. Démonstration. Donc f admet n valeurs propres simples : – le polynôme caractéristique admet donc n racines simples : il est donc scindé sur K ; – la dimension de chaque sous-espace propre est égale à un : comme il y a n sous-espaces propres, la somme des dimensions de ces sous-espaces propres est égale à n. On en conclut que f est diagonalisable sur K. 2 0 1 Exemple. Diagonaliser A = 1 1 1 . −2 0 −1 Proposition 1.11. Toute matrice à coefficients réels diagonalisable sur R est diagonalisable sur C. Romain Dujol 17 1.3.2 Trigonalisation Définition 1.9 (Endomorphisme trigonalisable). Soit E un K-espace vectoriel de dimension finie. Un endomorphisme f de E est dit trigonalisable sur K si et seulement si il existe une base B de E telle que la matrice de f dans B soit triangulaire. Auquel cas, B est appelée la base de trigonalisation de f . Proposition 1.12. Tout endomorphisme diagonalisable sur K est trigonalisable sur K. Définition 1.10 (Matrice carrée trigonalisable). Soit n un entier naturel non nul. Une matrice A carrée d’ordre n à coefficients dans K est dite trigonalisable sur K si et seulement si elle est semblable à une matrice triangulaire, i.e. ∃P ∈ GLn (K), ∃D ∈ Tn (K), A = PT P −1 Auquel cas, la donnée du couple (P, T ) constitue la trigonalisation de A. Proposition 1.13. Toute matrice carrée diagonalisable sur K est trigonalisable sur K. Remarque. 1. On trouve parfois réduction à la forme triangulaire au lieu de trigonalisation. 2. Une trigonalisation n’est pas unique : pour une matrice trigonalisable A donnée, il existe plusieurs (une infinité) couples (P, T ) possibles. 3. Trigonaliser A, c’est trouver une trigonalisation de A. Proposition 1.14. Toute matrice triangulaire à coefficients dans K est trigonalisable sur K. Démonstration. Une matrice triangulaire est semblable à elle-même, donc elle est trigonalisable. Donc (I , T ) est une trigonalisation de la matrice triangulaire T . Proposition 1.15 (Équivalence des formulations). Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E . Soit B une base de E et A la matrice de f dans B . Alors f est trigonalisable sur K si et seulement si A est trigonalisable sur K. Romain Dujol 18 Proposition 1.16 (Caractérisation rapide de la diagonalisabilité). Soit E un K-espace vectoriel de dimension n et f un endomorphisme de E . Alors f est diagonalisable sur K si et seulement si le polynôme caractéristique χ f de f est scindé sur K. Corollaire (Cas des C-espaces vectoriels). 1. Soit E un C-espace vectoriel de dimension finie. Alors tout endomorphisme de E est trigonalisable sur C. 2. Toute matrice carrée à coefficients complexes est trigonalisable sur C. Démonstration. D’après le théorème de D’ALEMBERT-GAUSS, tout polynôme à coefficients complexes est scindé sur C. Donc le polynôme caractéristique de tout endomorphisme est scindé sur C, ce qui permet de conclure. Proposition 1.17. Toute matrice à coefficients réels trigonalisable sur R est trigonalisable sur C. Exemple. −4 1. Trigonaliser A = 0 5 −2 2. Trigonaliser A = −15 −14 0 −2 1 0 . 1 3 −1 2 −6 11. −6 11 ATTENTION. 1. Il existe des endomorphismes/matrices carrées non diagonalisables/trigonalisables. 2. Changer le corps K peut modifier le caractère diagonalisable/trigonalisable d’un endomorphisme/d’une matrice carrée. Exemple. A = ··· A A A A Romain Dujol est-elle diagonalisable sur R ? est-elle diagonalisable sur C ? est-elle trigonalisable sur R ? est-elle trigonalisable sur C ? 1 1 1 1 1 1 0 1 0 1 −1 0 OUI NON NON OUI NON OUI OUI OUI NON OUI OUI OUI 19 Réduction des endomorphismes : Exercices Élements propres Exercice 1.1. Soit n un entier naturel non nul et A et B deux matrices carrées d’ordre n à coefficients dans K. 1. Montrer que les polynômes caractéristiques de A et t A sont égaux. Ces deux matrices ont-elles les mêmes sous-espaces propres et les mêmes valeurs propres ? 2. Montrer que A B et B A ont les mêmes valeurs propres. Exercice 1.2. Soit n un entier naturel non nul et A une matrice carrée d’ordre n à coefficients dans K telle que la somme des coefficients de chaque ligne vaut α ∈ K. Montrer que α est valeur propre de A. Exercice 1.3. Soit n un entier naturel non nul et f : M n (K) → M n (K) . M 7→ t A 1. Vérifier que f est un endomorphisme de M n (K). 2. Déterminer les valeurs propres de f . Exercice 1.4. On considère l’application f : R[X ] → R[X ] . ′ P 7→ (X + 1)(X − 3)P − X P 1. Vérifier que f est un endomorphisme de R[X ]. 2. Déterminer les éléments propres de f . Romain Dujol 20 Diagonalisation Exercice 1.5. Diagonaliser les matrices suviantes : 0 1 0 1. A 1 = 1 0 1 0 1 0 11 −5 5 2. A 2 = −5 3 −3 5 −3 3 −1 a a 2 3. A 3 = 0 0 −a , a ∈ R 0 0 1 0 −1 1 4. A 4 = −(a + 1) a a + 1, a ∈ R −a a a +1 −1 2 −2 4 −3 4 2 1 5. A 5 = 0 0 −2 3 0 0 −4 5 1 3 0 0 4 2 0 0 6. A 6 = 1 −1 5 −3 2 0 4 −2 Trigonalisation Exercice 1.6. Diagonaliser les matrices suviantes : 5 −17 25 1. A 1 = 2 −9 16 1 −5 9 2 0 1 2. A 2 = 1 1 0 −1 1 3 Romain Dujol 21 Chapitre 2 Réduction des endomorphismes, techniques avancées Dans ce chapitre, K désigne un corps commutatif (dans la pratique, on prendra K = R ou C). 2.1 Polynôme annulateur 2.1.1 2.1.1.1 Polynôme d’endomorphisme Définition et propriétés Définition 2.1 (Polynôme d’endomorphisme). Soit E un K-espace vectoriel et f un endomorphisme de E . Pour tout polynôme P = p X aiXi i =0 à coefficients dans K, on définit l’endomorphisme P( f ) de E par P( f ) = p X ai f i i =0 Définition 2.2 (Polynôme de matrice carrée). Soit n un entier naturel non nul et A une matrice carrée d’ordre n . Pour tout polynôme p X P= a i X i à coefficients dans K, on définit la matrice carrée d’ordre n P(A) par i =0 P(A) = p X a i Ai i =0 Romain Dujol 22 Proposition 2.1 (Équivalence des formulations). Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E . Soit B une base de E et A la matrice de f dans B . Alors la matrice de l’endomorphisme P( f ) dans la base B est P(A). Proposition 2.2 (Règles opératoires). Soit E un K-espace vectoriel et f un endomorphisme de E . Alors Φ : K[X ] → L (E ) est un morphisme d’algèbres unitaire, c’est-à-dire : P 7→ P( f ) 1. ∀λ ∈ K, ∀µ ∈ K, ∀P ∈ K[X ], ∀Q ∈ K[X ], (λP + µQ)( f ) = λP( f ) + µQ( f ) 2. ∀P ∈ K[X ], ∀Q ∈ K[X ], (PQ)( f ) = P( f ) ◦Q( f ) 3. 1( f ) = idE Proposition 2.3 (Opération sur les vecteurs propres). Soit E un K-espace vectoriel et f un endomorphisme de E . Soit λ une valeur propre de f et x un élément de E λ ( f ). Alors ∀P ∈ K[X ], P( f )(x ) = P(λ) · x Démonstration. Montrons d’abord par récurrence sur i que le résultat demandé est vérifié pour P = X i pour tout entier naturel i . – Si i = 0, alors (X 0 )( f )(x ) = idE (x ) = x = 1 · x = λ0 x . Donc la propriété est vérifiée au rang 0. – Soit i un entier naturel tel que f i (x ) = λi · x . Alors f i +1 (x ) = f i ( f (x )) = f i (λx ) = λ f i (x ) = λ(λi x ) = λi +1 x Donc la propriété est vraie au rang i + 1. p X a i X i un polynôme quelconque à coefficients dans K. Alors Soit alors P = i =0 P( f )(x ) = p X i =0 2.1.1.2 p X ! ai fi (x ) = a i f i (x ) = i =0 p X i =0 i a i (λ · x ) = p X i =0 ! aiλ i · x = P(λ) · x Noyau de polynômes d’endomorphismes Proposition 2.4 (Stabilité). Soit E un K-espace vectoriel de f un endomorphisme de E . Pour tout polynôme P à coefficients dans K, Ker P( f ) est stable par f . Démonstration. Soit x ∈ Ker P( f ). Alors P( f )[ f (x )] = P( f )[X ( f )(x )] = [P( f ) ◦ X ( f )](x ) = [P X ]( f )(x ) = [X P( f )](x ) = [X ( f ) ◦ P( f )](x ) = X ( f )[P( f )(x )] = f (0E ) = 0E Donc f (x ) ∈ Ker P( f ) et Ker P( f ) est stable par f . Romain Dujol 23 Théorème 2.1 (Théorème des noyaux). Soit E un K-espace vectoriel de f un endomorphisme de E . Soit P1 , . . . , Pm des polynômes à coefficients dans K deux à deux premiers entre eux. Alors : ! m m Y M Ker[Pi ( f )] = Ker Pi ( f ) i =1 i =1 Démonstration. On effectuera la démonstration pour m = 2. Soit alors P et Q deux polynômes premiers entre eux. Montrons que Ker P( f ) ⊕ KerQ( f ) = Ker[(PQ)( f )] en deux étapes : 1. on vérifie que Ker P( f ) et KerQ( f ) sont en somme directe ; 2. on montre que la somme de ces deux sous-espaces vectoriels est égale à Ker[(PQ)( f )]. D’après le théorème de BEZOUT, il existe deux polynômes A et B à coefficients dans K tels que AP + BQ = 1. 1. Soit x ∈ Ker P( f ) ∩ KerQ( f ). Alors : x = idE (x ) = 1( f )(x ) = (AP + BQ)( f )(x ) = [A( f ) ◦ P( f )](x ) + [B ( f ) ◦Q( f )](x ) = A( f )[P( f )(x )] + B ( f )[Q( f )(x )] = A( f )(0E ) + B ( f )(0E ) = 0E On en déduit que Ker P( f ) ∩ KerQ( f ) = 0E et que Ker P( f ) et KerQ( f ) sont en somme directe. 2. Montrons que Ker P( f ) + KerQ( f ) = Ker[(PQ)( f )] à l’aide d’une double inclusion. – Soit x ∈ Ker P( f ) + KerQ( f ) : alors il existe x 1 ∈ Ker P( f ) et x 2 ∈ KerQ( f ) tel que x = x 1 + x 2 et : (PQ)( f )(x ) = (PQ)( f )(x 1 + x 2 ) = (PQ)( f )(x 1 ) + (PQ)( f )(x 2 ) = (QP)( f )(x 1 ) + (PQ)( f )(x 2 ) = [Q( f ) ◦ P( f )](x 1 ) + [P( f ) ◦Q( f )](x 2 ) = Q( f )[P( f )(x 1 )] + P( f )[Q( f )(x 2 )] = Q( f )(0E ) + P( f )(0E ) = 0E Donc x ∈ Ker[(PQ)( f )]. – Soit x ∈ Ker[(PQ)( f )]. On note x 1 = (BQ)( f )(x ) et x 2 = (AP)( f )(x ). Alors : · x 1 + x 2 = (BQ)( f )(x ) + (AP)( f )(x ) = (BQ + AP)( f )(x ) = 1( f )(x ) = idE (x ) = x · P( f )(x 1 ) = P( f )[(BQ)( f )(x )] = [P( f ) ◦ (BQ)( f )](x ) = (P BQ)( f )(x ) = (B PQ)( f )(x ) = [B ( f ) ◦ (PQ)( f )](x ) = B ( f )[(PQ)( f )(x )] = B ( f )(0E ) = 0E · Q( f )(x 2 ) = Q( f )[(AP)( f )(x )] = [Q( f ) ◦ (AP)( f )](x ) = (QAP)( f )(x ) = (APQ)( f )(x ) = [A( f ) ◦ (PQ)( f )](x ) = A( f )[(PQ)( f )(x )] = A( f )(0E ) = 0E Donc x 1 ∈ Ker P( f ), x 2 ∈ KerQ( f ) et x = x 1 + x 2 ∈ Ker P( f ) + KerQ( f ). Remarque. La relation Ker P( f )+KerQ( f ) ⊂ Ker[(PQ)( f )] est valable pour tous polynômes P et Q (qu’ils soient premiers entre eux ou non). Romain Dujol 24 2.1.2 2.1.2.1 Polynôme annulateur. Polynôme minimal Cas général Définition 2.3 (Polynôme annulateur). Soit E un K-espace vectoriel et f un endomorphisme de E . Un polynôme P à coefficients dans K est dit polynôme annulateur de f si et seulement si P( f ) est l’endomorphisme nul. Proposition 2.5. Soit E un K-espace vectoriel et f un endomorphisme de E . Soit λ une valeur propre de f et P est un polynôme annulateur de f . Alors λ est une racine de P. Démonstration. Soit x un vecteur propre de f associé à λ. Alors P(λ) · x = P( f )(x ) = 0(x ) = 0. Comme x est un vecteur propre, c’est un vecteur non nul : donc P(λ) = 0. Théorème 2.2 (Théorème de CAYLEY-HAMILTON). Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E . Alors le polynôme caractéristique de f est un polynôme annulateur de f : χ f ( f ) = 0. Théorème 2.3 (Polynôme minimal). Soit E un K-espace vectoriel et f un endomorphisme de E . Si f admet un polynôme annulateur non nul, alors il existe un unique polynôme à coefficients dans K dont le coefficient de plus haut degré est égal à un, noté π f , tel que P( f ) = 0 ⇐⇒ P divise π f Le polynôme π f est appelé polynôme minimal de f . Démonstration. ADMIS Remarque. Donc, à une constante multiplicative près, π f est le polynôme annulateur de plus faible degré. Romain Dujol 25 Proposition 2.6 (Caractérisation rapide d’une valeur propre). Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E . Alors Sp f est l’ensemble des racines de π f . Corollaire (Forme générale du polynôme minimal). Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E . p Y Si le polynôme caractéristique de f s’écrit χ f = (−1)n (X −λi )αi , alors le polynôme minimal de f est de la forme π f = p Y i =1 i =1 (X − λi )βi avec βi ∈ J1, αi K pour i ∈ J1, p K. Exemple. Déterminer le polynôme minimal des matrices suivantes : 0 1 2 1. A = 1 0 2 1 2 0 −1 1 1 2. B = 1 −1 1 1 1 −1 Théorème 2.4. Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E . 1. f est trigonalisable sur K si et seulement si π f est scindé sur K. 2. f est diagonalisable sur K si et seulement si π f est scindé sur K et que toutes ses racines sont simples (i.e. de multiplicité un). Corollaire. Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E . Alors f est diagonalisable sur K si et seulement si il existe un polynôme annulateur scindé sur K dont toutes les racines sont simples. Remarque. On dit parfois d’un polynôme qu’il est scindé simple sur K lorsqu’il est scindé et que toutes ses racines sont simples. Romain Dujol 26 2.1.2.2 Réduction des projecteurs linéaires Théorème (Rappels des propriétés d’un projecteur linéaire). Soit E un espace vectoriel et F et G deux sous-espaces supplémentaires de E . On note p le projecteur sur F parallèlement à G . Alors : 1. p ◦ p = p ; 2. F = {x ∈ E , p (x ) = x } = Ker(p − idE ) ; 3. G = {x ∈ E , p (x ) = 0} = Ker p . Corollaire (Réduction d’un projecteur linéaire). Soit E un espace vectoriel de dimension finie. On note n = dim E et r = dim F = rg p . 1. Sp p = {0, 1} donc p n’est pas bijective (sauf si r = n , c’est-à-dire si F = E ) ; 2. E 1 (p ) = F et E 0 (p ) = G ; 3. πp = X (X − 1), donc p est diagonalisable ; 4. χp = X n−r (X − 1)r . 5. Si BF et BG sont des bases de F et G respectivement, alors B = BF ∪ BG est une base de E Ir 0 . et matB p = 0 0 2.1.2.3 Réduction des symétries linéaires Théorème (Rappels des propriétés d’une symétrie linéaire). Soit E un espace vectoriel et F et G deux sous-espaces supplémentaires de E . Soit σ la symétrie par rapport à F parallèlement à G . Alors : 1. σ ◦ σ = idE ; 2. F = {x ∈ E , σ(x ) = x } = Ker(σ − idE ) ; 3. G = {x ∈ E , σ(x ) = −x } = Ker(σ + idE ). Remarque. Si p est le projecteur sur F parallèlement à G , alors σ = 2p − idE . Corollaire (Réduction d’une symétrie linéaire). Soit E un espace vectoriel de dimension finie. On note r = dim F . 1. Sp σ = {−1, 1} donc σ est bijective ; 2. E 1 (σ) = F et E −1 (σ) = G ; 3. πσ = (X + 1)(X − 1), donc σ est diagonalisable ; 4. χσ = (X + 1)n−r (X − 1)r . 5. Si BF et BG sont des bases de F et G respectivement, alors B = BF ∪ BG est une base de E Ir 0 . et matB p = 0 −I n−r Romain Dujol 27 2.2 2.2.1 Sous-espaces caractéristiques. Forme de JORDAN Sous-espace caractéristique Définition 2.4 (Sous-espace caractéristique). Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E . Soit f un endomorphisme de E et λ une valeur propre de f d’ordre de multiplicité algébrique α. On appelle sous-espace caractéristique de f associé à la valeur propre λ, noté N λ ( f ) ou SEC( f , λ) par N λ ( f ) = Ker( f − λ idE )α Lorsqu’il n’y a pas d’ambigüité, on notera N λ au lieu de N λ ( f ). Théorème 2.5 (Décomposition selon les sous-espaces caractéristiques). Soit E un Kespace vectoriel de dimension finie et f un endomorphisme de E . Si χ f est scindé sur K, alors E est la somme directe de tous les sous-espaces caractéristiques de f . Démonstration. Alors on peut écrire χ f = (−1)n m Y i =1 (X − λi )αi . Comme les polynômes (X −λi )αi sont deux à deux premiers entre eux, on peut appliquer le théorème p L des noyaux pour en déduire que Ker χ f ( f ) = Ker( f − λi )αi . Or : i =1 – d’après le théorème de CAYLEY-HAMILTON, Ker χ f ( f ) = Ker 0L (E ) = E ; – par définition, Ker( f − λi )αi = N λi ( f ). p L On en conclut donc que E = N λi ( f ). i =1 Romain Dujol 28 Corollaire (Diagonlisation par blocs). Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E . m Y n On suppose que χ f est scindé sur K et qu’il s’écrit χ f = (−1) (X − λi )αi . i =1 Pour tout entier i de J1, m K, il existe une base Bi de N λi ( f ) et une matrice A i triangulaire supérieure telle que la matrice de f dans la base B = (B1 , . . . , Bm ) s’écrive : A1 0 · · · 0 .. . . 0 A2 .. matB f = . .. .. . . . 0 . 0 · · · 0 Am Démonstration. Soit i ∈ J1, m K. Alors N λi ( f ) est stable par f : donc on peut définir l’application fi : N λi ( f ) x → 7→ N λi ( f ) f (x ) qui est un endomorphisme de N λi ( f ). Son polynôme caractéristique χ f i = (−1)αi (X − λi )αi est scindé sur K, donc f i est trigonalisable sur K : on note alors Bi une base de trigonalisation de f i . Soit B = (B1 , . . . , Bm ) : alors B est une base de E et on obtient la décomposition demandée avec A i = matBi f i . 2.2.2 Forme de JORDAN Il s’agit alors de réaliser une réduction de chaque bloc qui a un polynôme caractéristique de la forme (−1)α (X − λ)α . Définition 2.5 (Bloc de JORDAN). Soit p un entier et λ ∈ K. On définit un bloc naturel non nul λ 1 0 ··· 0 .. .. . . 0 λ 1 . . . . . . . . de JORDAN de taille p , noté J p (λ), par J p (λ) = . . . . 0 où λ est un élément de K. . . . .. . . . . 1 0 ··· ··· 0 λ Proposition 2.7. Soit p un entier naturel non nul et λ ∈ K. Alors λ est l’unique valeur propre de J p (λ) et : 1. son ordre de multiplicité géométrique est égal à un, i.e. dim E λ ( J ) = 1 ; 2. son ordre de multiplicité algébrique est égal à p , i.e. χ J = (−1)p (X − λ)p . Romain Dujol 29 Proposition 2.8. Soit E un K-espace vectoriel de dimension α et f un endomorphisme de E qui n’admet qu’une seule propre λ. On note γ = dim E λ ( f ) et on écrit : – le polynôme caractéristique χ f = (−1)n (X − λ)α ; – le polynôme minimal π f = (X − λ)β . Alors il existe une base B de E telle que la matrice de f dans B soit une diagonale de γ blocs de JORDAN de taille inférieure ou égale à β . Théorème 2.6 (Décomposition sous forme de JORDAN). Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E . m Y On suppose que χ f est scindé sur K et qu’il s’écrit χ f = (−1)n (X − λi )αi . On suppose également que π f s’écrit : π f = (−1)n m Y i =1 i =1 (X − λi )βi . Pour tout entier i de J1, m K, on note γ = dim E λi ( f ) l’ordre de multiplicité géométrique de la valeur propre λi . Alors il existe une matrice A i , diagonale de γi blocs de JORDAN de taille inférieure ou égale à βi , et une base B de E telle que la matrice de f dans la base B s’écrive : A1 0 · · · 0 .. .. . . 0 A2 matB f = . .. .. . . . 0 . 0 · · · 0 Am 1 −1 2 −2 0 0 1 −1 Exemple. Trigonaliser A = sous forme de JORDAN. 1 −1 1 0 1 −1 1 0 Romain Dujol 30 Réduction des endomorphismes, techniques avancées : Exercices Exercice 2.1. Soit E un espace vectoriel de dimension trois et B = (e 1 , e 2 , e 3 ) une base de E . Soit θ un nombre réel et f l’endomorphisme de E tel que sa matrice dans la base B soit 0 A = −1 − sin θ 1 0 cos θ − sin θ cos θ 0 1. L’endomorphisme f est-il diagonalisable ? 2. Montrer que B ′ = f 2 (e 3 ), f (e 3 ), e 3 est une base de E et déterminer la matrice de f dans B ′ . 3. En déduire une trigonalisation de A. 1 a Exercice 2.2. Soit a , b et c trois nombres réels quelconques et A = 0 1 0 0 1 b . c 1. Donner une condition nécessaire et suffisante sur a , b et c pour que A soit diagonalisable sur R. 2. Diagonaliser ou trigonaliser A lorsque : (a) a = 0, b = 1 et c = 2 ; (b) a = b = c = 1. Exercice 2.3. Diagonaliser ou trigonaliser les matrices suivantes : 1 1 1 1 1 1 −1 −1 1. A 1 = 1 −1 1 −1 1 −1 −1 1 0 1 0 2. A 2 = 0 0 1 1 −3 3 0 3 2 3. A 3 = −2 5 2 2 −3 0 Romain Dujol 31 Chapitre 3 Réduction des endomorphismes, applications 3.1 3.1.1 Puissances entières d’une matrice Méthode par réduction d’endomorphisme Proposition 3.1 (Puissances d’une matrice carrée trigonalisable). Soit A une matrice carrée à coefficients dans K et trigonalisable sur K et (P, T ) sa trigonalisation. Alors : ∀k ∈ N, A k = PT k P −1 De plus, si A est inversible, alors ∀k ∈ Z, A k = PT k P −1 Démonstration. Montrons par récurrence que A k = PT k P −1 pour tout entier naturel k . – Si k = 0, alors PT 0 P −1 = PP −1 = I = A 0 . Donc la propriété est vraie au rang 0. – Soit k un entier naturel tel que A k = PT k P −1 . Alors : A k +1 = A k A = (PT k P −1 )(PT P −1 ) = PT k (P −1 P)T P −1 = PT k +1 P −1 Donc la propriété est vraie au rang k + 1. Si A est inversible, alors A −1 est également trigonalisable et (P, T −1 ) est une trigonalisation de A −1 . Donc en appliquant le résultat précédent à cette trigonalisation, il vient que ∀k ∈ N, A −k = (A −1 )k = P(T −1 )k P −1 = PT −k P −1 ce qui permet d’obtenir la relation pour les entiers naturels négatifs. Romain Dujol 32 Pour calculer A k pour tout entier naturel k , on procède de la manière suivante. Étape no 1 Déterminer une trigonalisation (P, T ) de A. Étape no 2 Calculer T k pour tout entier naturel n . Étape no 3 Former et calculer le produit PT k P −1 . Remarque. Cette méthode est particulièrement adaptée lorsque T est diagonale, c’est-à-dire lorsque A est diagonalisable car le calcul des puissances de D est immédiat : k λ1 0 · · · 0 λ1 0 · · · 0 .. .. .. .. .. .. . . . . . 0 0 . ⇒ ∀k ∈ N, D k = . . D = . .. . ... ... .. ... 0 0 . 0 · · · 0 λkp 0 · · · 0 λp 0 −8 6 7 . Exemple. Calculer les puissances de A = −1 −8 1 −14 11 3.1.2 Méthode par division euclidienne Proposition 3.2. Soit A une matrice carrée d’ordre n à coefficients dans K et P un polynôme annulateur de A. Pour tout entier naturel n , on note R n le reste de la division euclidienne du polynôme X n par P. Alors A n = R n (A). Démonstration. Soit n un entier naturel. Il existe un unique couple (Q n , R n ) de polynômes à coefficients dans K tels que deg R n < deg P et X n = PQ n + R n . Alors A n = (X n )(A) = (PQ n + R n )(A) = (Q n P)(A) + R n (A) = Q n (A) × P(A) + R n (A) = R n (A). Pour calculer A k pour tout entier naturel k , on procède de la manière suivante. Étape no 1 Déterminer un polynôme annulateur P de A. Étape no 2 Calculer le reste R n de la division euclidenne de X n par P pour tout entier naturel n . Étape no 3 Former et calculer R n (A). Remarque. 1. On utilisera souvent cette propriété avec P = χ f ou π f . 2. Toute puissance de A est donc une combinaison linéaire des deg P − 1 premières puissances de A. La méthode est alors d’autant plus efficace que deg P est petit : on en déduit que le choix optimal sera P = π f . 0 −8 6 7 . Exemple. Calculer les puissances de A = −1 −8 1 −14 11 Romain Dujol 33 3.2 3.2.1 Suites récurrentes linéaires Suites vectorielles récurrentes d’ordre un Proposition 3.3 (Suites vectorielles récurrentes d’ordre un). Soit n un entier naturel non nul et A une matrice carrée d’ordre n à coefficients dans K. Soit (X k )k ∈N la suite de vecteurs-colonne définie par ( X 0 ∈ Mn,1 (K) ∀k ∈ N, X k +1 = AX k Alors ∀k ∈ N, X k = A k X 0 Démonstration. Montrons par récurrence sur k que X k = A k X 0 pour tout entier naturel k . – Si n = 0, alors A 0 X 0 = I X 0 = X 0 . Donc la propriété est vraie au rang 0. – Soit k un entier naturel tel que X k = A k X 0 . Alors : X k +1 = AX k = A(A k X 0 ) = A k +1 X 0 . Donc la propriété est vraie au rang k + 1. Pour déterminer l’expression de X k en fonction de k , on procède de la manière suivante. Étape no 1 Calculer A k en fonction de k . Étape no 2 Former et calculer le produit matrice-vecteur A k X 0 . Exemple. Soit (u k )k ∈N , (v k )k ∈N et (w k )k ∈N trois suites réelles définies par : v 0 = 22 w 0 = 22 2u k + v k + w k u k +1 = 4 u k + vk + w k ∀k ∈ N, v k +1 = 3 u k + v k + 2w k w k +1 = 4 u 0 = 22 1. Calculer u k , v k et w k en fonction de k ∈ N. 2. En déduire l’étude de la convergence des suites (u k )k ∈N , (v k )k ∈N et (w k )k ∈N . Romain Dujol 34 3.2.2 Suites récurrentes linéaires d’ordre supérieur Proposition 3.4 (Suites récurrentes linéaires d’ordre supérieur). Soit p un entier naturel non nul et (a i )0≤i ≤p −1 ∈ Kp . On considère la suite numérique (u k )k ∈N définie par (u i )0≤i ≤p −1 ∈ Kp p −1 X ∀k ∈ N, u k +p = a i u n+i i =0 Soit (X k )k ∈N la suite de vecteurs-colonne définie par uk u k +1 ∀k ∈ N, X k = (u k +i )0≤i ≤p −1 = .. . u k +p −1 0 . . . Alors pour tout entier naturel k , X k +1 = AX k avec A = .. . 0 a0 1 .. . ··· a1 0 .. . .. . ··· ··· ··· .. . .. . 0 a p −2 0 .. . 0 1 a p −1 Pour déterminer l’expression de u k en fonction de k , on procède de la manière suivante. Étape no 1 Construire la matrice A. Étape no 2 Calculer A k en fonction de k . u0 u1 k o Étape n 3 Former et calculer le produit A X 0 avec X 0 = (u i )0≤i ≤p −1 = . . . u p −1 Étape no 4 Le terme u k est la première composante du produit ainsi obtenu. Exemple. Soit (u k )k ∈N la suite réelle définie par : ( u0 = 1 u1 = 5 u2 = 1 ∀k ∈ N, u k +3 = u k +2 + 4u k +1 − 4u k Calculer u k en fonction de k . Romain Dujol 35 3.3 Systèmes différentiels linéaires 3.3.1 Méthode par réduction directe Proposition 3.5 (Systèmes différentiels linéaires). Soit n un entier naturel non nul et A une matrice carrée d’ordre n à coefficients dans K. Soit X une application de R dans M p 1 (R) de classe C 1 sur R et (P, T ) une trigonalisation de A. Alors X est solution du système différentiel X ′ = AX si et seulement si Y : t 7→ P −1 X (t ) est solution du système différentiel Y ′ = T Y . Pour résoudre le système X ′ = AX , on procède de la manière suivante. Étape no 1 Déterminer une trigonalisation (P, T ) de A. Étape no 2 Poser et résoudre le système Y ′ = T Y en fonction de Y (0) = P −1 X (0). Étape no 3 Former et calculer PY (t ) pour tout t ∈ R. x′ = x +y +z Exemple. Résoudre le système différentiel y ′ = 2y + 2z . z ′ = x − y + 3z 3.3.2 Méthode par exponentielle Proposition 3.6. Soit n un entier naturel non nulet A une matrice carrée d’ordre n à coefficients dans K. P Ak A 7→ Alors la série d’applications converge normalement localement sur M n (K). k! k ∈N Définition 3.1 (Exponentielle de matrice). Soit n un entier naturel non nul et A une matrice carrée d’ordre n à coefficients dans K. +∞ k X A . On définit l’exponentielle de A, notée e A , par e A par e A = k! k =0 On note exp l’application définie par exp : M n (K) → M n (K) . A 7→ e A Romain Dujol 36 Proposition 3.7. Soit n ∈ N et A et B deux matrices carrées d’ordre n à coefficients dans K. 1. L’application exp est continue sur M n (K). 2. Si A et B commutent, alors e A+B = e A e B . 3. e 0n = I n 4. e A est une matrice inversible et e A −1 = e −A . Démonstration. 1. La convergence normale locale de la série d’applications qui définit la fonction exponentielle assure la continuité de cette dernière. P Bk P Ak et sont absolument conver2. Comme A et B commutent et que les séries matricielles k ∈N k ! k ∈N k ! gentes, il vient que leur série-produit l’est également et que la somme de cette dernière est égale au produit des sommes des deux séries, c’est-à-dire e A e B . Or le terme général de la série produit est : k k k k X X X Cik i k −i A i B k −i A i B k −i 1 X i i k −i (A + B )k = = A B = C A B = i ! (k − i )! i =0 i ! (k − i )! i =0 k ! k ! i =0 k k! i =0 Par définition, cette série converge e A+B , ce qui permet de conclure. ( +∞ X 0kn I n si k = 0 . On en déduit alors que e 0n = I n + 0n = I n . = 3. Soit k un entier naturel. Alors k! 0n si k > 0 k =1 4. Comme A et −A commutent, il vient que I n = e 0n = e A+(−A) = e A e −A . On en déduit que e A est inversible et que e −A est son inverse. Proposition 3.8 (Changement de base). Soit n un entier naturel non nul et A une matrice carrée d’ordre n à coefficients dans K. −1 Pour toute matrice P carrée d’ordre n à coefficients dans K inversible, on a e P AP = P −1 e A P. Démonstration. e P −1 AP = +∞ X (P −1 AP)k k =0 k! = +∞ −1 k X P A P k =0 k! =P −1 +∞ k X A k =0 k! ! P = P −1 e A P Proposition 3.9. Soit n un entier non nul et A une matrice carrée d’ordre n à coefficients dans K. Alors la solution du système différentielle X ′ = AX est X : t 7→ e t A X (0). Pour résoudre le système X ′ = AX , on procède de la manière suivante. Étape no 1 Calculer l’exponentielle de A : (a) Déterminer une trigonalisation (P, T ) de A. (b) Calculer e t T en fonction de t . (c) Former et calculer le produit P −1 e t T P. Étape no 2 Former et calculer le produit e t A X (0) Romain Dujol 37 Remarque. Cette méthode est particulièrement adaptée lorsque T est diagonale, c’est-à-dire lorsque A est diagonalisable car le calcul de l’exponentielle de D est immédiat : e λ1 0 · · · 0 λ1 0 · · · 0 .. .. .. .. .. .. . . . . 0 . . 0 ⇒ eD = . D = . .. .. . . ... ... . . 0 . 0 . 0 · · · 0 e λp 0 · · · 0 λp Exemple. Résoudre le système différentiel x′ = x +y +z y ′ = 2y + 2z Romain Dujol . ′ z = x − y + 3z 38 Réduction des endomorphismes, applications : Exercices Calcul des puissances d’une matrice 0 Exercice 3.1. Soit m un réel non nul et A = 1/m 1/m 2 1. A est-elle diagonalisable ? m 0 1/m m2 m . 0 2. Calculer A n pour tout entier naturel n . Suites récurrentes linéaires Exercice 3.2. Soit a et b deux nombres réels tels que a 6= 1. Soit (u k )k ∈N et (v k )k ∈N deux suites réelles définies par u 0 fixé ∀k ∈ N, v 0 fixé ( u k +1 = a u k + b v k v k +1 = v k 1. Calculer u k et v k en fonction de k ∈ N. 2. En déduire l’étude de la convergence des suites (u k )k ∈N et (v k )k ∈N . Exercice 3.3. Soit (u k )k ∈N une suite réelle définie telle que : ∀k ∈ N, u k +3 = u k +2 + 4u k +1 − 4u k uk Pour tout entier naturel k , on note X k = u k +1 . u k +2 1. Montrer qu’il existe une matrice A (que l’on explicitera) telle que X k +1 = AX k pour tout entier naturel k . 1 2. (a) Calculer A 1 1 (b) En déduire l’expression de u k en fonction de k lorsque u 0 = u 1 = u 2 . 1 (c) Que dire de 1 pour A ? 1 3. (a) Diagonaliser A. 1 (b) Décomposer le vecteur 1 dans la base de diagonalisation de A. 1 (c) En déduire l’expression de u k en fonction de k lorsque u 0 = 1, u 1 = 5 et u 2 = 1. 4. Est-il possible de trouver des valeurs de u 0 , u 1 et u 2 telle que u 100 = u 101 = 0 et u 102 = 1012 ? Si oui, les déterminer. Romain Dujol 39 Chapitre 4 Formes bilinéaires. Formes quadratiques 4.1 4.1.1 Forme bilinéaire Définitions Définition 4.1 (Forme bilinéaire). Soit E un R-espace vectoriel. Une forme bilinéaire sur E est une application f de E × E dans R telle que : 1. pour tout vecteur x de E , y 7→ f (x , y ) est une forme linéaire sur E , c’est-à-dire : ∀λ ∈ R, ∀x ∈ E , ∀y ∈ E , ∀y ′ ∈ E , f (x , y + λy ′ ) = f (x , y ) + λ f (x , y ′ ) 2. pour tout vecteur y de E , x 7→ f (x , y ) est une forme linéaire sur E , c’est-à-dire : ∀λ ∈ R, ∀x ∈ E , ∀x ′ ∈ E , ∀y ∈ E , f (x + λx ′ , y ) = f (x , y ) + λ f (x ′ , y ) Exemple. 1. E = R et f 1 : R × R → R (x , y ) 7→ x y 2. E = R2 et f 2 : R2 × R2 → R (x 1 , x 2 ), (y 1 , y 2 ) 7→ x 1 y 2 − x 2 y 1 3. E = C ([0, 1], R) et f 3 : C ([0, 1], R) × C ([0, 1], R) → R Z1 (φ, ψ) Romain Dujol 7→ φ(t )ψ(t ) dt 0 40 Proposition 4.1. Soit E un R-espace vectoriel et f une forme bilinéaire sur E . 1. ∀x ∈ E , f (x , 0E ) = 0 2. ∀y ∈ E , f (0E , y ) = 0 Définition 4.2 (Forme bilinéaire symétrique. Forme bilinéaire anti-symétrique). Soit E un R-espace vectoriel et f une forme bilinéaire sur E . f est dite symétrique si et seulement si ∀x ∈ E , ∀y ∈ E , f (y , x ) = f (x , y ) f est dite antisymétrique si et seulement si ∀x ∈ E , ∀y ∈ E , f (y , x ) = − f (x , y ) Exemple. En reprenant les exemples vus plus haut, les formes f 1 et f 3 sont symétriques et la forme f 2 est antisymétrique. Proposition 4.2 (Caractérisation rapide). Soit E un R-espace vectoriel et f une application de E × E dans R. Alors f est une forme bilinéaire symétrique si et seulement si les propositions suivantes sont vérifiées : 1. pour tout vecteur x de E , y 7→ f (x , y ) est une forme linéaire sur E , c’est-à-dire : ∀λ ∈ R, ∀x ∈ E , ∀y ∈ E , ∀y ′ ∈ E , f (x , y + λy ′ ) = f (x , y ) + λ f (x , y ′ ) 2. ∀x ∈ E , ∀y ∈ E , f (y , x ) = f (x , y ) Démonstration. Soit alors un vecteur y de E : montrons que x 7→ f (x , y ) est une forme linéaire sur E . Soit x et x ′ deux vecteurs de E et λ un nombre réel. Alors f (x + λx ′ , y ) = f (y , x + λx ′ ) = f (y , x ) + λ f (y , x ′ ) = f (x , y ) + λ f (x ′ , y ). Remarque. La proposition est toujours valable si on remplace l’hypothèse de linéarité f selon y par l’hypothèse de linéarité de f selon x . Romain Dujol 41 4.1.2 Orthogonalité Définition 4.3 (Vecteurs orthogonaux). Soit E un R-espace vectoriel et f une forme bilinéaire symétrique sur E . Deux vecteurs x et y de E sont dits orthogonaux pour f si et seulement si f (x , y ) = 0. Remarque. Si f n’est pas symétrique, alors on peut avoir f (x , y ) = 0 et f (y , x ) 6= 0, ce qui complique la définition. Définition 4.4 (Orthogonal d’une partie). Soit E un R-espace vectoriel et f une forme bilinéaire symétrique sur E . Pour toute partie A de E , on appelle orthogonal de A (pour f ), noté A ⊥ , le sous-espace vectoriel de E des vecteurs orthogonaux pour f à tous les vecteurs de A : A ⊥ = {x ∈ E , ∀y ∈ A, f (x , y ) = 0} Démonstration. Montrons que A ⊥ est bien un sous-espace vectoriel de E . Soit x 1 et x 2 deux éléments de A ⊥ et λ un nombre réel. Pour tout y de A, on a f (x 1 +λx 2 , y ) = f (x 1 , y )+ λ f (x 2 , y ) = 0. Donc x 1 + λx 2 est un élément de A ⊥ . Proposition 4.3. Soit E un R-espace vectoriel et f une forme bilinéaire symétrique sur E . Soit A et B deux parties de E . 1. Si A ⊂ B , alors B ⊥ ⊂ A ⊥ . 2. A ⊥ = (Vect A)⊥ 3. (A ∪ B )⊥ = A ⊥ ∩ B ⊥ Démonstration. 1. Soit x ∈ B ⊥ et y ∈ A. Alors y ∈ B et f (x , y ) = 0. Donc pour tout élément y de A, f (x , y ) = 0 : x ∈ A ⊥ . 2. Montrons la double inclusion. · Soit x ∈ A ⊥ et y ∈ Vect(A). Alors ∃p ∈ N\{0}, ∃(λi )1≤i ≤p ∈ Rp , ∃(y i )1≤i ≤p ∈ A p , y = On en déduit que f (x , y ) = f x, p X i =1 p X ! λi y i = p X λi y i i =1 f (x , y i ) = 0. i =1 Donc pour tout élément y de Vect A, f (x , y ) = 0 : x ∈ (Vect A)⊥ . · Comme A ⊂ Vect A, il vient que (Vect A)⊥ ⊂ A ⊥ . 3. Soit x un vecteur de E . Alors ⊥ x ∈ (A ∪ B ) ⇐⇒ ∀y ∈ A ∪ B, f (x , y ) = 0 ⇐⇒ Romain Dujol ( ∀y ∈ A, f (x , y ) = 0 ∀y ∈ B, f (x , y ) = 0 ⇐⇒ x ∈ A ⊥ ∩ B ⊥ 42 Définition 4.5 (Noyau). Soit E un R-espace vectoriel et f une forme bilinéaire symétrique sur E . On appelle noyau de f, noté N ( f ), le sous-espace vectoriel de E défini par N ( f ) = E ⊥ = {x ∈ E , ∀y ∈ E , f (x , y ) = 0} Définition 4.6 (Forme non dégénérée). Soit E un R-espace vectoriel et f une forme bilinéaire symétrique sur E . On dit que f est non dégénérée si et seulement si N ( f ) = {0E }. Définition 4.7 (Rang). Soit E un R-espace vectoriel de dimension finie et f une forme bilinéaire symétrique sur E . On définit le rang de f , noté rg f , par rg f = dim E − dim N ( f ). 4.1.3 Matrice d’une forme bilinéaire Proposition 4.4. Soit E un R-espace vectoriel de dimension n et B = (e 1 , . . . , e n ) une base de E . 2 La donnée des valeurs f (e i , e j ) pour tout (i , j ) ∈ J1, n K définit de manière unique la forme bilinéaire f . Démonstration. Soit x et y deux vecteurs de E que l’on décompose dans la base B = (e 1 , . . . , e n ) : x= n X xi ei et n X yj e j j =1 i =1 Alors y= n n n n n n X X X X XX x i y j f (e i , e j ) xi ei , yj e j = yj e j = x i f e i , f (x , y ) = f i =1 j =1 i =1 i =1 j =1 j =1 2 Donc si les valeurs f (e i , e j ) sont connues pour tout (i , j ) ∈ J1, n K , alors f (x , y ) est calculable de manière unique pour tous vecteurs x et y de E . Romain Dujol 43 Définition 4.8 (Matrice d’une forme bilinéaire). Soit E un R-espace vectoriel de dimension n et B = (e 1 , . . . , e n ) une base de E . Pour toute forme bilinéaire f sur E , on définit la matrice de f dans B , notée matB f par matB f = f (e i , e j ) (i ,j )∈J1,n K 2 Corollaire. Soit E un R-espace vectoriel de dimension n et B = (e 1 , . . . , e n ) une base de E . Si il existe des réels (a i j )(i ,j )∈J1,n K2 tels que pour : n X ∀x = i =1 x i e i , ∀y = n X y j e j , f (x , y ) = j =1 n X n X a i j xi yj i =1 j =1 alors matB f = (a i j )(i ,j )∈J1,n K2 . Exemple. Déterminer la matrice de f : R3 × R3 → R . (x 1 , x 2 , x 3 ), (y 1 , y 2 , y 3 ) 7→ x 1 y 2 + 7x 3 y 1 − 4x 3 y 3 Proposition 4.5 (Écriture matricielle). Soit E un R-espace vectoriel de dimension n et B = (e 1 , . . . , e n ) une base de E . Soit f une forme bilinéaire sur E et A la matrice de f dans B . Alors pour tous x et y vecteurs de E , on a : f (x , y ) = t X AY avec X = matB x et Y = matB y Démonstration. Soit x et y deux vecteurs de E que l’on décompose dans la base B = (e 1 , . . . , e n ) : x= n X xi ei et y= i =1 n X yj e j j =1 ! x1 y1 n X . . . a i j yj . Alors X = matB x = , puis . et Y = matB y = . . Donc AY = j =1 1≤i ≤n xn yn t X (AY ) = n X xi i =1 n X j =1 a i j yj = n n X X i =1 j =1 a i j xi yj = n n X X x i y j f (e i , e j ) = f (x , y ) i =1 j =1 d’après les calculs précédents. Romain Dujol 44 Corollaire. Soit E un R-espace vectoriel de dimension finie et f une forme bilinéaire sur E . 1. f est symétrique si et seulement si il existe une base B de E telle que matB soit une matrice symétrique. 2. f est antisymétrique si et seulement si il existe une base B de E telle que matB soit une matrice antisymétrique. Proposition 4.6 (Caractérisation matricielle du noyau). Soit E un R-espace vectoriel de dimension n et B = (e 1 , . . . , e n ) une base de E . Soit f une forme bilinéaire symétrique sur E et A la matrice de f dans B . Alors x ∈ N ( f ) ⇐⇒ X = matB x ∈ Ker A Démonstration. Lemme. φ: M n 1 (R)2 (X , Y ) → 7→ R est une forme bilinéaire symétrique non dégénérée. tX Y Démonstration. En exercice Soit x un vecteur de E et X = matB x . Alors x ∈ N ( f ) ⇐⇒ ∀y ∈ E , f (x , y ) = 0 ⇐⇒ ∀Y ∈ M n 1 (R), t X AY = 0 ⇐⇒ ∀Y ∈ M n 1 (R), t ( t X AY ) = 0 ⇐⇒ ∀Y ∈ M n 1 (R), t Y t AX = 0 ⇐⇒ ∀Y ∈ M n 1 (R), t Y AX = 0 ⇐⇒ ∀Y ∈ M n 1 (R), φ(Y, AX ) = 0 D’où le résultat demandé. ⇐⇒ AX ∈ Ker φ = {0} ⇐⇒ X ∈ Ker A Corollaire. Soit E un R-espace vectoriel de dimension finie et f une forme bilinéaire symétrique sur E . Alors f est non dégénérée si et seulement si il existe une base B de E telle que matB f soit inversible. Démonstration. On a alors Ker A = {0n 1 }. D’après ce qui précède, on en déduit que N ( f ) = {0E }. Proposition 4.7 (Formule de changement de bases pour les formes bilinéaires). Soit E un R-espace vectoriel de dimension finie et B et B ′ deux base de E . On note P = PB ,B ′ la matrice de passage de B dans B ′ . Soit f une forme bilinéaire sur E . On note A la matrice de f dans B et A ′ la matrice de f dans B ′ . Alors A ′ = t PAP Romain Dujol 45 Démonstration. Soit x un vecteur de E . On note X = matB x et X ′ = matB ′ x : alors X = PX ′ . Soit y un vecteur de E . On note Y = matB y et Y ′ = matB ′ y : alors Y = PY ′ . On a alors f (x , y ) = t X AY = t (PX ′ )A(PY ′ ) = t X ′ t PAPY ′ . En identifiant avec l’expression f (x , y ) = t X ′ AY ′ pour toutes matrices-colonne X ′ et Y ′ , on en conclut que A ′ = t PAP. ATTENTION. Ce n’est donc pas la même formule que pour le changement de bases pour les applications linéaires (A ′ = P −1 AP). 4.2 Forme quadratique 4.2.1 Définitions Définition 4.9 (Forme quadratique). Soit E un R-espace vectoriel. Une application q de E dans R est une forme quadratique sur E si et seulement si il existe une forme bilinéaire f telle que ∀x ∈ E , q (x ) = f (x , x ) Auquel cas, q est appelée forme quadratique associé à f . Proposition 4.8. Soit E un R-espace vectoriel, f une forme bilinéaire sur E et q la forme quadratique associé à f . 1. q (0E ) = 0 2. ∀λ ∈ K, ∀x ∈ E , ∀y ∈ E , q (x + λy ) = q (x ) + λ f (x , y ) + λ f (y , x ) + λ2q (y ) 3. ∀λ ∈ R, ∀x ∈ E , q (λx ) = λ2q (x ) Corollaire. Soit E un R-espace vectoriel, f une forme bilinéaire symétrique sur E et q la forme quadratique associé à f . Alors ∀x ∈ E , ∀y ∈ E , q (x + y ) = q (x ) + 2 f (x , y ) + q (y ) Proposition 4.9 (Forme polaire). Soit E un R-espace vectoriel et q une forme quadratique sur E . Alors il existe une unique forme bilinéaire symétrique f s , appelée forme polaire de q , telle que q est la forme bilinéaire associée à f . De plus ∀x ∈ E , ∀y ∈ E , f s (x , y ) = q (x + y ) − q (x ) − q (y ) 2 ou encore q (x + y ) − q (x − y ) 4 Ces deux relations sont appelées identités de polarisation. ∀x ∈ E , ∀y ∈ E , f s (x , y ) = ATTENTION. Si on enlève le terme « symétrique », l’unicité n’est plus vérifiée. Romain Dujol 46 Démonstration. Comme q est une forme quadratique, il existe une forme bilinéaire f sur E telle que q (x ) = f (x , x ) pour tout vecteur x de E . Montrons que f s : E × E → R est une forme bilinéaire symétrique sur E . q (x + y ) − q (x ) − q (y ) (x , y ) 7→ 2 Soit x et y deux vecteurs de E . Alors q (x + y ) = q (x ) + f (x , y ) + f (y , x ) + q (y ), donc f s (x , y ) = q (y + x ) − q (y ) − q (x ) f (x , y ) + f (y , x ) = 2 2 · Soit x et y deux vecteurs de E . Alors f s (y , x ) = f (y , x ) + f (x , y ) f (x , y ) + f (y , x ) = = f s (x , y ). 2 2 · Soit x , y et y ′ des vecteurs de E et λ un nombre réel. Alors f (x , y + λy ′ ) + f (y , x + λy ′ ) f (x , y ) + λ f (x , y ′ ) + f (y , x ) + λ f (y ′ , x )) = 2 2 ′ f (x , y ) + f (y , x ) f (x , y ) + f (y ′ , x ) = +λ = f s (x , y ) + λ f s (x , y ′ ) 2 2 f s (x , y + λy ′ ) = Soit x un vecteur de E , alors f s (x , x ) = quadratique associée à f s . 4.2.2 f (x , x ) + f (x , x ) = f (x , x ) = q (x ) : donc q est bien la forme 2 Orthogonalité Proposition 4.10 (Théorème de PYTHAGORE). Soit E un R-espace vectoriel et f une forme bilinéaire symétrique sur E . On note q la forme quadratique associée à f . Alors x et y sont deux vecteurs orthogonaux de E si et seulement si q (x + y ) = q (x ) + q (y ). Démonstration. On rappelle que q (x + y ) = q (x ) + 2 f (x , y ) + q (y ). Alors x et y sont orthogonaux ⇐⇒ 2 f (x , y ) = 0 ⇐⇒ q (x + y ) − q (x ) − q (y ) = 0 ⇐⇒ q (x + y ) = q (x ) + q (y ) Définition 4.10 (Noyau. Rang). Soit E un R-espace vectoriel et q une forme quadratique sur E . On définit le noyau de q , noté N (q ), comme le noyau de la forme polaire de q . On définit le rang de q , noté rgq , comme le rang de la forme polaire de q . Définition 4.11 (Vecteur isotrope. Cône isotrope). Soit E un R-espace vectoriel et q une forme quadratique sur E . On dit qu’un vecteur x de E est isotrope pour q si et seulement si q (x ) = 0. On appelle cône isotrope de q , noté I (q ), l’ensemble des vecteurs isotropes de q . Romain Dujol 47 ATTENTION. La partie I (q ) n’est pas en général un espace vectoriel : ce n’est donc pas la même chose que N (q ). Exemple. Étudier N (q ) et I (q ) lorsque q est définie par q : R2 → R . (x 1 , x 2 ) 7→ x 12 − x 22 Proposition 4.11. Soit E un R-espace vectoriel et q une forme quadratique sur E . Alors N (q ) ⊂ I (q ). Démonstration. On note f s la forme polaire de q . Soit x ∈ N (q ) = N ( f s ). Alors pour tout vecteur y de E , on a f s (x , y ) = 0. En particulier, si y = x , alors q (x , x ) = f s (x , x ) = 0 et x ∈ I (q ). Définition 4.12 (Forme quadratique positive, définie positive). Soit E un R-espace vectoriel et q une forme quadratique sur E . On dit que q est une forme quadratique positive si et seulement si q (E ) ⊂ R+ , c’est-à-dire que q (x ) est un réel positif pour tout vecteur x de E , i.e. : q est positive ⇐⇒ ∀x ∈ E , q (x ) ≥ 0 On dit que q est une forme quadratique définie positive si et seulement si q est positive et que I (q ) = 0, i.e. : ( ∀x ∈ E , q (x ) ≥ 0 q est définie positive ⇐⇒ q (x ) = 0 ⇐⇒ x = 0 Remarque. On définit de manière analogue une forme quadratique négative ou définie négative. Théorème 4.1 (Inégalité de CAUCHY-SCHWARTZ). Soit E un R-espace vectoriel et f une forme bilinéaire symétrique dont la forme quadratique associée est positive. Alors : ∀x ∈ E , ∀y ∈ E , | f (x , y )| ≤ p q (x )q (y ) Démonstration. On a : ∀x ∈ E , ∀y ∈ E , ∀λ ∈ R, 0 ≤ q (x + λy ) = q (x ) + 2λ f (x , y ) + λ2 q (y ) Soit x et y deux vecteurs de E . Alors le trinôme du second degré λ 7→ q (x ) + 2λ f (x , y ) + λ2q (y ) est positif : donc il ne peut avoir deux racines réelles distinctes, ce qui implique que son discrimant ∆ = 4 f (x , y )2 − 4q (x )q (y ) est négatif ou nul. Donc pour tous vecteurs x et y de E , f (x , y )2 ≤ q (x )q (y ). On conclut en passant à la racine carrée (car q est positive). Romain Dujol 48 Corollaire (Inégalité de MINKOWSKI). Soit E un R-espace vectoriel et f une forme bilinéaire symétrique dont la forme quadratique associée est positive. Alors : ∀x ∈ E , ∀y ∈ E , p p p q (x + y ) ≤ q (x ) + q (y ) Démonstration. Soit x et y deux vecteurs de E . Alors d’après l’inégalité de CAUCHY-SCHWARTZ : hp i2 p p q (x + y ) = q (x ) + 2 f (x , y ) + q (y ) ≤ q (x ) + 2 q (x )q (y ) + q (y ) = q (x ) + q (y ) On conclut en passant à la racine carrée (car q est positive). 4.2.3 Matrice d’une forme quadratique Définition 4.13 (Matrice d’une forme quadratique). Soit E un R-espace vectoriel de dimension finie et B une base de E . Pour toute forme quadratique q sur E , on définit la matrice de q dans B , noté matB q par matB q = matB f s où f s désigne la forme polaire de q . Remarque. Comme f s est symétrique, il vient que la matrice d’une forme quadratique est toujours symétrique. Proposition 4.12. Soit E un R-espace vectoriel de dimension n et B = (e 1 , . . . , e n ) une base de E . Si il existe des réels (a i j )(i ,j )∈J1,n K2 tels que pour : n X ∀x = a 11 a 12 alors matB q = 2. . . a 1n 2 a 12 2 a 22 .. . ··· Démonstration. Soit f s : i =1 X a i j xi x j 1≤i ≤j ≤n a 1n 2 ··· .. . .. . .. . a n −1,n 2 E ×E x i e i , f (x , y ) = . a n −1,n 2 a nn R la forme polaire de q . q (x + y ) − q (x ) − q (y ) (x , y ) 7→ 2 Soit k et l deux entiers de J1, n K. Alors, d’après la définition de la matrice de q , le coefficient en q (e k + e l ) − q (e k ) − q (e l ) . position (k , l ) de matB q est f s (e k , e l ) = 2 Romain Dujol → 49 ( 1 si i = k · Si x = e k , alors pour tout i ∈ J1, n K, x i = . Donc pour tous entiers i et j de J1, n K, 0 si i 6= k ( 1 si i = k et j = k xi x j = et q (e k ) = a k k . 0 si i 6= k ou j 6= k · De même, q (e l ) = a l l . ( 1 si i = k ou i = l · Si x = e k + e l , alors pour tout i ∈ J1, n K, x i = . On distingue alors trois cas : 0 si i 6= k et i 6= l – si k = l , alors x = 2e k et q (x ) = 4q (e k ) = 4qk k ; ( 1 si (i , j ) ∈ {(k , k ), (k , l ), (l , l )} et q (e k + – si k < l , alors pour tous entiers i et j de J1, n K, x i x j = 0 sinon el ) = a kk + a kl + a l l – de même, si l < k , q (e k + e l ) = a l l + a l k + a k k . Finalement : · Si k = l , alors f s (e k , e k ) = q (e k ) = a k k . akl akk + akl + al l − akk − al l = . · Si k < l , alors f s (e k , e l ) = 2 2 alk · De même, si k > l , f s (e k , e l ) = . 2 4.2.4 Réduction d’une forme quadratique Théorème. Soit E un R-espace vectoriel de dimension finie. Toute forme quadratique sur E peut se décomposer en une combinaison linéaire de carrés de formes linéaires indépendantes. Démonstration. Soit n un entier naturel non nul. On démontrera le résultat pour E = Rn , le résultat pouvant être étendu par isomorphisme à tout R-espace vectoriel de dimension n. Montrons par récurrence que pour tout entier naturel non nul n et pour toute forme quadratique sur Rn , il existe une famille (Φi )1≤i ≤n de vecteurs indépéndants de L (Rn , R) et un n-uplet (λi )1≤i ≤n de nombres réels tels que n X ∀x ∈ Rn , q (x ) = λi Φ(x )2 i =1 · Si n = 1, alors il existe un nombre réel λ tel que q : x 7→ λx 2 . La décomposition demandée est alors évidente et la propriété est vraie au rang 1. · Supposons que la décomposition demandée soit possible pour toute forme quadratique de Rn . Soit q une forme quadratique sur Rn +1 : alors il existe une famille (a i j )1≤i ≤j ≤n +1 de nombres réels tels que : X ∀x = (x 1 , . . . , x n +1 ) ∈ Rn +1 , q (x ) = a i j xi x j 1≤i ≤j ≤n Romain Dujol 50 On distingue deux cas. – Si il existe i 0 ∈ J1, n + 1K tel que a i 0 i 0 soit non nul. Quitte à réordonner les variables, on peut supposer sans perte de généralité que i 0 = 1. Alors on écrit pour tout x = (x 1 , . . . , x n +1 ) de Rn +1 : q (x ) = a 11 x 12 + n X i =2 = a 11 x 12 + X a 1i x 1 x i + n X a i =2 1i a 11 = a 11 a i j xi x j 2≤i ≤j ≤n n !2 n X a 1i xi x1 + 2a 11 i =2 !2 n X a 1i xi x1 + 2a 11 i =2 !2 a 1i − 2 xi 2a 11 2≤i ≤j ≤n X a 1i a i j X − aij + 2≤i ≤j ≤n → (x 2 , . . . , x n +1 ) 2a 11 2≤i ≤j ≤n X Rn Soit l’application q1 : X x 1x i + X a 1i = a 11 x 1 + xi 2a 11 i =2 = a 11 a i j xi x j 2≤i ≤j ≤n 7→ X a 1j xj + a i j xi x j · 2a 11 2≤i ≤j ≤n xi x j + X a i j xi x j 2≤i ≤j ≤n a 1i 1− xi x j 2a 11 R X aij 2≤i ≤j ≤n . a 1i 1− xi x j 2a 11 Alors q1 est une forme quadratique sur Rn et, d’après l’hypothèse de récurrence, il existe un n-uplet (λi )2≤i ≤n +1 de nombres réels et une famille (Φ̃i )2≤i ≤n +1 de vecteurs indépendants de L (Rn , R) tels que : ∀(x 2 , . . . , x n +1 ) ∈ Rn , q1 (x 2 , . . . , x n +1 ) = n +1 X λi Φ̃i (x 2 , . . . , x n +1 )2 i =2 Rn +1 x = (x 1 , . . . , x n +1 ) Alors la famille (Φi )2≤i ≤n +1 est indépendante dans L (Rn +1 , R). Pour tout entier i de J2, n + 1K, on note Φi : Rn +1 → 7→ R . Φ̃i (x 2 , . . . , x n +1 ) . n X a 1i xi x = (x 1 , . . . , x n +1 ) 7→ x 1 + 2a 11 i =2 Alors Φ1 est une forme linéaire sur Rn +1 et elle est indépendante des formes linéaires Φ2 , . . . Φn +1 car elle seule dépend explicitement de x 1 . On déduit de tous ces éléments que : On note λ1 = a 11 et Φ1 : → R ∀x = (x 1 , . . . , x n +1 ) ∈ Rn +1 , q (x ) = λ1 Φ1 (x )2 + q1 (x ) = λ1 Φ1 (x )2 + = λ1 Φ1 (x )2 + n +1 X λi Φ̃i (x 2 , . . . , x n +1 )2 i =2 n +1 X λi Φi (x )2 = i =1 i =2 On obtient ainsi la décomposition demandée. Romain Dujol n +1 X 51 λi Φi (x )2 – Si pour tout entier i de J1, n K, le coefficient a i i est nul, soit i 0 et j 0 deux entiers de J1, n K tels que i 0 6= j 0 et que le coefficient a i 0 j 0 soit non nul 1 . Quitte à réordonner les variables, on peut supposer sans perte de généralité que i 0 = 1 et j 0 = 2. Alors on écrit pour tout vecteur x = (x 1 , . . . , x n +1 ) de Rn +1 : q (x ) = a 12 x 1 x 2 + n X a 1i x 1 x j + = a 12 x 1 x 2 + n X a i =3 = a 12 x 1 + a 12 n X a i =3 1i x 1x j + n X a i =3 a 12 2i a 12 · x2 + xj a i j xi x j 3≤i ≤j ≤n ! 2i X a 2i x 2 x j + i =3 i =3 n X X x 2x j + n X a i =3 a i j xi x j 3≤i ≤j ≤n n X a ! 1i a 12 xj − i =3 n X a ! 2i a 12 xj · ! 1i a 12 i =3 X xj + a i j xi x j 3≤i ≤j ≤n !2 !2 n n n n X X X X a 12 a 2i a 1i a 1i a 2i = − x1 + x j + x2 + xj x j − x2 − xj x1 + 4 a a a a 12 12 12 12 i =3 i =3 i =3 i =3 ! ! n n Xa X Xa 2i 1i a i j xi x j − a 12 xj · xj + a a i =3 12 3≤i ≤j ≤n i =3 12 On procède comme dans le cas précédent en appliquant l’hypothèse de récurrence sur Rn −1 q1 : → (x 3 , . . . , x n +1 ) R 7→ n X a −a 12 i =3 ! 2i a 12 xj · n X a i =3 ! 1i a 12 X xj a i j xi x j + 3≤i ≤j ≤n pour obtenir une décomposition de q1 de la forme : ∀x = (x 1 , . . . , x n +1 ) ∈ Rn +1 , q1 (x ) = Par construction, Rn +1 Φ1 : x = (x 1 , . . . , x n +1 ) Rn +1 Φ2 : → 2i R 7→ x1 + n X a λi Φi (x )2 i =3 → n X a i =3 2i a 12 x j + x2 + n X a i =3 et 1i a 12 xj sont deux formes linéaires indé- R n X a n X 1i x j − x2 − xj a 12 a i =3 12 pendantes entre elles et elles sont également indépendantes des formes linéaires Φ3 , . . . , Φn +1 car seules Φ1 et Φ2 dépendent explicitement de x 1 et x 2 . On conclut comme précédemment à l’existence de la décomposition demandée et la propriété est vraie au rang n + 1. x = (x 1 , . . . , x n +1 ) 7→ x1 + i =3 Remarque. La méthode de décomposition présentée est appelée décomposition de GAUSS de q . 1. Si deux tels entiers n’existe pas, alors q est la forme quadratique nulle. . . et la décomposition est évidente ! Romain Dujol 52 Proposition 4.13 (Loi d’inertie de SYLVESTER. Signature). Soit E un R-espace vectoriel de dimension n et q une forme quadratique sur E . Pour toute décomposition de q en combinaison linéaire de carrées de formes linéaires n X q= λi Φ2 , on note : i =1 – σ+ le nombre de coefficients λi strictement positifs ; – σ− le nombre de coefficients λi strictement négatifs. Les nombres σ+ et σ− ne dépendent de la décomposition choisie. Le couple (σ+ , σ− ) est appelé la signature de q . Proposition 4.14. Soit E un R-espace vectoriel de dimension finie et q une forme quadratique sur E de signature (σ+ , σ− ). Alors rgq = σ+ + σ− . Proposition 4.15 (Caractérisation rapide de la signature). Soit E un R-espace vectoriel de dimension finie et q une forme quadratique sur E de signature (σ+ , σ− ). Soit B une base de E et A la matrice de q dans B . Alors : 1. σ+ est égal au nombre de valeurs propres strictement positives de A ; 2. σ+ est égal au nombre de valeurs propres strictement négatives de A. Romain Dujol 53 Formes bilinéaires. Formes quadratiques : Exercices Formes bilinéaires Exercice 4.1. Soit f la forme bilinéaire sur R3 définie par f : R3 × R3 → R (x 1 , x 2 , x 3 ), (y 1 , y 2 , y 3 ) 7→ x 1 y 1 + 6x 2 y 2 + 56x 3 y 3 − 2(x 1 y 2 + x 2 y 1 ) + 7(x 1 y 3 + x 3 y 1 ) + 18(x 2 y 3 + x 3 y 2 ) 1. Écrire la matrice de f dans la base canonique de R3 . 2. (a) Montrer que B = (1, 0, 0), (2, 1, 0), (−3, 2, 1) est une base de R3 . (b) Écrire la matrice de f dans la base B . 3. Soit q la forme quadratique q associée à f . (a) Donner l’expression de q dans la base canonique de R3 . (b) Donner l’expression de q dans la base B . Exercice 4.2. Soit E un R-espace vectoriel et f une forme bilinéaire sur E telle que ∀x ∈ E , f (x , x ) = 0 ⇒ x = 0 Soit U une application de E dans E telle que ∀x ∈ E , ∀y ∈ E , f U (x ),U (y ) = f (x , y ) Montrer que U est un endomorphisme injectif de E . Formes quadratiques Exercice 4.3. Soit E un R-espace vectoriel, f une forme bilinéaire sur E et q la forme quadratique associée à f . 1. Soit x et y deux vecteurs isotropes de q . Montrer que : x + y est un vecteur isotrope de q ⇐⇒ x et y sont orthogonaux pour q 2. (a) Montrer que : (b) Montrer que : (c) Montrer que : ∀x ∈ E , ∀y ∈ E , q (x + y ) + q (x − y ) = 2q (x ) + 2q (y ) ∀x ∈ E , ∀y ∈ E , q (x + y ) − q (x − y ) = 2 f (x , y ) + f (y , x ) ∀x ∈ E , ∀y ∈ E , ∀z ∈ E , q (x + y ) +q (x + z ) +q (y + z ) = q (x ) +q (y ) +q (z ) +q (x + y + z ) 3. Montrer que q est identiquement nulle si et seulement si f est antisymétrique. Romain Dujol 54 Exercice 4.4. 1. Les applications suivantes sont-elles des formes quadratiques sur R[X ] ? (a) Φ1 : P 7→ P(0)P(1) (b) Φ2 : P 7→ P(0)P(1) + P(0) (c) Φ3 : P 7→ P(0)P(1)P(2) 2. Soit q : R2 [X ] → R . P 7→ P(0)P(1) (a) Déterminer la forme polaire de q . (b) Déterminer la matrice de q dans la base canonique de R2 [X ]. Exercice 4.5. Soit q la forme quadratique sur R4 définie par q: R4 → R (x 1 , x 2 , x 3 , x 4 ) 7→ 4x 1 x 2 + 6x 32 + 6x 3 x 4 + 2x 42 1. (a) Déterminer la matrice de q dans la base canonique de R4 . (b) Déterminer l’expression de la forme polaire f de q . (c) La forme bilinéaire symétrique f est-elle dégénérée ? 2. Déterminer les vecteurs de P = Vect{(1, 0, 0, 0), (0, 1, 0, 0)} isotropes pour q Exercice 4.6. Soit n un entier naturel non nul et A une matrice carrée d’ordre n à coefficients réels. On définit l’application f par f : M n1 (R) × M n1 (R) → R . t (X , Y ) 7→ X AY On note q la forme quadratique associé à f . 1. Montrer que f est une forme bilinéaire sur M n1 (R). 2. (a) Quelle est la matrice de f dans la base canonique de M n1 (R) ? (b) Calculer la matrice de q dans la base canonique de M n1 (R). 0 2 . 3. Soit A = 0 0 (a) Calculer les valers propres de A. (b) Calculer les valeurs propres de la matrice de q dans la base canonique de M n1 (R) et en déduire la signature de q . (c) Que dire de l’assertion « Si A a toutes ses valeurs propres positives, alors X 7→ t X AX est une forme bilinéaire symétrique positive sur M n1 (R). » ? Comparer par rapport à la proposition 4.15 page 53. Romain Dujol 55 2 4 . 4. Soit A = 0 1 (a) Calculer les valers propres de A. (b) Calculer les valeurs propres de la matrice de q dans la base canonique de M n1 (R) et en déduire la signature de q . (c) Que dire de l’assertion « Si A a toutes ses valeurs propres strictement positives, alors X 7→ t X AX est une forme bilinéaire symétrique définie positive sur M n1 (R). » ? Comparer par rapport à la proposition 4.15 page 53. 5. Montrer que une forme bilinéaire est antisymétrique et seulement si sa forme quadratique associée est nulle. Réduction de formes quadratiques Exercice 4.7. Pour chacune des formes quadratiques qi suivantes, déterminer : – sa matrice A i dans la base canonique ; – sa signature et son rang ; – son noyau N (qi ). 1. q1 : M 2 (R) → R A 7→ det A 2. q2 : 3. q3 : 4. q4 : 5. q5 : 6. q6 : R3 → R (x 1 , x 2 , x 3 ) 7→ x 12 + 2x 22 + 2x 32 + 2x 1 x 2 − 4x 1 x 3 − 6x 2 x 3 R3 → R où a est un réel de ]0, 1[ 2 2 (x 1 , x 2 , x 3 ) 7→ x 1 + x 2 − 2a (x 1 x 2 + x 1 x 3 + x 2 x 3 ) R3 → R (x 1 , x 2 , x 3 ) 7→ x 1 x 2 + x 1 x 3 R4 → R (x 1 , x 2 , x 3 , x 4 ) 7→ x 12 + x 22 + 2x 1 x 2 + 2x 1 x 3 + 2x 1 x 4 + 2x 2 x 3 + 2x 2 x 4 + 4x 3 x 4 R6 → R (x 1 , x 2 , x 3 , x 4 , x 5 , x 6 ) 7→ x 1 x 2 + x 2 x 3 + x 3 x 4 + x 4 x 5 + x 5 x 1 7. q7 : R2 [X ] → R P 7→ P(0)P(1) Pour P = 1 + X + X 2 , déterminer {P}⊥ puis {P}⊥⊥ . Romain Dujol 56 Exercice 4.8. Pour chacune des formes quadratiques suivantes, déterminer sa signature. 1. q1 : 2. q2 : 3. q3 : R3 → R (x 1 , x 2 , x 3 ) 7→ x 12 + x 22 − x 32 + 2x 1 x 3 R4 → R où λ est un nombre réel quelconque (x 1 , x 2 , x 3 , x 4 ) 7→ 2(x 1 x 2 + x 3 ) − λ(x 1 x 3 + x 3 x 4 ) Rn → R n X (x 1 , . . . , x n ) → 7 x i2 + a i =1 Rn 4. q4 : → RX (x 1 , . . . , x n ) 7→ 1≤i <j ≤n où a est un nombre réel quelconque n X !2 xi i =1 (x i − x j )2 Orthogonalité Exercice 4.9. Soit α un nombre réel et qα la forme quadratique sur R3 définie par qα : R3 → R (x 1 , x 2 , x 3 ) 7→ 4x 12 + 4x 22 + αx 32 + 2x 1 x 2 + 4x 1 x 3 − 4x 2 x 3 1. Déterminer une décomposition de GAUSS de qα . 2. (a) Étudier le rang et la signature de qα selon la valeur de α. (b) À quelle condition sur α, la forme quadratique α est-elle positive ? définie positive ? négative ? définie négative ? 3. (a) Déterminer une base B8/3 q8/3 -orthogonale, i.e. une base de vecteurs de R3 deux à deux orthogonaux pour q8/3 . (b) Déterminer la matrice de q8/3 dans B8/3 . Exercice 4.10. Soit l’application q : M n (R) → R . A 7→ tr(A 2 ) 1. Montrer que q est une forme quadratique sur M n (R) et déterminer sa forme polaire f . 2. Montrer que Sn (R) et An (R) sont des sous-espaces supplémentaires dans M n (R) et orthogonaux pour f . 3. Déterminer une base q -orthogonale de M 2 (R). Romain Dujol 57 Chapitre 5 Espaces euclidiens 5.1 5.1.1 Produit scalaire Définition Définition 5.1 (Produit scalaire). Soit E un R-espace vectoriel. Un produit scalaire sur E est une forme bilinéaire sur E symétrique dont la forme quadratique est définie positive. Proposition 5.1 (Norme euclidienne). Soit E un R-espace vectoriel. Soit f un produit scalaire sur E et q la forme quadratique associée à f . est une norme sur E et est appelée norme euclidienne associée à f . Alors N : E → R p q (x ) x 7→ Démonstration. Montrons les trois propriétés de la norme. 1. Soit x un vecteur de E . Comme q est définie positive, il vient que I (q ) = {0E } puis que N (x ) = 0 ⇐⇒ N (x )2 = 0 ⇐⇒ q (x ) = 0 ⇐⇒ x = 0E 2. Soit x un vecteur de E et λ un nombre p p réel. Alors p N (λx ) = q (λx ) = λ2q (x ) = |λ| q (x ) = |λ|N (x ) 3. Comme f est symétrique etp que q est une positive, on peut appliquer l’inégalité pforme quadratique p de MINKOWSKI : N (x + y ) = q (x + y ) ≤ q (x ) + q (y ) = N (x ) + N (y ). Définition 5.2 (Espace préhilbertien réel. Espace euclidien). Soit E un R-espace vectoriel. E est un espace préhilbertien réel si et seulement si il existe un produit scalaire sur E . E est un espace euclidien si et seulement si E est un espace préhilbertien réel de dimension finie. Romain Dujol 58 Corollaire. Tout espace préhilbertien réel (et donc tout espace euclidien) est un espace vectoriel normé. Remarque. Sauf indication contraire, pour un espace préhilbertien réel, on notera (·|·) le produit scalaire et k · k la norme euclidienne associée. Proposition 5.2 (Identités de polarisation). Soit E un espace préhilbertien réel dont on note (·|·) le produit scalaire et k · k la norme euclidienne associée. Alors ∀x ∈ E , ∀y ∈ E , (x |y ) = kx + y k2 − kx k2 − ky k2 kx + y k2 − kx − y k2 = 2 4 Démonstration. C’est la transposition directe des identités de polarisation associées à (·|·) et à sa forme quadratique associée k · k2 . Proposition 5.3 (Inégalité de CAUCHY-SCHWARTZ). Soit E un espace préhilbertien réel dont on note (·|·) le produit scalaire et k · k la norme euclidienne associée. Alors ∀x ∈ E , ∀y ∈ E , |(x |y )| ≤ kx k · ky k Démonstration. C’est l’application directe de l’inégalité de CAUCHY-SCHWARTZ à la forme bilinéaire symétrique (·|·) dont la forme quadratique associée est définie positive. 5.1.2 Exemples fondamentaux Proposition 5.4 (Produit scalaire canonique sur Rn ). Soit n un entier naturel non nul. L’application (·|·) : Rn × Rn → R est un produit scalaire sur Rn n X (x 1 , . . . , x n ), (y 1 , . . . , y n ) 7→ x i yi appelé produit scalaire canonique sur Rn . i =1 Démonstration. En exercice. Proposition 5.5. Soit a et b deux nombres réels tels que a < b . est un produit scalaire sur C ([a ,b ], R). L’application (·|·) : C ([a ,b ], R)2 → R Zb (f , g ) 7→ f (t )g (t ) d t a Démonstration. En exercice. Romain Dujol 59 5.2 5.2.1 Orthogonalité Définitions Dans un espace préhilbertien réel (et donc dans un espace euclidien), l’orthogonalité est toujours définie par rapport au produit scalaire : il est donc inutile de préciser la forme bilinéaire symétrique dans un tel cadre. Définition 5.3 (Orthogonalité). Soit E un espace préhilbertien réel dont le produit scalaire se note (·|·). Deux vecteurs x et y de E sont dits orthogonaux si et seulement si ils sont orthogonaux pour (·|·) en tant que forme bilinéaire symétrique, i.e. (x |y ) = 0. Définition 5.4 (Sous-espace orthogonal). Soit E un espace préhilbertien réel et F un sous-espace vectoriel de E . On appelle (sous-espace) orthogonal de F , noté F ⊥ , le sous-espace vectoriel de E des vecteurs orthogonaux à tous les éléments de F : F ⊥ = {x ∈ E , ∀y ∈ F, (x |y ) = 0} 5.2.2 Familles orthogonales Définition 5.5 (Famille orthogonale. Famille orthonormale). Soit E un espace préhilbertien réel. Une famille de vecteurs de E est dite orthogonale si et seulement si les vecteurs de cette famille sont orthogonaux deux à deux. Une famille de vecteurs de E est dite orthognormale ou orthonormée si et seulement si elle est orthogonale et que tous les vecteurs ont une norme euclidienne égale à un. Exemple. La base canonique de Rn est une famille orthonormale pour le produit scalaire canonique sur Rn . Romain Dujol 60 Proposition 5.6 (Théorème de PYTHAGORE). Soit E un espace préhilbertien réel et F = (x 1 , . . . , x p ) une famille orthogonale de E . 2 p p X X Alors kx i k2 . xi = i =1 i =1 Démonstration. Montrons le résultat par récurrence pour tout entier p ≥ 2. – Si p = 2, alors x 7→ kx k2 est la forme quadratique associée à (·|·) et : kx 1 + x 2 k2 = kx 1 k2 + 2(x 1 |x 2 ) + kx 2 k2 = kx 1 k2 + kx 2 k2 Donc la propriété est vraie au rang 2. – Soit p un entier naturel supérieur ou égal à deux tel que pour toute famille (x 1 , . . . , x p ) orthogonale 2 p p X X kx i k2 . xi = de p vecteurs E , on a i =1 i =1 Soit alors une famille (x 1 , . . . , x p +1 ) orthogonale de p + 1 vecteurs de E . p p X X x i et x i ∈ Vect{x 1 , . . . , x p }, il vient que Alors x p +1 ∈ {x 1 , . . . , x p }⊥ = (Vect{x 1 , . . . , x p })⊥ . Comme i =1 i =1 2 2 p p +1 X X x i + kx p +1 k2 . xi = x p +1 sont orthogonaux et que i =1 i =1 Or (x 1 , . . . , x p ) est une famille orthogonale de p vecteurs de E : donc on peut appliquer l’hypothèse 2 p p X X kx i k2 . Finalement : xi = de récurrence pour obtenir que i =1 i =1 2 2 p +1 p p p +1 X X X X kx i k2 kx i k2 + kx p +1 k2 = x i + kx p +1 k2 = xi = i =1 i =1 i =1 i =1 Donc la propriété est vraie au rang p + 1. Remarque. Le théorème de PYTHAGORE vu au collège est une application de ce résultat pour p = 2 sur l’espace euclidien R2 muni du produit scalaire canonique sur R2 . Proposition 5.7. Soit E un espace euclidien. Toute famille orthogonale de vecteurs non nuls de E est libre. Démonstration. Soit F = (x 1 , . . . , x p ) une famille orthogonale de vecteurs non nuls de E . Alors ∀i ∈ J1, p K , ∀j ∈ J1, p K , (i 6= j ) ⇒ (x i |x j ) = 0 Soit (λi )1≤i ≤p un p -uplet de nombres réels tel que p X λi x i = 0. ! p p X X λi (x i |x j ) = λ j (x j |x j ) = λ j kx j k2 . λi x i x j = i =1 i =1 i =1 Soit j un entier de J1, p K. Alors 0 = (0E |x j ) = Comme x j est un vecteur non nul, il vient que kx j k2 est non nul : on en déduit que λ j , et ce pour tout entier j de J1, n K. On en conclut que F est libre. Romain Dujol 61 Proposition 5.8 (Décomposition dans une base orthonormale). Soit E un espace euclidien de dimension n et B = (e 1 , . . . , e n ) une base orthonormale de E . Alors ∀x ∈ E , x = n X i =1 (x |e i ) · e i et kx k2 = n X i =1 (x |e i )2 Remarque. Autrement dit, « la composante de x selon e i est (x |e i ) ». Démonstration. Soit x un vecteur de E . Comme B est une base de E , il existe un n-uplet (λ1 )1≤i ≤n de n X λi e i . Soit j un entier de J1, n K. Comme B est une famille orthogonale, nombres réels tels que x = i =1 ! p X λi (e i |e j ) = λ j (e j |e j ) = λ j ke j k2 = λ j (car ke j k = 1) λi e i e j = i =1 i =1 p X (x |e j ) = Comme {(x |e i ) · e i }1≤i ≤p est une famille orthogonale, on peut appliquer le théorème de PYTHAGORE : kx k2 = Romain Dujol p X i =1 k(x |e i )e i k2 = p X i =1 |(x |e i )|2 ke i k2 = p X i =1 (x |e i )2 62 5.2.3 Procédé d’orthonormalisation de SCHMIDT 5.2.3.1 Formulation théorique Théorème 5.1 (Procédé d’orthonormalisation de SCHMIDT). Soit E un espace préhilbertien réel et F = (e 1 , . . . , e p ) une famille libre de E . Alors il existe une famille orthonormale (u 1 , . . . , u p ) telle que pour tout entier k de J1, p K : 1. la famille (u 1 , . . . , u k ) soit orthonormale ; 2. Vect{e 1 , . . . , e k } = Vect{u 1 , . . . , u k }. Démonstration. Montrons le résultat par récurrence finie sur k ∈ J1, p K. e1 – Si k = 1, alors on choisit u 1 = . ke 1 k – Soit k un entier de J1, p − 1K tel qu’il existe une famille orthonormale (u 1 , . . . , u k ) telle que Vect{e 1 , . . . , e k } = Vect{u 1 , . . . , u k }. k X û k +1 . Soit û k +1 = e k +1 − (e k +1 |u i ) · u i et u k +1 = kû k +1 k i =1 · Comme u i ∈ Vect{e 1 , . . . , e k } ⊂ Vect{e 1 , . . . , e k +1 } pour tout entier i de J1, k K, û k +1 ∈ Vect{e 1 , . . . , e k +1 }. Donc Vect{u 1 , . . . , u k +1 } ⊂ Vect{e 1 , . . . , e k +1 }. k X · Comme e k +1 = (e k +1 |u i ) · u i + kû k +1 ku k +1 , e k +1 ∈ Vect{u 1 , . . . , u k +1 }. i =1 Donc Vect{e 1 , . . . , e k +1 } ⊂ Vect{u 1 , . . . , u k +1 }. · Soit j un entier de J1, k K. Alors ! k X (e k +1 |u i )(u i |u j ) (e k +1 |u i ) · u i u j = (e k +1 |u j ) − (û k +1 |u j ) = e k +1 − i =1 i =1 k X = (e k +1 |u j ) − (e k +1 |u j )(u j |u j ) = (e k +1 |u j ) − (e k +1 |u j )ku j k2 = 0 Donc û k +1 est orthogonal à u j pour tout entier j de J1, k K : la famille (u 1 , . . . , u k +1 ) est donc orthonormale. Donc la propriété est vraie au rang k + 1. Corollaire. Tout espace euclidien admet une base orthonormale. Démonstration. Soit E un espace euclidien. Alors E est de dimension finie et admet une base B = (e 1 , . . . , e n ). Comme B est une famille libre de E , d’après le théorème précédent, il existe une famille orthonormale (u 1 , . . . , u n ) telle que Vect{u 1 , . . . , u n } = Vect{e 1 , . . . , e n } = E . Donc (u 1 , . . . , u n ) est une famille génératrice de n vecteurs de E et on conclut que c’est une base (orthonormale) de E . Romain Dujol 63 5.2.3.2 Algorithmes Soit E un espace préhilberien réel et F un sous-espace vectoriel de dimension p . On cherche à calculer une base orthonormale de F . Procédé d’orthonormalisation Si l’on connaît une base de F , alors le procédé d’orthonormalisation de SCHMIDT permet de définir un algorithme pour déterminer une base orthonormale de F . Entrée : Base (e 1 , . . . , e p ) de F Sortie : Base orthonormale (u 1 , . . . , u p ) de F e1 u 1← ke 1 k pour k ←2 à p faire k −1 X û k ←e k − (e k |u i ) · u i i =1 û k uk ← kû k k fin pour Remarque. Cet algorithme normalise (i.e. ramène la norme à un) chaque vecteur u k avant de passer au suivant. Procédé d’orthogonalisation La normalisation à chaque étape pouvant rendre les calculs plus difficiles, il peut être intéressant de retarder cette opération et de l’effectuer une fois une base orthogonale trouvée. On peut modifier l’algorithme précédent afin qu’il calcule une base orthogonale de F , puis normer chacun des vecteurs de cette base. Entrée : Base (e 1 , . . . , e p ) de F Sortie : Base orthonormale (u 1 , . . . , u p ) de F û 1 ←e 1 pour k ←2 à p faire k −1 X (e k |û i ) û k ←e k − · û i (û i |û i ) i =1 fin pour pour k ←1 à p faire û k uk ← kû k k fin pour Remarque. La famille (û 1 , . . . , û p ) est alors une base orthogonale de F . Romain Dujol 64 5.3 Théorème de projection Théorème 5.2 (Théorème de projection). Soit E un espace préhilbertien réel et F un sousespace vectoriel de E de dimension p . Pour tout vecteur x de E , il existe un unique vecteur de F appelé projeté orthogonal de x sur F , noté prF (x ) tel que x − prF (x ) soit un élément de F : ( y = prF (x ) ⇐⇒ y ∈F x −y ∈ F⊥ Si (e 1 , . . . , e p ) est une base orthonormée de F , alors p r F (x ) = p X i =1 (x |e i ) · e i . Démonstration. F étant de dimension finie, c’est un espace euclidien : donc il admet une base orthop X (x |e i ) · e i vérifie les conditions normée B = (e 1 , . . . , e p ). Soit x un vecteur de E . Montrons que y = i =1 demandées. – Par construction, y ∈ Vect B = F . – Soit i un entier de J1, p K. Alors, par construction (y |e i ) = (x |e i ) : donc 0 = (x |e i )−(y |e i ) = (x −y |e i ). Donc x − y est orthogonal à e i . On en déduit que x − y ∈ B ⊥ = (Vect B )⊥ = F ⊥ . Supposons qu’il existe deux vecteurs y et y ′ de F tels que x − y et x − y ′ soit un élément de F ⊥ : – comme F ⊥ est un sous-espace vectoriel, (x − y ) − (x − y ′ ) est un élement de F ⊥ ; – on a (x − y ) − (x − y ′ ) = y ′ − y : donc (x − y ) − (x − y ′ ) est un élement de F . Donc y ′ − y est orthogonal à tout élément de F , notamment à lui-même : donc 0 = (y ′ − y |y ′ − y ) = ky ′ − y k2 . On en déduit que y ′ − y = 0, puis que y ′ = y : le projeté orthogonal est unique. Méthode (Calcul du projeté orthogonal de x sur F ). Pour calculer le projeté de x sur F , il y a donc deux ( approches : y ∈F – à partir de la définition : y = prF (x ) ⇐⇒ x −y ∈ F⊥ (voir en fin de chapitre pour la détermination de F ⊥ ) – à partir d’une base BF de F : 1. appliquer un procédé d’orthonormalisation sur BF pour obtenir une base orthonormale (e 1 , . . . , e p ) de F 2. calculer p r F (x ) = p X i =1 Romain Dujol (x |e i ) · e i . 65 Proposition 5.9. Soit E un espace préhilbertien réel et F un sous-espace vectoriel de E de dimension finie. 1. prF est un endomorphisme de E . 2. Pour tout vecteur x de F , prF (x ) = x . 3. Pour tout vecteur x de F ⊥ , prF (x ) = 0E . Démonstration. 1. Soit x 1 et x 2 deux vecteurs de E et λ un nombre réel. On note y = prF (x 1 ) + λ prF (x 2 ). – Comme F est un sous-espace vectoriel, y est un élément de F . – On a x 1 + λx 2 − y = x 1 + λx 2 − [prF (x 1 ) + λ prF (x 2 )] = [x 1 − prF (x 1 )] + λ[x 2 − prF (x 2 )]. Comme x 1 − prF (x 1 ) et x 2 − prF (x 2 ) sont deux éléments de F ⊥ , il vient que x 1 + λx 2 − y est un élément de F ⊥ . Donc y vérifie les propriétés du projeté orthogonal de x 1 + λx 2 sur F . Par unicité de ce projeté orthogonal, on en déduit que prF (x 1 ) + λ prF (x 2 ) = y = pr(x 1 + λx 2 ). 2. On a x ∈ F et x − x = 0 ∈ F ⊥ . Par unicité du projeté orthogonal de x sur F , il vient que prF (x ) = x . 3. On a 0 ∈ F et x − 0 = x ∈ F ⊥ . Par unicité du projeté orthogonal de x sur F , il vient que prF (x ) = 0E . Proposition 5.10 (Caractérisation par la distance). Soit E un espace préhilbertien réel et F un sous-espace vectoriel de E de dimension finie. Soit x un vecteur de E . Alors p r F (x ) est l’unique minimum global de la fonction δ : F → R . y 7→ kx − y k On appelle distance de x à F , notée d (x , F ) le nombre réel défini par d (x , F ) = kx − prF (x )k = min kx − y k y ∈F Démonstration. Soit y ∈ F . Alors on a x − y = x − prF (x ) + prF (x ) − y . Or : – par définition du projeté orthogonal, x − prF (x ) ∈ F ⊥ ; – comme prF (x ) est un élément de F , il vient que prF (x ) − y ∈ F . Donc x − prF (x ) et prF (x ) − y sont orthogonaux : d’après le théorème de PYTHAGORE, on a kx − y k2 = kx − prF (x )k2 + k prF (x ) − y k2 · Pour tout vecteur y de F , kx −y k2 ≥ kx −prF (x )k2 : donc kx −y k ≥ kx −prF (x )k, i.e. δ(y ) ≥ δ(prF (x )). On en déduit que prF (x ) est un minimum global de δ. · Soit y ∈ F , alors δ(y ) = δ(prF (x )) ⇐⇒ kx − y k = kx − prF (x )k ⇐⇒ kx − y k2 = kx − prF (x )k2 ⇐⇒ kx − prF (x )k2 + k prF (x ) − y k2 = kx − prF (x )k2 ⇐⇒ k prF (x ) − y k2 = 0 ⇐⇒ k prF (x ) − y k = 0 ⇐⇒ y = prF (x ) Donc prF (x ) est le seul minimum global de δ. Romain Dujol 66 Corollaire (Existence d’un supplémentaire orthogonal). Soit E un espace euclidien et F un sousespace vectoriel de E . Alors F ⊥ est l’unique supplémentaire de F qui soit orthogonal à F . Démonstration. Montrons que F et F ⊥ sont supplémentaires dans E . – Soit x ∈ F ∩ F ⊥ . Alors x est orthogonal à tout élement de F , en particulier lui-même : donc 0 = (x |x ) = kx k2 puis x = 0E . Donc F ∩ F ⊥ = {0E }. – Soit x un élément de E et prF (x ) son projeté orthogonal sur F . Alors x = prF (x ) + [x − prF (x )] ∈ F + F ⊥ . On en déduit que E = F + F ⊥ . Soit G un sous-espace supplémentaire de F tel que F et G sont orthogonaux : – comme tout élément de G est orthogonal à tout élément de F , il vient que G ⊂ F ⊥ ; – de plus dimG = dim E − dim F = dim F ⊥ car F ⊥ est lui aussi supplémentaire de F . On en déduit alors que G = F ⊥ . Méthode. Pour caractériser F ⊥ , il y a deux approches possibles qui nécessitent la connaissance d’une base (pas nécessairement orthogonale) BF = (e 1 , . . . , e p ) de F : – par procédé d’orthonormalisation : 1. on complète BF en une base B = (e 1 , . . . , e n ) de E (où n = dim E ) 2. on applique un procédé d’orthonormalisation à B pour obtenir une base orthonormale (u 1 , . . . , u n ) de E ⇒ (u 1 , . . . , u p ) est une base orthonormale de F ⇒ (u p +1 , . . . , u n ) est une base orthonormale de F ⊥ – en partant de la relation F ⊥ = BF⊥ : (x |e 1 ) = 0 .. x ∈ F ⊥ ⇐⇒ x ∈ {e 1 , . . . , e p }⊥ ⇐⇒ . (x |e p ) = 0 on obtient alors un système linéaire Proposition 5.11. Soit E un espace euclidien et F un sous-espace vectoriel de E . Alors (F ⊥ )⊥ = F . Démonstration. Comme F est supplémentaire orthogonal à F ⊥ , on en conclut par unicité du supplémentaire orthogonal que le sous-espace orthogonal à F ⊥ est F . Projecteur orthogonal. Symétrie orthogonale Corollaire (Projecteur orthogonal). Soit E un espace euclidien et F un sous-espace vectoriel de E . Alors prF est le projecteur linéaire sur F parallèlement à F ⊥ et est appelé projecteur orthogonal sur F . Définition 5.6 (Symétrie orthogonale). Soit E un espace euclidien et F un sous-espace vectoriel de E . On définit la symétrie orthogonale sur F , notée σF , comme la symétrie linéaire sur F par rapport à F ⊥ . Romain Dujol 67 Espaces euclidiens : Exercices Produit scalaire Exercice 5.1. Montrer que φ: R3 × R3 → R (x 1 , x 2 , x 3 ), (y 1 , y 2 , y 3 ) 7→ (x 1 − 2x 2 )(y 1 − 2y 2 ) + x 2 y 2 + (x 2 + x 3 )(y 2 + y 3 ) est un produit scalaire sur R3 . R3 → R (x 1 , x 2 , x 3 ) 7→ x 12 + 4x 1 x 2 + 5x 22 + 2x 1 x 3 + 2x 2 x 3 + 5x 32 et q2 : R3 → R . (x 1 , x 2 , x 3 ) 7→ −x 12 + 2x 1 x 2 + 2x 22 − 8x 1 x 3 − 4x 2 x 3 + 2x 32 Pour chacune de ces deux applications qi (i = 1, 2) : p 1. déterminer si qi est une norme euclidienne, i.e. associée à un produit scalaire ; Exercice 5.2. Soit q1 : 2. déterminer, le cas échéant une base qi -orthogonale. Exercice 5.3. Montrer que φ : R[X ]2 P,Q est un produit scalaire sur R[X ]. → R Z1 7→ P(t )Q(t ) dt 0 Exercice 5.4. Soit n un entier naturel non nul. 1. Montrer que n ∀(x 1 , . . . , x n ) ∈ R , n X i =1 !2 xi ≤n n X x i2 i =1 2. Pour quelles valeurs de (x 1 , . . . , x n ) l’inégalité précédente est-elle une égalité ? Exercice 5.5. Soit E un espace préhilbertien réel non réduit à {0E } dont on note (·|·) le produit scalaire. Pour a , b et c réels, on définit l’application φ : E × E → R . (x , y ) 7→ a (x |x ) + b (x |y ) + c (y |y ) À quelles conditions sur a , b et c , l’application φ est-elle un produit scalaire sur E ? Exercice 5.6. Soit n un entier naturel non nul et A une matrice carrée d’ordre n à coefficients réels. 1. (a) Montrer que t AA est la matrice d’une forme quadratique q sur Rn positive. (b) À quelle condition sur A la matrice t AA est-elle la matrice d’un produit scalaire sur Rn ? 2. Soit B la matrice d’un produit scalaire sur Rn . Montrer qu’il existe une matrice carrée A d’ordre n telle que B = t AA. La matrice A est-elle unique ? Romain Dujol 68 Théorème de la projection Exercice 5.7. 1. Montrer que φ : R3 [X ]2 P,Q est un produit scalaire sur R3 [X ]. → R Z +∞ P(t )Q(t ) dt 7→ 0 2. Déterminer la projection orthogonale de X 3 sur R2 [X ]. Z +∞ 3. Calculer λ = (t 3 + a t 2 + b t + c )2 e −t dt . inf (a ,b,c )∈R3 0 Exercice 5.8. Soit F = {(x 1 , x 2 , x 3 , x 4 ) ∈ R4 , x 1 + x 2 + x 3 + x 4 = 0 et x 1 + 2x 2 + 3x 3 + 4x 4 = 0}. Calculer la matrice de prF dans la base canonique de R4 . Exercice 5.9. 1. (a) Montrer que (·|·) : 3 X k =0 R3 [X ]2 est un produit scalaire sur R3 [X ]. ! → R 3 3 X X akXk, bk X k 7→ a k bk k =0 k =0 (b) Vérifier que la base canonique de R3 [X ] est une base orthonormale de E . 2. (a) Montrer que F = {P ∈ R3 [X ], P(3) = 0} est un sous-espace vectoriel de E . (b) Déterminer une base orthonormale de F . 3. (a) Par deux méthodes différentes, déterminer prF (P) pour tout polynôme P de R3 [X ]. (b) Calculer prF (X ) et d (X , F ). Romain Dujol 69 Chapitre 6 Endomorphismes remarquables d’un espace euclidien 6.1 Endomorphismes orthogonaux. Matrices orthogonales 6.1.1 Endomorphismes orthogonaux Définition 6.1. Soit E un espace préhilbertien réel dont le produit scalaire est noté (·|·). Un endomorphisme orthogonal de E est un endomorphisme qui conserve le produit scalaire : f est un endomorphisme orthogonal de E ⇐⇒ ∀(x , y ) ∈ E 2 , f (x ) f (y ) = (x |y ) On note O (E ) l’ensemble des endomorphismes orthogonaux de E . Remarque. Toute application qui conserve le produit scalaire est un endomorphisme. Proposition 6.1. Soit E un espace euclidien. 1. Un endomorphisme orthogonal conserve la norme euclidienne. 2. Un endomorphisme orthogonal de E est un automorphisme de E . 3. idE est un endomorphisme orthogonal. 4. L’inverse d’un endomorphisme orthogonal est un endomorphisme orthogonal. 5. La composée de deux endomorphismes orthogonaux est un endomorphisme orthogonal. 6. L’image d’une base orthogonale par un endomorphisme orthogonal est une base orthogonale. 7. L’image d’une base orthonormale par un endomorphisme orthogonal est une base orthonormale. 8. Toutes les valeurs propres d’un endomorphisme orthogonal sont de module 1. ( La réciproque n’est pas vraie.) Romain Dujol 70 Démonstration. 1. Soit f un endomorphisme orthogonal de E et x un vecteur de E . Alors Æ p f (x ) f (x ) = (x |x ) = kx k k f (x )k = Donc f conserve la norme euclidienne. 2. Soit x un vecteur de Ker f . Alors f (x ) = 0E : donc 0 = k f (x )k = kx k. On en déduit que x = 0. Donc f est un endomorphisme injectif. Comme E est de dimension finie, on en déduit que f est un automorphisme de E . 3. Soit x et y deux vecteurs de E . Alors idE (x )idE (y ) = (x |y ). Donc idE est un endomorphisme orthogonal. 4. Soit f un endomorphisme orthogonal et x et y deux vecteurs de E . Alors f est un automorphisme et : (x |y ) = idE (x )idE (y ) = f ( f −1 (x )) f ( f −1 (y )) = f −1 (x ) f −1 (y ) Donc f −1 est un endomorphisme orthogonal de E . 5. Soit f et g deux endomorphismes orthogonaux de E . Soit x et y deux vecteurs de E . Alors : ( f ◦ g )(x )( f ◦ g )(y ) = f (g (x )) f (g (y )) = g (x ) g (y ) = x y Donc f ◦ g est un endomorphisme orthogonal de E . 6. Soit f un endomorphisme orthogonal de E et B = (e 1 , . . . , e n ) une base orthogonale de E . Comme f est un automorphisme, f (B ) est une base de E . De plus, si i et j sont deux entiers distincts de J1, n K, alors f (e i ) f (e j ) = (e i |e j ) = 0. Donc f (B ) est orthogonale. 7. Soit f un endomorphisme orthogonal de E et B = (e 1 , . . . , e n ) une base orthonormale de E . Comme B est orthogonale, f (B ) est orthogonale. De plus, pour tout i de J1, n K, k f (e i )k = ke i k = 1. Donc f (B ) est orthonormale. ATTENTION. Contrairement à ce que pourrait laisser penser son nom, un projecteur orthogonal n’est donc pas un endomorphisme orthogonal (car un projecteur n’est pas un automorphisme) ! Remarque. Les propriétés (ii) à (v) impliquent que (O (E ), ◦) est un sous-groupe de (GL(E ), ◦). À ce titre, O (E ) est appelé groupe orthgonal de E . Théorème 6.1. Soit E un espace euclidien et f un endomorphisme de E . Alors f est un endomorphisme orthogonal de E si et seulement si il existe une base orthonormale B de E telle que f (B ) soit orthonormale. Remarque. Donc un endomorphisme orthogonal transforme toute base orthonormale en base orthonormale. Romain Dujol 71 Proposition 6.2. Soit E un espace euclidien et f un endomorphisme orthogonal de E . Si F est un sous-espace vectoriel de E stable par f , alors F ⊥ est également stable par f . Démonstration. Soit y ∈ f (F ⊥ ) : alors il existe x ∈ F ⊥ tel que y = f (x ). Soit z ∈ F . Comme f est orthogonal, f −1 l’est également et (y |z ) = f (x )z = f −1 ( f (x )) f −1 (z ) = x f −1 (z ) Comme f est un automorphisme, il vient en fait que F est invariant par f , i.e. f (F ) = F . Donc f −1 (F ) = F et f −1 (z ) ∈ F . Donc (y |z ) = 0 pour tout vecteur z de F : y est un élément de F ⊥ . 6.1.2 Matrices orthogonales Définition 6.2. Une matrice carrée A est dite orthogonale si et seulement si A −1 = t A. On note On (R) l’ensemble des matrices orthogonales d’ordre n à coefficients réels. Proposition 6.3. 1. La matrice identité est une matrice orthogonale. 2. L’inverse d’une matrice orthogonale est une matrice orthogonale. 3. Le produit de deux matrices orthogonales est une matrice orthogonale. Démonstration. 1. I n−1 = I n = t I n 2. Soit A une matrice orthogonale d’ordre n. Alors (A −1 )−1 = A = t ( t A) = t A −1 . 3. Soit A et B deux matrices orthogonales d’ordre n. Alors (A B )−1 = B −1 A −1 = t B t A = t (A B ). Corollaire. On (R) est un sous-groupe de l’ensemble GLn (R) des matrices inversibles d’ordre n et est appelé le groupe orthogonal d’ordre n . Proposition 6.4 (Caractérisation d’une matrice orthogonale). Une matrice carrée d’ordre n est orthogonale si et seulement si ses colonnes constituent une base orthonormale de M n1 (R). Une matrice carrée d’ordre n est orthogonale si et seulement si ses lignes constituent une base orthonormale de M 1n (R). Théorème 6.2. Soit E un espace euclidien et f un endomorphisme de E . Alors f est un endomorphisme orthogonal si et seulement si il existe une base orthonormale dans laquelle la matrice de f est orthogonale. Corollaire. Si A est une matrice orthogonale, alors det A ∈ {−1, 1}. ATTENTION. La réciproque n’est pas vraie. Romain Dujol 72 6.2 Endomorphismes autoadjoints 6.2.1 Adjoint d’un endomorphisme Définition 6.3. Soit E un espace préhilbertien réel et f un endomorphisme de E . Alors il existe un unique endomorphisme f ∗ de E tel que ∀(x , y ) ∈ E 2 , f (x )y = x f ∗ (y ) L’endomorphisme f ∗ est appelé l’endomorphisme adjoint de f . Proposition 6.5. Soit E un espace euclidien et f et g deux endomorphismes de E . (i) ( f ∗ )∗ = f (ii) ∀λ ∈ R, ( f + λg )∗ = f ∗ + λg ∗ (iii) ( f ◦ g )∗ = g ∗ ◦ f ∗ (iv) Ker f ∗ = (Im f )⊥ et Im f ∗ = (Ker f )⊥ . (v) Si B est une base orthonormale de E , alors matB f ∗ = t (matB f ). Démonstration. (i) Pour tous vecteurs x et y de E , on a f ∗ (y )x = y f (x ) . Par identification, il vient que f est l’endomorphisme autoadjoint de f ∗ . (ii) Soit x et y deux vecteurs de E . Alors ( f + λg )(x )y = f (x ) + λg (x )y = f (x )y + λ g (x )y = x f ∗ (y ) + λ x g ∗ (y ) = x f ∗ (y ) + λg ∗ (y ) = x ( f ∗ + λg ∗ )(y ) On conclut alors par identification. (iii) Soit x et y deux vecteurs de E . Alors ( f ◦ g )(x )y = f (g (x ))y = g (x ) f ∗ (y ) = x g ∗ ( f ∗ (y )) = x (g ∗ ◦ f ∗ )(y ) On conclut alors par identification. (iv) Montrons la première égalité par une double inclusion. · Soit z ∈ Ker f ∗ : alors f ∗ (z ) = 0E. Soit y ∈ Im f : alors il existe x ∈ E tel que y = f (x ). On en déduit que (y |z ) = f (x )z = x f ∗ (z ) = (x |0E ) = 0. Donc z est orthogonal à tout élément de Im f et z ∈ (Im f )⊥ . · Soit z ∈ (Im f )⊥ . Pour tout vecteur x de E , on a x f ∗ (z ) = f (x )z . Comme f (x ) ∈ Im f et z ∈ (Im f )⊥ , il vient que x f ∗ (z ) = 0. Donc f ∗ (z ) dans le noyau du produit scalaire : on en déduit alors que f ∗ (z ) = 0, i.e. z ∈ Ker f ∗ . La deuxième égalité se déduit de la première. En effet, en utilisant la propriété (i), il vient que (Ker f ∗ )⊥ = [(Im f ∗∗ )⊥ ]⊥ = (Im f )⊥⊥ = Im f . Romain Dujol 73 (v) Soit B = (e 1 , . . . , e n ) une base orthonormale de E . Comme la j e colonne de A = matB f est le vecteur des composantes de f (e j ) dans la base B , il vient que Ai j est la i e composante de f (e j ) dans B . La base B étant orthonormale, on peut écrire que A i j = f (e j )e i . Appliquons la définition de l’endomorphisme autoadjoint avec x = e i et y = e j : f (e i )e j = e i f ∗ (e j ) = f ∗ (e j )e i Autrement dit, si on note A ∗ = matB f ∗ , on a A j i = A ∗i j pour tous entiers i et j de J1, n K. On conclut alors que A ∗ = t A. Corollaire. Soit E un espace euclidien et f un endomorphisme de E . Alors f est un endomorphisme orthogonal si et seulement si f −1 = f ∗ . Démonstration. Il suffit de passer par les matrices (orthogonales) des endomorphismes considérés. 6.2.2 Endomorphisme autoadjoint Définition 6.4. Soit E un espace préhilbertien réel. Un endomorphisme f de E est dit autoadjoint ou symétrique si et seulement si f ∗ = f . Corollaire. Soit E un espace euclidien. Alors f est un endomorphisme autoadjoint si et seulement si sa matrice dans une base orthonormale est symétrique. Proposition 6.6. Soit E un espace euclidien et f un endomorphisme autoadjoint. (i) Ker f et Im f sont des sous-espaces supplémentaires orthogonaux de E . (ii) Si F est un sous-espace vectoriel de E stable par f , alors F ⊥ est également stable par f . Démonstration. (i) On a Ker f = Ker f ∗ = (Im f )⊥ , d’où le résultat. (ii) Soit y ∈ f (F ⊥ ) : alors il existe x ∈ F ⊥ tel que y = f (x ). Soit z ∈ F , alors (y |z ) = f (x )z = x f (z ) . Comme z est un élément de F , il vient que f (z ) également. Donc (y |z ) = 0 pour tout vecteur z de F : y est un élément de F ⊥ . Proposition 6.7. Soit E un espace euclidien et f un endomorphisme orthogonal de E . Alors f est une symétrie orthogonale si et seulement f est autoadjoint. Démonstration. Montrons les deux implications. · Si f est une symétrie, alors f 2 = idE , puis f −1 = f . Comme f est orthogonal, il vient que f −1 = f ∗ : on en conclut que f ∗ = f puis que f est autoadjoint. Romain Dujol 74 · Si f est autoadjoint, alors f ∗ = f . Comme f est orthogonal, il vient que f −1 = f ∗ : on en déduit que f −1 = f puis que f est une symétrie. Si on note p = ( f + idE )/2 le projecteur associé, alors p ∗ = ( f ∗ + id∗E )/2 = ( f + idE )/2 = p et p est autoadjoint. Donc Ker p et Im p sont supplémentaires orthogonaux et p est un projecteur orthogonal : on conclut que f est une symétrie orthogonale. Corollaire. Les sous-espaces propres d’un endomorphisme autoadjoint sont orthogonaux deux à deux. Démonstration. Soit f un endomorphisme autoadjoint de E et λ1 et λ2 deux valeurs propres distinctes. Soit x 1 ∈ E λ1 ( f ) et x 2 ∈ E λ1 ( f ). Alors λ1 (x 1 |x 2 ) = (λ1 x 1 |x 2 ) = f (x 1 )x 2 = x 1 f (x 2 ) = (x 1 |λ2 x 2 ) = λ2 (x 1 |x 2 ) Donc (λ1 − λ2 )(x 1 |x 2 ). Comme λ1 et λ2 sont distincts, il vient que λ1 − λ2 6= 0, puis que (x 1 |x 2 ) = 0. D’où le résultat demandé. Remarque. Deux vecteurs propres associés à deux valeurs propres distinctes sont donc orthogonaux. Théorème 6.3. Tout endomorphisme autoadjoint est diagonalisable sur R dans une base orthonormale. Démonstration. ADMIS Corollaire. Soit A une matrice symétrique d’ordre n . Alors il existe une matrice orthogonale P d’ordre n et une matrice diagonale D telle que A = P −1 AP = t PAP. 6.2.3 Endomorphisme anti-autoadjoint Définition 6.5. Soit E un espace préhilbertien réel. Un endomorphisme f de E est dit antiautoadjoint ou antisymétrique si et seulement si f ∗ = − f . Corollaire. Soit E un espace euclidien. Alors f est un endomorphisme anti-autoadjoint si et seulement si sa matrice dans une base orthonormale est antisymétrique. Proposition 6.8. Soit E un espace euclidien et f un endomorphisme anti-autoadjoint. (i) Ker f et Im f sont des sous-espaces supplémentaires orthogonaux de E . (ii) Si F est un sous-espace vectoriel de E stable par f , alors F ⊥ est également stable par f . (iii) 0 est valeur propre de f . Romain Dujol 75 Endomorphismes remarquables d’un espace euclidien : Exercices Endomorphismes orthogonaux Exercice 6.1. Soit E un espace euclidien et f un endomorphisme orthogonal de E . 1. Montrer que les seules valeurs propres réelles de f sont −1 et/ou 1. 2. Montrer que si toutes les valeurs propres de f sont réelles, alors il existe une base orthonor Ip 0 où p et q sont deux male de E dans laquelle la matrice de f est de la forme 0 −I q entiers tels que p + q = n . Exercice 6.2. Soit E un espace euclidien. Soit f une application de E dans E telle que f (0) = 0 et qui conserve la distance euclidienne, c’est-à-dire : ∀u ∈ Rn , ∀v ∈ Rn , k f (u ) − f (v )k = ku − v k 1. Montrer que f conserve la norme euclidienne. 2. Montrer que f conserve le produit scalaire. 3. Montrer que f est un endomorphisme orthogonal. Exercice 6.3. Soit E un espace euclidien et f un endomorphisme de E . 1. Montrer que tout endomorphisme qui conserve la norme euclidienne est un endomorphisme orthogonal de E . 2. On considère les trois propositions suivantes. (P1) f est une isométrie (P2) f 2 = − idE (P3) ∀x ∈ E , : f (x )x = 0 Montrer que n’importe quelle combinaison de deux propriétés implique la troisième. [ Indication : Pour montrer « (P1) et (P3) ⇒ (P2) », on pourra commencer par montrer que f 2 (x )x + kx k2 = 0.] Exercice 6.4. Soit n un entier naturel et A une matrice orthogonale d’ordre n . Pour tout entier j de J1, n K, on note C j la j ecolonne de A. n n n n X X X X 1. On note (e 1 , . . . , e n ) la base canonique de Rn . Montrer que A i j ≤ ei · Cj i =1 j =1 i =1 j =1 n n X X A i j ≤ n . 2. En conclure que i =1 j =1 Romain Dujol 76 Endomorphismes autoadjoints Exercice 6.5. Soit E un espace euclidien de dimension quatre et Bune base orthonormale de E . 2 3 0 1 3 0 0 3 Soit f l’endomorphisme de E telle que matB f = . 0 0 1 0 1 3 0 2 1. Montrer que f est autoadjoint. 2. Montrer que Sp f = {−3, 1, 6}. 3. Pour chaque valeur propre λ de f , on note p λ le projecteur orthogonal sur E λ ( f ). (a) Montrer que idE = p −3 + p 1 + p 6 . (b) Montrer que f = −3 · p −3 + 1 · p 1 + 6 · p 6 . (c) Montrer que si λ et µ sont deux valeurs propres distinctes de f , alors p λ ◦ p µ = 0. Romain Dujol 77 Chapitre 7 Espaces préhilbertiens complexes Introduction Soit E = K2 et φ : E2 → K et q : (x , y ) 7→ x 1 y 1 + x 2 y 2 E x → K . 7→ f (x , x ) = x 12 + x 22 Que K soit le corps R des réels ou C des complexes, f est une forme bilinéaire symétrique sur E . • Si K = R, φ est le produit scalaire canonique sur E = R2 : il s’agit donc d’une forme bilinéaire symétrique positive non dégénérée. • Si K = C, alors : – q (0, i ) = 02 + i 2 = −1 : donc q (ou φ) n’est pas positive ; – q (1, i ) = 12 + i 2 = 0 : donc q (ou φ) n’est pas définie positive ; – q (0, 1 + i ) = 02 + (1 + i )2 = 2i : donc q n’est même pas à valeurs réelles. Donc la notion de produit scalaire et de norme euclidienne n’a aucun sens ici. Comment étendre la notion de produit scalaire et de norme dans un C-espace vectoriel ? 7.1 7.1.1 Forme sesquilinéaire. Produit scalaire Forme sesquilinéaire Définition 7.1 (Application semi-linéaire). Soit E et F deux C-espaces vectoriels. Une application f de E dans F est dite semi-linéaire si et seulement si : (i) ∀x ∈ E , ∀y ∈ E , f (x + y ) = f (x ) + f (y ) ; (ii) ∀x ∈ E , ∀λ ∈ C, f (λx ) = λ f (x ). Romain Dujol 78 Définition 7.2 (Forme sesquilinéaire). Soit E un C-espace vectoriel. Une application φ de E 2 dans C est une forme sesquilinéaire (à gauche) si et seulement si elle est : – semi-linéaire par rapport à la première variable ; – linéaire par rapport à la seconde variable. Remarque. 1. Le préfixe latin « sesqui- » signifie « une fois et demi ». 2. Il est possible de considérer les formes sesquilinéaires à droite, ce que nous ne ferons pas dans ce cours. Exemple. L’application φ : 7.1.2 C2 → C est une forme sesquilinéaire sur C2 . (x , y ) 7→ x 1 y 1 + x 2 y 2 Forme sesquilinéaire hermitienne Définition 7.3 (Forme sesquilinéaire hermitienne). Soit E un C-espace vectoriel. Une forme φ sesquilinéaire sur E est dite hermitienne si et seulement si ∀x ∈ E , ∀y ∈ E , φ(y , x ) = φ(x , y ) Exemple. φ : 7.1.3 C2 → C est une forme sesquilinéaire hermitienne sur C2 . (x , y ) 7→ x 1 y 1 + x 2 y 2 Forme quadratique hermitienne Corollaire. Soit E un C-espace vectoriel et φ une forme sesquilinéaire hermitienne sur E . Alors : ∀x ∈ E , φ(x , x ) ∈ R Démonstration. Comme φ est hermitienne, si on prend y = x , il vient que φ(x , x ) = φ(x , x ), autrement dit que φ(x , x ) est réel. Définition 7.4 (Forme quadratique hermitienne). Soit E un C-espace vectoriel et f une forme sesquilinéaire hermitienne sur E . On définit la forme quadratique hermitienne associée à φ comme l’application q : E → R . x 7→ φ(x , x ) L’application φ est appelée la forme polaire de q . Romain Dujol 79 Exemple. La forme quadratique hermitienne associée à φ : q : C2 x C2 → C est (x , y ) 7→ x 1 y 1 + x 2 y 2 → R 7→ x 1 x 1 + x 2 x 2 = |x 1 |2 + |x 2 |2 Proposition 7.1. Soit q une forme quadratique hermitienne sur un C-espace vectoriel E . Alors : ∀λ ∈ C, ∀x ∈ E , q (λx ) = |λ|2q (x ) Démonstration. Soit x ∈ E et λ ∈ C. Alors q (λx ) = f (λx , λx ) = λ f (x , λx ) = λλ f (x , x ) = |λ|2 q (x ). Proposition 7.2 (Identités de polarisation). Soit φ une forme sesquilinéaire hermitienne sur un C-espace vectoriel et q sa forme quadratique associée. Alors : 1 1 ∀x ∈ E , ∀y ∈ E , ℜe φ(x , y ) = [q (x + y ) − q (x ) − q (y )] = [q (x + y ) − q (x − y )] 2 4 1 1 ∀x ∈ E , ∀y ∈ E , ℑm φ(x , y ) = [q (x + i y ) − q (x ) − q (y )] = [q (x + i y ) − q (x − i y )] 2 4 1 q (x + y ) + i q (x + i y ) − (1 + i ){q (x ) + q (y )} D’où ∀x ∈ E , ∀y ∈ E , φ(x , y ) = 2 1 q (x + y ) + i q (x + i y ) − q (x − y ) − i q (x − i y ) = 4 Définition 7.5. Comme dans le cas réel, on définit pour une forme sesquilinéaire hermitienne φ et sa forme quadratique hermitienne q associée : – l’orthogonalité : x et y sont orthogonaux si et seulement si φ(x , y ) = 0 ; – son noyau : N (q ) = N (φ) = {x ∈ E , ∀y ∈ E , φ(x , y ) = 0} ; – cône isotrope : I (q ) = I (φ) = {x ∈ E , φ(x , x ) = 0} ; – dégénerescence : φ est non dégénérée si et seulement N (φ) = {0E } ; – positivité : φ (ou q ) est positive si et seulement si ∀x ∈ E , φ(x , x ) ∈ R+ . Proposition 7.3. Les inégalités de CAUCHY-SCHWARZ et de MINKOWSKI restent valables. 7.1.4 Produit scalaire Définition 7.6 (Produit scalaire). Soit E un C-espace vectoriel. Un produit scalaire sur E est une forme sesquilinéaire hermitienne positive non dégénérée sur E . Un espace préhilbertien complexe est un C-espace vectoriel muni d’un produit scalaire. Un espace hermitien est un espace préhilbertien complexe de dimension finie. Exemple. φ : Romain Dujol C2 → C est un produit scalaire sur C2 . (x , y ) 7→ x 1 y 1 + x 2 y 2 80 7.2 7.2.1 Endomorphismes remarquables d’un espace hermitien Endomorphismes unitaires Définition 7.7. Soit E un espace préhilbertien complexe dont le produit scalaire est noté (·|·). Un endomorphisme unitaire de E est un endomorphisme qui conserve le produit scalaire : f est un endomorphisme unitaire de E ⇐⇒ ∀(x , y ) ∈ E 2 , f (x ) f (y ) = (x |y ) Corollaire. Soit E un espace préhilbertien complexe et f un endomorphisme de E . Alors f est unitaire si et seulement si f ∗ = f −1 . 7.2.2 Endomorphismes hermitiens et anti-hermitiens Définition 7.8. Soit E un espace préhilbertien complexe et f un endomorphisme de E . Alors il existe un unique endomorphisme f ∗ de E tel que ∀(x , y ) ∈ E 2 , f (x )y = x f ∗ (y ) L’endomorphisme f ∗ est appelé l’endomorphisme adjoint de f . Définition 7.9. Soit E un espace préhilbertien réel. Un endomorphisme f de E est dit autoadjoint ou hermitien si et seulement si f ∗ = f . Un endomorphisme f de E est dit anti-autoadjoint ou anti-hermitien si et seulement si f ∗ = −f . Romain Dujol 81 7.3 7.3.1 Matrices remarquables Matrice d’une forme sesquilinéaire Définition 7.10. Soit E un C-espace vectoriel et B = (e 1 , . . . , e n ) une base de E . Pour toute forme sesquilinéaire φ, on définit la matrice de φ dans B , notée matB φ, par matB φ = φ(e i , e j ) 1≤i ,j ≤n . Proposition 7.4. Soit E un C-espace vectoriel et B une base de E . Soit φ une forme sesquilinéaire sur E et A = matB φ. Alors, pour tous vecteurs x et y de E , on a f (x , y ) = t X AY avec X = matB x et Y = matB y . Proposition 7.5. Soit E un C-espace vectoriel et B et B ′ deux bases de E . On note P la matrice de passage de B dans B ′ et A = matB φ. Alors matB ′ φ = t PAP. 7.3.2 Matrices unitaires Proposition 7.6. Une matrice carrée A d’ordre n à coefficients complexes est dite unitaire si et seulement si t A = A −1 . Corollaire. Soit E un espace hermitien et f un endomorphisme de E . f est un endomorphisme unitaire si et seulement si la matrice de f dans une base orthonormale de E est unitaire. 7.3.3 Matrices hermitiennes et anti-hermitiennes Proposition 7.7. Soit E un espace hermitien et f un endomorphisme de E . Si B est une base orthonormale de E , alors matB f ∗ = t matB f . Définition 7.11. Une matrice carrée A d’ordre n à coefficients complexes est dite hermitienne si et seulement si t A = A. Une matrice carrée A d’ordre n à coefficients complexes est dite anti-hermitienne si et seulement si t A = −A. Corollaire. Soit E un espace hermitien et f un endomorphisme de E . f est un endomorphisme hermitien (respectivement anti-hermitien) si et seulement si la matrice de f dans une base orthonormale de E est hermitienne (respectivement anti-hermitienne). Romain Dujol 82 Correspondances des terminologies R-espace vectoriel C-espace vectoriel forme bilinéaire forme bilinéaire symétrique f (x , y ) = t X A Y forme quadratique associée ∀λ ∈ R, q (λ) = λ2q (x ) espace préhilbertien réel espace euclidien norme euclidienne matrice transposée t A passage A ′ = t PAP endomorphisme/matrice symétrique ( t A = A) endomorphisme/matrice anti-symétrique ( t A = −A) endomorphisme/matrice orthogonal(e) t A = A −1 forme sesquilinéaire forme sesquilinéaire hermitienne f (x , y ) = t X A Y forme quadratique hermitienne associée ∀λ ∈ C, q (λ) = |λ|2 q (x ) espace préhilbertien complexe espace hermitien norme hermitienne matrice transconjuguée t A passage A ′ = t PAP endomorphisme/matrice hermitien(ne) t A = A t A = −A endomorphisme/matrice anti-hermitien(ne) endomorphisme/matrice unitaire t A = A −1 Romain Dujol 83 Espaces préhilbertiens complexes : Exercices Espaces hermitiens Exercice 7.1. Soit E un espace préhilbertien complexe. 1. Soit N un entier naturel supérieur ou égal à trois. Montrer que ∀x ∈ E , ∀y ∈ E , (x |y ) = N −1 2i k π 1 X 2i k π e N · ke N x + y k2 N k =0 2. Montrer que 1 ∀x ∈ E , ∀y ∈ E , (x |y ) = 2π 2π Z 0 e i t · ke i t x + y k2 dt Exercice 7.2. Soit E un espace hermitien et u un endomorphisme de E . 1. On note v = u ∗ ◦ u . (a) Montrer que (v (x )|x ) ≥ 0 pour tout vecteur x de E . En déduire que toutes les valeurs propres de v sont réelles positives. (b) Montrer que si u est injectif, alors 0 n’est pas valeur propre de v . 2. Montrer que v = i · (u ◦ u ∗ + u ∗ ◦ u ) est antihermitien. Exercice 7.3. Soit E un espace hermitien. 1. Montrer que les valeurs propres d’un endomorphisme de E antihermitien sont imaginaires pures ou nulles. 2. Montrer que un endomorphisme est antihermitien si et seulement si sa forme quadratique hermitienne associée est nulle. Matrices remarquables 1−i −2 Exercice 7.4. Montrer, sans en calculer le déterminant, que la matrice −3 4 est inversible. −2 2−i 18 2 Exercice 7.5. Soit A une matrice antisymétrique à coefficients réels d’ordre n . 1. Montrer que les valeurs propres de A sont imaginaires pures ou nulles. 2. (a) Montrer que A − I n et A + I n sont inversibles. (b) Montrer que (A + I n )(A − I n )−1 est orthogonale. Romain Dujol 84 −3 18 3−i 1 4 2 1 6−i 3 Exercice 7.6. Soit f la forme sesquilinéaire hermitienne sur R dont la matrice dans la base ca1 1 + i 1 + 2i 3 3 5 . nonique de R est 1 − i 1 − 2i 5 10 1. Donner la signature de f . 2. En déduire que f n’est pas définie positive. Romain Dujol 85