Algèbre linéaire et bilinéaire M2 - CAPES 2010-2011 Table des matières 1 Matrices et applications linéaires 1.1 Propriétés élémentaires et vocabulaire . 1.2 Structures d’espace vectoriel et d’algèbre 1.3 Opérations sur les matrices . . . . . . . 1.4 Exemples remarquables (culture) . . . . . . . . 2 2 3 5 6 2 Déterminant 2.1 Permutations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Applications multilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Le déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 8 9 10 3 Systèmes linéaires 3.1 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Résolution d’un système linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 12 13 4 Réduction 4.1 Valeurs propres . . . . . . . . . . . . . . . . 4.2 Polynômes d’endomorphismes . . . . . . . . 4.3 Diagonalisation et trigonalisation . . . . . . 4.4 Exemples d’utilisation de la diagonalisation . . . . 16 16 17 17 18 5 Espaces euclidiens et hermitiens 5.1 Formes bilinéaires et quadratiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Espaces euclidiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3 Espaces hermitiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 20 22 26 . . . . . . . . 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Chapitre 1 Matrices et applications linéaires 1.1 Propriétés élémentaires et vocabulaire Définition 1 Une matrice A à n lignes et p colonnes et à coefficients dans un corps K est la donnée de n × p scalaires (c’est à dire d’éléments de K) indicés : (aij )16i6n,16j6p . En cas d’ambiguı̈té, on sépare les indices par une virgule, par exemple ai,j+1 . L’ensemble de ces matrices est noté Mnp (K). Quelques cas particuliers : – les éléments de Mn1 sont dites matrices colonnes – les éléments de M1n sont dites matrices lignes – les éléments de Mnn , noté simplement Mn sont dites matrices carrées – une matrice A telle que aij = 0 dès que i > j (resp. i < j) est dite triangulaire supérieure (resp. inférieure) – souvent cette notion s’applique aux matrices carrées mais pas exclusivement, cf. pivot de Gauss). – Une matrice carrée triangulaire supérieure et inférieure est dite diagonale ; notamment la matrice identité de Mn , notée I, Id ou In . Produit Pp de matrices : si A = (aij ) ∈ Mnp , B = (bij ) ∈ Mpq , on définit C = AB ∈ Mnq par cij = k=1 aik bkj . Notation graphique et mnémotechnique pour le produit : en écrivant les matrices A, B décalées, la matrice C possède les bonnes dimensions et le terme cij se voit comme le produit scalaire de la i-ième ligne de la matrice A par la j-ième colonne de la matrice B. q z }| b1j .. . bpj n ai1 | ··· aip {z } p 2 { p cij Calcul par blocs. Si l’on décompose les deux matrices M, N en sous-matrices alors le produit s’écrit en comme si les sous-matrices étaient des scalaires : 0 A B A B0 AA0 + BC 0 AB 0 + BD0 = C D C 0 D0 CA0 + DC 0 CB 0 + DD0 en tenant compte des contraintes évidentes : − les tailles des sous-matrices doivent se correspondre (par exemple A ∈ Mn1 p1 , A0 ∈ Mp1 q1 ) pour que les produits soient définis ; − le produit entre matrices est non commutatif (AA0 6= A0 A en général, à supposer que cela ait même un sens). Il n’y a aucune autre contrainte, en particulier les matrices ne sont pas nécessairement carrées, ni découpées en le même nombre de blocs (1 ). Voir aussi le calcul de déterminant par blocs (page 11). On dira aussi qu’un matrice est triangulaire par blocs (inférieure ou supérieure) ainsi que diagonale par blocs. 1.2 Structures d’espace vectoriel et d’algèbre Algèbre des matrices. L’ensemble des matrices de taille p × q, Mnp (K), possède une structure d’espace vectoriel pour les lois suivantes. Si A = (aij ), B = (bij ) ∈ Mnp (K) et λ ∈ K alors λA + B = (λaij + bij ) ∈ Mnp (K). Cet espace vectoriel est de dimension finie égale à np, avec une base canonique (Eij )1≤i≤n,1≤j≤p , la matrice nulle sauf en position ij où elle vaut 1. On peut noter que (Eij )ab = δia δjb (symbole de Kronecker), mais aussi que l’endomorphisme correspondant est défini par X1 ei si b = j .. Xj en i-ème position. eb 7→ ou encore Eij X = Eij . = 0 sinon Xp La structure d’espace vectoriel correspond évidemment à celle de L(Kp , Kn ) (plus généralement à L(E, F ), voir plus bas). Le produit matriciel est un produit bilinéaire de Mnp × Mpq → Mnq . Exercice 1 Dans le cas des matrices carrées, montrer que Eij Ek` = δjk Ei` , par deux méthodes : les coefficients, les vecteurs de base (e1 , . . . , en ). Cas carré. Si n = p, le produit est donc une loi interne de Mn × Mn dans Mn . Cela définit exactement une algèbre multiplicative (associative et unitaire mais a priori non commutative !) (2 ) (3 ). Le groupe (multiplicatif) des inversibles est noté GLn (K). On peut aussi définir la puissance d’une matrice : Ak = AAk−1 avec la convention A0 = I matrice identité, et quand A est inversible, A−1 l’inverse de A et 1 Cette approche n’est pas seulement formelle mais correspond aux décompositions des espaces vectoriels en somme directe. Ainsi si f ∈ L(E, F ), (e1 , . . . , ep ) est une base de E et (f1 , . . . , fn ) de F , M = Mat f dans ces bases ; alors on peut décomposer E = Vect(e1 , . . . , ep1 ) ⊕ Vect(ep1 +1 , . . . , ep ) et F = Vect(f1 , . . . , fn1 ) ⊕ Vect(fn1 +1 , . . . , fn ). Le bloc A = (aij )16i6n1 ,16j6p1 est la matrice de π ◦ f| Vect(e1 ,...,ep ) où π est la projection de F sur Vect(f1 , . . . , fn1 ). À l’inverse 1 dès que l’on a une décomposition en somme directe, on a une décomposition par bloc correspondante (même sans parler de base). L’écriture matricielle n’est autre que la décomposition en les blocs les plus petits possibles, les scalaires. 2 † on pourrait aussi dire que que M est un anneau, mais cela occulterait la structure de multiplication externe par les n scalaires. 3 dans les cas réel et complexe, on munit aisément M d’une structure d’algèbre normée. n 3 A−k = (A−1 )k = (Ak )−1 . De même pour les polynômes de matrices, en notant que A commute avec ses puissances. Nilpotence : une matrice est nilpotente s’il existe un entier tel que Ar = 0 ; le plus petit r possible est appelé l’ordre de nilpotence. Exercice 2 Montrer que les seules matrices commutant avec toutes les autres (ce qu’on appelle le centre de GLn ) sont les matrices multiples de l’identité. Correspondance entre matrices et applications linéaires, changement de base. Un choix de base (par définition il en existe toujours en dimension finie) revient à identifier un espace vectoriel E de dimension p à l’espace modèle Kp . Les applications linéaires de Kp dans Kn s’identifient naturellement aux matrices. On peut parler de la matrice d’une application linéaire u : E → F , (évaluée) dans deux bases (ej )1≤j≤p de E et (fi )1≤i≤n de F , notée A = Mate,f u, c’est à dire aij = fi∗ (u(ej )) (4 ). Concrètement la j-ème colonne contient les composantes suivant la base (fi ) du vecteur u(ej ). Attention : pour un endomorphisme f on choisit en général la même base au départ et à l’arrivée (mais ce choix n’a rien d’obligatoire, voir ci-dessous les relations d’équivalence et de similitude). Le choix de deux bases engendre donc un isomorphisme (non canonique) Mnp (K) ' L(E, F ). Propriété fondamentale (bien qu’évidente) : le produit matriciel correspond à la composition des applications linéaires. Autrement dit, c’est un isomorphisme d’algèbre. Changement de base : soit f 0 une nouvelle base (de F ) ; on appelle matrice de passage la matrice P = Mat0f f , en écrivant les nouveaux vecteurs dans l’ancienne base. C’est aussi Matf,f 0 id pour l’application linéaire identité. Les coordonnées dans F changent suivant la formule suivante X = P X0 (voir le lien avec la réduction de Gauss, page 21). Clairement Matf 0 f = (Matf f 0 )−1 et si l’on fait jusqu’à deux changement de base, alors, si l’on note A = Mate,f u et A0 = Mate0 ,f 0 u, on a A0 = Mate0 ,f 0 u = Matf 0 f Mate,f u Mate e0 = P −1 AP. Attention au contexte : tantôt deux matrices différentes correspondent au même endomorphisme dans des bases différentes, tantôt ce sont deux objets différents dans la (les) même(s) base(s). Relations d’équivalence et de similitude Pour compenser l’ambiguı̈té du choix de la base qui fait que la matrice associée à un endomorphisme n’est pas unique, on définit sur Mnp une relation : M est équivalente à N si elles correspondent au même endomorphisme dans des bases différentes, autrement il existe Q ∈ GLn (K) et P ∈ GLp (K) tels que N = Q−1 M P . C’est évidemment une relation d’équivalence. Théorème 1 Toute matrice M ∈ Mnp (K) est équivalente à une matrice N nulle sauf pour les termes nii , 1 6 i 6 r, qui valent 1 : 1 .. . N ∼ 1 4 rappel : f ∗ (v) est la i-ème coordonnée de v dans la base (f , ..., f ), l’application f ∗ : F → K est une forme linéaire ; n 1 i i attention elle dépend de la base entière et pas seulement du vecteur de base fi ! Exercice : le prouver par un dessin. 4 Le nombre r de termes non nuls est exactement le rang de la matrice (considéré comme endomorphisme, ce qui permet de démontrer que le rang ne varie pas par équivalence). Réciproquement, deux matrices sont équivalentes ssi elles ont même rang. Exercice 3 Déterminer les classes d’équivalence de cette relation. Dans le cas carré, on peut définir la matrice d’un endomorphisme dans une seule base (ei )1≤i≤n fixée. Si le changement de base est P = Mate e0 , les coordonnées des vecteurs dans la nouvelle base satisfont X = P X 0 , et M 0 = P −1 M P . Cela définit une autre relation d’équivalence : M est semblable à N s’il existe P ∈ GLn (K) tel que P −1 M P (5 ). Cette relation est au coeur de la théorie de la réduction. 1.3 Opérations sur les matrices Transposition. Définition (t A)ij = Aji (6 ). C’est une opération linéaire de Mnp dans Mpn . Transposition et produit : t (AB) = t B t A, t (A−1 ) = (t A)−1 . Dans le cas carré, on définit le sev des matrices symétriques Sn = {A ∈ Mn (K), t A = A}, et antisymétriques An = {A ∈ Mn (K), t A = −A}. On a une décomposition en somme directe Mn (K) = S(n) ⊕ A(n) (7 ). Exercice 4 Expliciter les projections dans cette somme directe. E +E ; pour An on prend (Eij − Une base typique de Sn est ( ij 2 ji )1≤i≤j≤n , donc dim Sn = n(n+1) 2 Eji )1≤i<j≤n , donc dim An = n(n−1) . Dans le cas réel, il y a bien sûr une interprétation de la transposée 2 comme adjointe par rapport au produit scalaire canonique (voir plus loin) (8 ). Dans un espace vectoriel complexe, on définit la transconjuguée A∗ = t Ā ; A est dite hermitienne si ∗ A = A (ou autoadjointe pour le produit hermitien), antihermitienne si A∗ = −A. Rang. Le rang d’une application linéaire est la dimension de son image. − Rang d’une matrice : c’est le rang de l’application linéaire associée. Corollaire : le rang est le nombre de colonnes indépendantes. En utilisant le théorème précédent, on déduit que le rang de t M est le rang de M , donc le nombre de lignes indépendantes = nombre de colonnes indépendantes. Autre caractérisation : le rang est le plus grand entier r tel qu’il existe une matrice extraite r × r inversible. A contrario, si s > r alors toutes les matrices s × s extraites sont non-inversibles (singulières). Voir l’utilisation du déterminant. − Calcul du rang : le rang d’une matrice ne change pas lors des opérations suivantes : permutation de lignes Li ←→ Lj , addition entre lignes différentes Li ←− Li + Lj et multiplication d’une ligne par un scalaire (non nul) Li ←− αLi ; idem avec les colonnes. Attention : non commutativité des opérations (L2 ←− L2 + L1 suivi de L3 ←− L3 + L2 n’est pas équivalent aux mêmes opérations dans l’ordre inverse). Utilisation du pivot de Gauss : on obtient en fin le rang comme nombre de lignes non nulles. 5 (††) si deux matrices sont semblables, certains invariants sont les mêmes, comme la trace et le déterminant ; la réciproque est un peu plus compliquée et fait intervenir la diagonalisation. 6 Pour des raisons typographiques certains textes notent la transposée At . 7 (†) si K = R, la somme est orthogonale quand on munit M du produit scalaire canonique n 8 (††) il y a aussi une interprétation abstraite de la transposition dans le cas général, comme matrice de la transposée d’une application linéaire u : E → F ; sa transposée t u va du dual F ∗ dans le dual E ∗ et associe à ψ ∈ F ∗ la forme linéaire t u(ψ) = ψ ◦ u ∈ E ∗ . 5 Trace d’une matrice carrée. Forme linéaire sur Mn (K) satisfaisant tr(AB) = tr(BA). La trace ne dépend que de l’endomorphisme (ou de la classe de similitude) : tr(P −1 AP ) = tr(AP P −1 ) = tr A 1.4 Exemples remarquables (culture) Sous-ensembles remarquables de l’ensemble des matrices (certaines notions sont à lier à la géométrie euclidienne ou hermitienne et ne sont donc valides que pour K = R ou K = C). Attention : certains faits ci-dessous sont au programme et donc peuvent être cités sans preuve, d’autres non. − le groupe linéaire GLn (K) (aussi noté GL(n, K))) des matrices inversibles ( = de rang n = de déterminant non nul) ; dans les cas réel et complexe, c’est un ouvert (car det−1 (R∗ )), qui de plus est dense ; − le groupe spécial linéaire SLn (K) = {M, det M = 1}, sous-groupe de GLn (K). Dans R ou C, c’est un fermé non compact. − le groupe orthogonal O(n) = {M ∈ Mn (R), t M M = I}. Noter que si M est orthogonale son déterminant vaut ±1. De fait O(n) possède au moins deux composantes connexes correspondant aux signes du déterminant : O+ (n) et O− (n). Noter que O− (n) ne peut être un groupe, mais que O+ (n) = O(n) ∩ SLn (R) en est un, plus souvent noté SO(n), le groupe spécial orthogonal (dans R3 ce sont les rotations). Remarque 1 : une définition plus géométrique : les matrices de O(n) (resp. SO(n), O− (n)) correspondent aux isométries vectorielles (resp. directes, indirectes), c’est à dire qu’elles préservent les distances (ou le produit scalaire), donc M ∈ O(n) ssi ses vecteurs colonnes sont normés et deux à deux orthogonaux. Remarque 2 : ces ensembles sont tous fermés et bornés donc compacts9 . Il faut connaı̂tre la structure des cas n ≤ 3. Ce groupe est utilisé dans le chapitre sur la diagonalisation (cf théorème spectral). − Le groupe (des automorphismes) unitaire(s) U (n) = {M ∈ Mn (C), M ∗ M = I} ; nécessairement | det M | = 1. Aussi compact, mais lui est connexe (difficile). SU (n) = U (n) ∩ SLn (C). Ce groupe est aussi utilisé dans le chapitre sur la diagonalisation (cf théorème spectral). − Algèbre des matrices triangulaires supérieures T+ (resp. inférieures T− ) (notations non standardisée), avec les sous-groupes des matrices triangulaires inversibles (c’est à dire sans zéro sur la diagonale) T+∗ , T−∗ (10 ). − Matrices de permutation, pour une permutation σ : sur la j-ème colonne on ne trouve que des zéros sauf à la ligne i = σ(j), autrement dit (Mσ )ij = δi,σ(j) . Propriété remarquable Mσ Mσ0 = Mσ◦σ0 (autrement dit σ 7→ Mσ définit un morphisme (injectif) du groupe Sn dans GL(n, R) ; on notera que la signature est donnée par le déterminant : (σ) = det Mσ ). − Espaces vectoriels des matrices symétriques et antisymétriques (voir plus haut). Remarque (piège) : l’espace vectoriel des matrices hermitiennes Hn = {H ∈ Mn (C); H ∗ = H} est en fait un espace vectoriel sur R et non sur C. Exercice 5 Montrer les propriétés ci-dessus. 9 on peut aussi définir le groupe O(n, C) = {M ∈ M (C), t M M = I} qui possède d’autres propriétés, en particulier il n n’est pas compact si n > 1. 10 (†) le théorème de (Gram-)Schmidt revient à écrire que M = RT pour toute M ∈ GL (R), avec R ∈ O(n) et T ∈ T ∗ . n + Exercice : discuter l’unicité de cette décomposition. 6 Exercice 6 Soit G un sous-groupe de GLn (K) ; on définit un groupe noté G n Kn comme l’ensemble produit G × Kn muni de la loi suivante : (M, x)(M 0 , x0 ) = (M M 0 , M x0 + x) (on parle de produit semi-direct). Vérifier qu’il s’agit bien d’un groupe. Montrer qu’il est isomorphe au sous-groupe de GLn+1 (K) des matrices (écrites par blocs) : „ « M x . 0 1 Citer des exemples de tels groupes. 7 Chapitre 2 Déterminant 2.1 Permutations Définition 2 Une permutation σ est une bijection (en général d’un ensemble fini). On note S(E) les permutations de E et Sn les permutations de {1, . . . n}. Tout ensemble fini étant en bijection avec {1, . . . , n} on peut en numéroter les éléments et ramener l’étude de S(E) à celle de Sn pour n = Card(E). Notation avec 1 2 3 4 i , par exemple σ = = 1 3 4 2 σ= 1 3 4 2 σ(i) 16i6n on supprime souvent la première ligne. La composition des permutations est notée σ ◦ σ 0 ou σσ 0 . Le support d’une permutation σ ∈ S(E) est le plus petit ensemble Supp(σ) ⊂ E, tel qu’en dehors de Supp(σ), σ soit l’identité. Une permutation de support réduit à deux éléments {i, j} est appelée une transposition et notée τij . Une permutation est dite circulaire s’il existe un élément i ∈ Supp(σ) tel que Supp(σ) = {σ k (i), k ∈ Z}. Avertissement 1 Attention à l’ambiguı̈té de la notation de transposition τ12 ! Certains considèrent que 1, 2 sont les valeurs permutées (la permutation est vue comme une fonction, cas le plus fréquent) – ainsi τ12 (3412) = (3421) ; d’autres permutent les positions : τ12 (3412) = (4312). Face à un énoncé on cherchera la convention retenue, et dans le doute il faut indiquer celle que l’on choisit. Théorème 2 Sn est un groupe, non commutatif si n > 3. Il est engendré par les transpositions. Il existe une infinité de façons d’écrire σ comme produit de transpositions. Proposition 1 Si l’on écrit σ = τ1 τ2 · · · τk , alors (σ) := (−1)k ne dépend que de σ pas de l’écriture. Ce nombre est appelé signature et définit en fait un morphisme de groupes (Sn , ◦) → ({−1, +1}, ×). La signature est aussi (−1)I(σ) où I(σ) est le nombre d’inversions, c’est à dire de couples (i, j) ∈ {1, . . . , n} tels que i < j et σ(i) > σ(j). Exercice 7 Calculer la signature d’une permutation circulaire à k éléments, de la permutation ` n n−1 ... Remarque 1 Les matrices de permutation (voir 6) donnent une visualisation, liée au déterminant. 8 2 1 ´ . 2.2 Applications multilinéaires Définition 3 Une application r-multilinéaire de E dans F deux espaces vectoriels est une application de E×· · ·×E (r fois) dans F , linéaire en chacune de ses r variables. Si F = K on parle de forme multilinéaire ; à r fixé, elles forment un espace vectoriel. On peut généraliser cette définition à f : E1 × · · · × En → F . Définition 4 Une application multilinéaire est dite − symétrique si ∀u1 , . . . , ur ∈ E, ∀σ ∈ Sr , f (uσ(1) , . . . , uσ(r) ) = f (u1 , . . . , ur ) [l’ordre ne compte pas] − antisymétrique si ∀u1 , . . . , ur ∈ E, ∀σ ∈ Sr , f (uσ(1) , . . . , uσ(r) ) = (σ)f (u1 , . . . , ur ) [l’ordre ne compte pas, au signe près] − alternée, si ∃i 6= j, ui = uj =⇒ f (u1 , . . . , ur ) = 0 Il suffit de vérifier les définitions pour toutes les transpositions. Exercice 8 antisymétrique implique alternée, et la réciproque est vraie sur un corps de caractéristique différente de 2 (notamment R et C). Proposition 2 Une application r-multilinéaire alternée évaluée sur r vecteurs liés est nulle. En particulier une forme r multilinéaire sur un espace vectoriel de dimension n < r est identiquement nulle. Exemple 1 Dans Kn on associe à p vecteurs la matrice n × p composée de ces vecteurs ; les mineurs p × p de cette matrice sont des p-formes alternées sur Kn (1 ). Exemple 2 Le produit vectoriel R3 × R3 → R3 x1 y1 x2 y3 − x3 y2 x2 ∧ y2 = x3 y1 − x1 y3 x3 y3 x1 y2 − x2 y1 est une application bilinéaire alternée. Noter que les trois coordonnées du produit vectoriel x ∧ y sont les trois mineurs extraits de la matrice dont les colonnes sont x et y. Le produit mixte de trois vecteurs x, y, z ∈ R3 est [x, y, z] = hx ∧ y, zi où h, i est le produit scalaire habituel. On peut vérifier (et c’est en fait la bonne définition du produit vectoriel) que [x, y, z] = det(x, y, z) ce qui implique puisque det est antisymétrique [x, y, z] = [y, z, x] = [z, x, y] et [x, y, z] = −[y, x, z], etc. 1 (†) Ces p-formes constituent en fait une base de l’espace vectoriel des p-formes alternées. Exercice : les dénombrer ? 9 2.3 Le déterminant Proposition 3 En dimension n, les formes n-multilinéaires alternées constituent un espace vectoriel de dimension 1 (elles sont donc toutes multiples les unes des autres, la forme nulle exceptée). Si une base (e1 , . . . , en ) est fixée (par exemple la base canonique dans Kn ) on appelle det celle de ces formes qui satisfait det(e1 , . . . , en ) = 1. Le déterminant est donc au départ une forme n-multilinéaire alternée. On peut le calculer en utilisant les permutations : si A = (aij ) est la matrice dont les colonnes sont les coordonnées de n vecteurs (u1 , . . . , un ) dans la base de référence choisie2 , det(u1 , . . . , un ) = det A = X (σ) n Y aσ(i)i = i=1 σ∈Sn X σ∈Sn (σ) n Y aiσ(i) i=1 (ce qui prouve que det t A = det A). Cela définit par là même le déterminant d’une matrice comme déterminant de ses colonnes ou de ses lignes. Enfin si u ∈ L(E), et M = Mate u alors det u := det M et cela ne dépend pas du choix de la base (voir ci-dessous). Selon le point de vue on obtiendra différentes propriétés du déterminant3 : 1. vu comme forme n-multilinéaire alternée sur Kn (ou sur E muni d’une base) det : (Kn )n → K. − propriétés vis-à-vis des opérations sur les lignes ou les colonnes : Li ← Li + λLj (j 6= i) ne change pas les déterminant ; Li ↔ Lj change le signe ; Li ← λLi multiplie le déterminant par λ. − continuité (et différentiabilité) du déterminant en chacune de ses variable puisque linéaire en celle-ci. 2. fonction de la matrice Mn (K) → K n-homogène (i.e. det(λM ) = λn M ) ; aucune propriété additive ou linéaire [en les matrices], mais une matrice est inversible ssi det M 6= 0. La restriction de det aux matrices inversibles sest un morphisme de groupes multiplicatifs GLn (K) → K (ie. det AB = det A det B). Conséquence : A et P −1 AP on le même déterminant. Noter que SLn (K) = Ker det. 3. fonction de l’endomorphisme L(E) → K, morphisme de groupes multiplicatifs de GLn (K) dans K∗ . Paradoxe : il faut fixer une base pour le calculer mais il est indépendant de celle-ci. 4. fonction polynomiale en les n2 coefficients aij ; cela prouve : − le caractère C ∞ en les coefficients, ie. en la matrice − l’expression de la différentielle (ardu) − développement par rapport à une ligne ou une colonne, par exemple par rapport à la j-ième colonne det A = n X aij Âij i=1 où Âij est le cofacteur défini comme (−1)i+j fois le déterminant de la matrice de taille (n − 1) obtenue en enlevant la ligne i et la colonne j − cas particulier de Sarrus, valable uniquement en dimension 3 : a11 a12 a13 a21 a22 a23 = a11 a22 a33 + a21 a32 a13 + a31 a12 a23 −a31 a22 a13 − a21 a12 a33 − a11 a32 a23 a31 a32 a33 2 si l’on prend les coordonnées dans une autre base, le déterminant est multiplié par le déterminant de la matrice de changement de base. 3 À proprement parler, il est abusif d’appeler de la même façon (det) plusieurs applications ne partant pas du tout des mêmes espaces. 10 5. interprétation géométrique : volume orienté d’un n-parallépipède ; corollaire : l’aire d’un triangle ne dépend que de sa base et de sa hauteur. Remarque 2 Voir les matrices de permutation en 1.4. Remarque 3 Propriétés diverses (en plus de celles ci-dessus) : − déterminant d’une matrice ne possédant qu’une valeur par colonne et par ligne : le déterminant est le produit des termes multiplié par la signature (σ) de la permutation qui correspond (ie. telle que le terme sur la colonne j soit sur la ligne σ(j)). Applications notables : matrice diagonale (det Diag(λ1 , . . . , λn ) = λ1 · · · λn ), matrice antidiagonale (det = (−1)E(n/2) λ1 · · · λn ). − déterminant d’une matrice triangulaire par blocs. Le déterminant n’est pas obtenu comme le déterminant des blocs, sauf si la matrice est triangulaire par bloc. A B det = det A det D 0 D Exercice 9 Soit M = (mij ) ∈ Mn (K) une matrice ayant la propriété suivante : sur chaque ligne et chaque colonne seul un terme est non nul ; on appelle ak la valeur du terme non nul sur la k-ième colonne. Que valent | det M | ? et det M ? Application : déterminant d’une matrice diagonale, antidiagonale, triangulaire supérieure/inférieure, d’une telle matrice si ak = 1 pour tout k. Exercice 10 Calculer la différentielle de det : Mn (R) → R. Exercice 11 (†) On considère une matrice A = (aij ) ∈ Mn (K) et on lui associe l’application linéaire LA : Mn (K) → Mn (K), M 7→ LA (M ) := AM . Cet endomorphisme est-il injectif, surjectif ? En identifiant Mn (K), 2 muni de sa base canonique, à Rn , calculer le déterminant de LA en fonction de A. Proposition 4 On appelle comatrice de A, notée Com(A), la matrice des cofacteurs Âij . Alors on déduit des formules de développement que At Com(A) = (det A)In et si det A 6= 0, l’inverse de A est 1 t det A Com(A). Définition 5 Orientation : on se donne une base de référence B = (e1 , . . . , en ), par exemple la base canonique dans Kn ; un endomorphisme est dit direct si son déterminant est positif. Une (autre) base B 0 = (e01 , . . . , e0n ) est dite positivement orientée (ou de même orientation que B) si l’endomorphisme u — défini par ∀i, u(ei ) = e0i — est direct. On définit le groupe spécial linéaire par SLn (K) = {M ∈ GLn (K), det M = 1} ; sa définition plus géométrique est de préserver orientation et volume. 11 Chapitre 3 Systèmes linéaires 3.1 Propriétés Définition 6 Une équation linéaire à p inconnues est une équation de la forme a1 x1 + · · · + ap xp = b. Un système (S) de n équations linéaires à p inconnues Pp est la donnée de n équations comme ci-dessus en les mêmes inconnues x1 , . . . , xp , noté en général j=1 aij xj = bi . Cela est équivalent à l’équation matricielle AX = B où x1 b1 .. . . A = (aij )16i6n,16j6p , X = . , B = .. . . bn xp On cherche à déterminer l’ensemble E des solutions du système. Deux systèmes sont dit équivalents si leurs ensembles de solutions sont identiques. Le vecteur B = (b1 , . . . , bn ) est appelé le second membre, et le système est dit homogène si B = 0. Le mot linéaire est quelque peu trompeur puisque les équations sont affines, si le second membre est non nul. Théorème 3 L’ensemble E des solutions d’un système linéaire est un espace affine éventuellement vide. Si le système est homogène cet ensemble n’est jamais vide car il contient 0Kp et on peut alors le considérer comme un espace vectoriel ; en particulier toute combinaison linéaire de solutions est encore une solution. Remarque 4 Une équation linéaire à p inconnues a pour ensemble solution un sous-espace affine de codimension 1 (hyperplan). Un système d’équations a donc pour solution l’intersection de n tels hyperplans. 12 3.2 Résolution d’un système linéaire Le cas Cramer Dans le cas où n = p et que la matrice A est inversible (i.e. det A 6= 0), la solution existe toujours et se réduit à un seul point X = A−1 B. Les formules de Cramer donnent l’expression directement en fonction de B et des colonnes C1 , . . . , Cn de la matrice A x1 = det(B, C2 , . . . , Cn ) det(C1 , . . . , Cj−1 , B, Cj+1 , . . . , Cn ) , . . . , xj = ,... det A det A . . . , xn = det(C1 , . . . , Cn−1 , B) det A Méthode de Rouché–Fontené 1. Calcul du rang r de A ; il existe donc r lignes indépendantes (non nécessairement uniques) et on met de côté les n − r autres lignes, inutiles (dites aussi redondantes1 ou secondaires). 2. Sélection de r colonnes indépendantes (ce qui fixe r variables dites principales et p − r variables secondaires). 3. Optionnellement : test de compatibilité de B a priori (le rang des r colonnes2 indépendantes jointes à B doit rester r) ; ce test est aussi faisable sur toutes les colonnes au lieu de seulement r d’entre elles. Voir l’interprétation algébrique. 4. Résolution en considérant le système de Cramer composé des r lignes indépendantes et des r colonnes indépendantes, en ayant fait passer dans le second membre les p − r variables secondaires. 5. Si pas fait auparavant, test de compatibilité a posteriori , en vérifiant que les solutions obtenues satisfont bien les n − r équations laissées de côté. 6. Au final, s’il y a compatibilité, les solutions forment un espace affine (ou vectoriel) de dimension p − r. Un système homogène ayant toujours au moins une solution, la compatibilité n’a pas lieu d’être. Remarque 5 On peut aussi résoudre en exhibant une solution (dite particulière) Y = (y1 , . . . , , yp ) du système (S), obtenue de n’importe quelle façon, puis en notant que l’ensemble E est constitué des sommes Y + Z où Z décrit l’ensemble E0 des solutions du système homogène associé (S0 ) : AZ = 0. E0 est donc la direction de l’espace affine E, si toutefois ce dernier est non vide. Remarque 6 On peut simplifier le système avant d’appliquer la méthode (cf le pivot). Opérations permises : toutes les opérations classiques sur les lignes, y compris permutations. les opérations sur les colonnes peuvent être autorisées, mais en notant qu’elles échangent des variables (à manipuler avec précaution donc). Méthode du pivot (de Gauss) Il existe deux variantes du pivot selon que l’on autorise ou non les permutations de colonnes (donc de variables). On obtiendra alors des matrices triangulaires de types différents. Nota bene : les opérations d’addition et de multiplication de lignes s’appliquent aussi au second membre, mais pas les opérations sur les colonnes. 1 notation 2 les personnelle. colonnes complètes, c’est à dire avec n éléments. 13 1. Méthode avec permutation de colonne. i. Dans la première colonne, choisir la ligne ayant un coefficient non nul (appelé pivot) ; quitte à permuter les lignes on supposera que c’est la première ligne. Si la colonne entière est nulle, en chercher une autre puis permuter les colonnes. Si A = 0 alors on a fini, voir plus bas, sinon on se ramène donc à a11 6= 0. ii. Remplacer les lignes suivantes : ∀i > 2, Li ←− Li − coefficients de chaque ligne. ai1 a11 L1 , ce qui rend nuls tous les premiers iii. Recommencer avec la sous-matrice obtenue en enlevant la première ligne et la première colonne. iv. Fin de l’algorithme (garantie par la finitude du nombre de ligne et colonnes) au bout de r lignes : quand la (sous-)matrice restante, hors second membre, est identiquement nulle. Test de compatibilité : il faut que le second membre restant soit nul aussi. Alors on résout en passant les variables secondaires (les p − r restantes) dans le second membre et en résolvant un système de Cramer r × r trivial car triangulaire. × ··· ··· ··· ∗ ∗ .. .. .. 0 . . . .. . . . . × · · · ∗ ∗ .. × désigne le pivot (non nul) . 0 ··· 0 ? . . . .. .. .. . .. .. .. . . 0 ··· ··· ··· 0 ? v. S’il y a eu permutation de colonnes, replacer les variables dans le bon ordre. 2. Méthode sans permutation de colonne. i. Dans la première colonne, choisir la ligne ayant un coefficient non nul (appelé pivot) ; quitte à permuter les lignes on supposera que c’est la première ligne. Si la colonne entière est nulle, passer à la suivante. Si A = 0 alors on a fini, voir plus bas, sinon on se ramène donc à a11 6= 0. ii. Remplacer les lignes suivantes : ∀i > 2, Li ←− Li − coefficients de chaque ligne. ai1 a11 L1 , ce qui rend nuls tous les premiers iii. Recommencer avec la sous-matrice obtenue en enlevant la première ligne et la première colonne. iv. Fin de l’algorithme (garantie par la finitude du nombre de ligne et colonnes) au bout de r lignes : quand la (sous-)matrice restante, hors second membre, est identiquement nulle. Test de compatibilité : il faut que le second membre restant soit nul aussi. Les variables principales sont celles où il y a un pivot, les autres sont secondaires. On passe les variables secondaires dans le second membre 14 et on résout (ce qui peut se faire progressivement, ligne par ligne). × ··· ··· ··· 0 .. . .. . .. . .. . 0 ··· 0 × 0 ··· ··· ··· ··· ··· ∗ .. . 0 × ∗ 0 0 .. . .. . 0 ··· ··· ∗ .. . ∗ ? .. . .. . ? × désigne le pivot (non nul) Remarque 7 Le pivot est très efficace (algorithmiquement) pour résoudre un système, même dans le cas Cramer (comparer avec un déterminant). Il peut aussi servir à calculer le rang d’une matrice. Remarque 8 On peut utiliser le pivot pour inverser une matrice A (i.e. résoudre n équations AX = ei ) de la façon suivante. Faire un pivot sur n seconds membres (e1 , . . . , en ) simultanément. Une fois la trigonalisation acquise, exprimer chaque colonne Ci0 de A−1 en résolvant le système pour le ième second membre. Ainsi on économise en ne refaisant pas le même pivot n fois. Exercice 12 Discuter géométriquement les solutions de systèmes avec n = 1, 2, 3 et p = 2, 3 (soit le plan et l’espace). Exercice 13 On se donne k points A1 , . . . , Ak dans le plan. Peut-on trouver des points M1 , . . . , Mk tels que pour tout i, Ai soit le milieu de [Mi , Mi+1 ] (avec la convention Mk+1 = M1 ). Discuter existence et unicité des solutions. Généralisations possibles : dimension supérieures. 15 Chapitre 4 Réduction Par réduction on entend trouver une matrice semblable à une matrice donnée (soit P −1 M P ) qui soit plus simple, idéalement diagonale (mais cela n’est pas forcément possible). En termes d’endomorphisme cela revient à trouver une base B 0 où celui-ci s’exprime simplement (si M = MatB u, alors MatB0 u = P −1 M P ). Attention désormais K dénote R ou C. On utilise indifféremment des endomorphismes ou des matrices. 4.1 Valeurs propres Définition 7 Si u ∈ L(E), λ ∈ K est une valeur propre s’il existe x ∈ E − {0} tel que u(x) = λx autrement dit Eλ := Ker(u − λI) 6= {0} (1 ). Le sous-espace vectoriel Eλ est l’espace propre associé à λ ; il contient les vecteurs propres, ainsi que 0 qui n’est pas un vecteur propre (par convention). L’ensemble des valeurs propres est appelée le spectre de u, que nous noterons Sp(u). Noter que si λ 6= µ, alors Eλ ∩ Eµ = {0} (cf théorème des noyaux ci-dessous pour plus de détails). Remarque 9 Pour un endomorphisme sur un espace vectoriel réel (une matrice à coefficients réels), on distinguera ses valeurs propres réelles des valeurs propres (strictement) complexes ; celles-ci vont toujours par paire de valeurs propres conjuguées λ, λ̄ (et elles ont la même multiplicité, voir ci-dessous). Théorème 4 La fonction λ 7→ det(u − λI) est un polynôme de degré n en λ (où n = dim E) appelée polynôme caractéristique et noté Pu (λ) (ou aussi χu (λ), δu (λ)) ; ses racines (réelles ou complexes selon le contexte) sont exactement les valeurs propres de u et leur multiplicité dans Pu est appelée multiplicité n(λ) de λ. Noter que si A = MatB u et A0 = P −1 AP = MatB0 u (où P est la matrice de passage), alors Pu = PA = PA 0 . Le terme de plus haut degré de Pu est (−1)n λn , le suivant est (−1)n−1 (tr u)λn−1 et le dernier est det u. En particulier quand n = 2, Pu (λ) = λ2 − (tr u)λ + det u. Exercice 14 En dimension impaire, un endomorphisme réel à toujours au moins une valeur propre. 1 Attention en dimension infinie, on distingue les valeurs propres (u − λI non injective), des valeurs spectrales (u − λI non bijective). 16 Proposition 5 Sur C, un endomorphisme possède toujours au moins une valeur propre (et en fait n si on les compte avec multiplicité) (conséquence du théorème de d’Alembert–Gauss). Proposition 6 Si λ ∈ Sp(u), 1 6 dim Eλ 6 n(λ). 4.2 Polynômes d’endomorphismes Pd On appelle polynôme d’endomorphisme (ou de matrice) les expressions P [u] = k=0 ak uk où uk = u ◦ · · · ◦ u k fois. Les polynômes en u commutent entre eux2 . Rappelons que par convention u0 = I. Lemme 1 (des noyaux) Si P, Q sont deux polynômes premiers entre eux, Ker P Q[u] = Ker P [u] ⊕ Ker Q[u]. C’est notamment vrai quand P (X) = X − λ et Q(X) = X − µ avec λ 6= µ. Théorème 5 (Cayley–Hamilton) Pu (u) = 0. Proposition 7 L’ensemble des polynômes annulant u est un idéal de K[X], qui est un anneau principal. Il existe donc un unique polynôme µu (à multiplication par une constante près, en général on choisit celui dont le terme dominant est λp ), appelé polynôme minimal, noté µu ou Mu , qui divise tous les autres polynômes annulateurs, notamment Pu (en particulier deg µu 6 deg Pu = n). Typiquement dans C, µu (λ) = r Y (λ − λi ) mi , Pu (λ) = (−1) i=1 n r Y (λ − λi )ni avec 1 6 mi 6 ni ; i=1 dans R la situation est analogue avec éventuellement des facteurs irréductibles du type (λ2 + aλ + b)m . Les racines de µu sont donc des valeurs propres et toutes les valeurs propres sont racines de µu . Remarque 10 Le problème est qu’en général il est difficile de trouver le polynôme minimal alors que le polynôme caractéristique se calcule automatiquement. 4.3 Diagonalisation et trigonalisation Rappel : un polynôme est dit scindé si le nombre de racines comptées avec leurs multiplicités est égal au degré (autrement dit il n’y a pas de facteur irréductible de degré supérieur à 1), et scindé à racines simples si de plus les multiplicités sont toutes égales à 1 (donc le polynôme P possède deg P racines distinctes). Pour garantir qu’un endomorphisme u (resp. une matrice A) soit diagonalisable, autrement dit admette une base propre (composée de vecteurs propres) (resp. il existe P ∈ GLn (K) telle que P −1 AP soit diagonale) on a les différents critères suivants : 1. il existe une base formée de vecteurs propres de u 2. la dimension de chaque espace propre Eλi est égale à la multiplicité ni de la valeur propre 2 Il en va de même pour les séries en fait. 17 3. Il existe un polynôme scindé à racines simples qui annule u (ou A) 4. le polynôme minimal est scindé à racines simples Si le polynôme caractéristique est scindé à racines simples alors u est diagonalisable mais la réciproque est fausse. Exercice 15 donner des contre-exemples illustrant ce fait. Définition 8 On appelle sous-espace caractéristique de u associé à la valeur propre λ le plus grand sous-espace vectoriel de Fλ ⊂ E tel que u|Fλ ne possède qu’une valeur propre : λ. En pratique Ker(u − λi I) = Eλi ⊂ Fλi = Ker(u − λi I)mi = Ker(u − λI)ni . Proposition 8 Les espaces caractéristiques forment une décomposition en somme directe de E : Fλ1 ⊕ · · · ⊕ Fλr = E. La dimension de Fλi est ni . Chacun est stable par u et par conséquent la matrice de u dans toute base adaptée à la somme directe (i.e. chaque vecteur de la base est dans l’un des facteurs) est une matrice diagonale par bloc. Définition 9 Un endomorphisme est dit trigonalisable si sa matrice dans une base adaptée est triangulaire, autrement dit il existe une base (e1 , . . . , en ) telle que pour tout i, u(ei ) ∈ Vect(e1 , . . . , ei ). Alors u s’écrit u = d + n où d est un endomorphisme diagonalisable et n est nilpotent, avec dn = nd. Remarque 11 Si une matrice est triangulaire, les coefficients diagonaux sont exactement ses valeurs propres répétées selon leur multiplicité. Remarque 12 Une matrice (ou l’endomorphisme associé) triangulaire supérieure n’ayant que des zéros sur la diagonale est nilpotente et réciproquement un endomorphisme nilpotent peut être trigonalisé ainsi. Théorème 6 Un endomorphisme est trigonalisable ssi Pu est scindé (ou µu ). Par conséquent, un endomorphisme est toujours trigonalisable dans C. Proposition 9 Un endomorphisme trigonalisable peut être trigonalisé (dans une bonne base) sous une forme dite réduite de Jordan : seule la diagonale et la ligne juste au-dessus sont non nulles a priori, et cette dernière ne possède que des 1 ou des zéros. 4.4 Exemples d’utilisation de la diagonalisation Exemple 3 Calcul des itérées Ak . Si P −1 AP = D où D = diag(λ1 , . . . , λn ) (ici les valeurs propres sont répétées selon leur multiplicité, donc non nécessairement distinctes). Alors Ak = (P DP −1 )k = P Dk P −1 = P diag(λk1 , . . . , λkn )P −1 . C’est encore vrai avec k < 0, si toutefois A est inversible (donc aucune valeur propre nulle). Remarque 13 La connaissance d’un polynôme annulateur peut aussi aider à calculer l’itérée directement. Exemple trivial : si A2 − I = 0, alors A2k = I et A2k+1 = A. 18 Remarque 14 On peut se placer dans C, ce qui permet de diagonaliser plus de cas, sans pour autant changer le résultat. Exemple 4 Récurrence à coefficients constants un+k+1 = ak un+k +· · ·+a0 un (généralisation des récurrences géométriques). Cela revient à une équation matricielle à coefficients constants dans Rk+1 ou Ck+1 : u un+1 n 1 .. .. .. . . . Un+1 := . = AUn = .. 1 .. . a0 a1 · · · ak un+k un+k+1 dont la solution est donnée par Un = An U0 . Exemple 5 Calcul de séries. Même principe que pour l’itérée mais avec un passage à la limite. Cas fondamental : eA = P eD P −1 = P diag(eλ1 , . . . , eλn )P −1 . Exemple 6 Résolution d’un système d’équations différentielles linéaires à coefficient constants (analogue continu de la récurrence). Le système X 0 = AX avec comme condition initiale X(0) = X0 a pour solution X(t) = etA X0 pourvu que la matrice A soit constante (diagonalisable ou non). Version élémentaire : pour résoudre on change de base (pour passer dans une base propre) donc de fonctions inconnues ; on résout le nouveau système, pour revenir dans les anciennes coordonnées. Remarque 15 Les mêmes idées sont valides dans le cas trigonalisable, en un peu plus compliqué. Exercice 16 Résoudre dans Mn (R) les équations matricielles suivantes : a) A2 = I (quel en est l’intérêt matriciel ?) ; interprétation géométrique. b) A2 = A ; interprétation géométrique. c) Ap = 0. d) A2 = −I. Exercice 17 Montrer que les matrices inversibles forment un ouvert dense dans Mn (R) (indication : passer par Mn (C)). Exercice 18 Montrer que les matrices diagonalisables sont denses dans Mn (C) (indication : trigonaliser d’abord). Est-ce un ouvert ? 19 Chapitre 5 Espaces euclidiens et hermitiens Nota bene : la théorie au programme correspond à la dimension finie, mais le cas de la dimension infinie (espaces préhilbertiens) existe et se rencontre notamment en analyse (par exemple L2 , `2 et l’analyse de Fourier). sauf mention explicite tous les résultats qui suivent s’appliquent en dimension finie. 5.1 Formes bilinéaires et quadratiques Une forme bilinéaire ϕ est simplement une application de E ×E dans R, linéaire en chaque variable1 . Cette forme peut être (éventuellement !) − antisymétrique (ou alternée) si ϕ(u, v) = −ϕ(v, u) pour tous u, v − symétrique si ϕ(u, v) = ϕ(v, u) pour tous u, v − ni l’une ni l’autre − non dégénérée, si le seul vecteur u tel que ∀v, ϕ(u, v) = 0 est le vecteur nul (dégénéré sinon) 2 − définie, si ∀u 6= 0E , ϕ(u, u) 6= 0 − positive, si ∀u, ϕ(u, u) > 0 (respectivement négative) − un produit scalaire est une forme bilinéaire symétrique positive définie. En général on ne parle de forme définie ou positive que pour une forme symétrique (voir forme polaire). En dimension finie, on se donne une base et on définit la matrice de ϕ dans la base B = (e1 , . . . , en ) par M = MatB ϕ = (mij ) où mij = ϕ(ei , ej ) ce qui implique pratiquement si l’on note U = (u1 , . . . , un ) et V = (v1 , . . . , vn ) les deux vecteurs colonnes correspondant aux coordonnées de u et v dans la base B : ϕ(u, v) = t U BV. 1 la même notion existe évidemment pour un corps quelconque, notamment C mais sera peu (pas) utilisée ; le cas de C sera traité spécifiquement. 2 on définit pour une forme quadratique symétrique (ou antisymétrique) ϕ et une partie S ⊂ E, l’orthogonal de S : S ⊥ := {x ∈ E; ∀y ∈ S, ϕ(x, y) = 0}. C’est un sev (le vérifier). En général l’orthogonal est quelconque. Si la forme est non dégénérée et que F est un sev, dim F ⊥ = n − dim F , mais rien n’oblige à avoir F ∩ F ⊥ = {0}, comme c’est le cas pour le produit scalaire. D’ailleurs ϕ est non dégénérée ssi E ⊥ = {0}. Cette notion d’orthogonal existe aussi pour les formes non symétriques, mais c’est plus compliqué : il faut distinguer l’orthogonal à droite de celui à gauche. 20 Attention : la matrice d’une forme bilinéaire n’a rien à voir avec celle d’un endomorphisme (ce sont d’ailleurs des objets très différents). Si B 0 est une autre base, et P est la matrice de changement de base, alors M 0 = MatB0 ϕ = t P M P noter la différence avec le changement de base pour les endomorphismes. On peut lire les propriétés de ϕ sur sa matrice : − ϕ antisymétrique ssi M l’est : t M = −M , − ϕ symétrique ssi M l’est : t M = M , − ϕ non dégénérée ssi M est inversible, − ϕ positive ssi les valeurs propres de M sont toutes positives (ou nulles) − ϕ définie ssi les valeurs propres sont soit toutes strictement positives soit toutes strictement négatives. Voir le théorème spectral pour ces dernières propriétés. Une forme quadratique est le carré d’une forme bilinéaire (notamment le carré dans R, la carré scalaire ~u · ~u) : q(u) = ϕ(u, u). Attention : de multiples formes bilinéaires peuvent donner la même forme quadratique, par exemple si ϕ est alternée, q est la forme quadratique identiquement nulle. Par contre à toute forme quadratique on peut associer une unique forme bilinéaire symétrique ϕ telle que q(u) = ϕ(u, u) ; cette forme est appelée la forme polaire de q. Elle est liée à q par les identités de polarisation (qui généralisent les identités remarquables) : q(u + v) = q(u) + q(v) + 2ϕ(u, v) q(u − v) = q(u) + q(v) − 2ϕ(u, v) q(u) − q(v) = ϕ(u + v, u − v) et cela permet d’ailleurs de définir ϕ à partir de q : ϕ(u, v) = q(u + v) − q(u) − q(v) q(u + v) − q(u − v) = 4 2 L’étude de ensemble de niveaux des formes quadratiques dans R2 est l’étude des coniques. Réduction de Gauss Comme pour les endomorphismes, on peut chercher une base dans laquelle une forme bilinéaire symétrique (ou sa forme quadratique associée) s’exprimera simplement. Notamment si la matrice de ϕ (aussi appelée matrice de q) dans cette nouvelle base est diagonale, et que les coordonnées de u dans cette nouvelle base sont u1 , . . . , un , alors q(u) = b11 u2i + · · · + bnn u2n soit quasiment une somme de carrés. Donc diagonaliser B revient peu ou prou à écrire q comme une somme de carrés (on dit qu’il n’y a pas de termes croisés, de type ui uj ). On a alors le théorème suivant : Théorème 7 Toute forme quadratique peut s’écrire comme une somme et différence de carrés dans une base bien choisie : si les coordonnées d’un vecteur u dans cette nouvelle base sont u1 , . . . , un , alors q(u) = u21 + · · · + u2r − u2r+1 − · · · − u2r+s où r, s ∈ N et r + s 6 n. En d’autres termes, B = MatB u = diag(1, . . . , 1, −1, . . . , −1, 0, . . . , 0). Le couple (r, s) (ou bien (s, r)) est appelé signature de la forme qua| {z } | {z } r fois s fois dratique, et il est indépendant de la base. On constate que q est non dégénérée si r + s = n, positive si s = 0, négative si r = 0, définie positive si r = n, etc. 21 Remarque 16 En général on ne parle pas de changement de base, mais de réduction sous forme de somme de carrés, mais c’est en fait équivalent : il s’agit du changement de coordonnées. Exercice 19 Écrire la base correspondant à la réduction xy = 14 (x + y)2 − 14 (x − y)2 . Démonstration (esquisse pour l’existence) Celle-ci est suffisamment élémentaire et utile en pratique pour être citée. Elle s’effectue de proche en proche, sur les coordonnées. Soient ũ1 , . . . , ũn les coordonnées du départ d’un vecteur u (dans la base de départ B̃). S’il n’y a aucun produit croisé avec u1 on passe à la suite, sinon on se sert de l’identité remarquable (réelle) x2 + 2xy = (x + y)2 − y 2 en identifiant y : 2 2 n n X X b1j b 1j 2 b11 ũ1 + ũj − ũ2j b1j ũ1 ũj = b11 ũ1 + 2b 2b 11 11 j=2 j=2 j=2 {z } | n X u1 ce qui définit une nouvelle coordonnée u1 et une expression de q sans produit croisé avec u1 . Noter les termes en ũ2 , . . . , ũn ont été modifiés. On recommence avec ceux-ci. Attention : il faut envisager le cas où b11 = 0 (mais au moins un b1j 6= 0) et prendre alors l’identité remarquable xy = 41 (x + y)2 − 14 (x − y)2 . On obtient donc de nouvelles coordonnées p (à vérifier !) soit une nouvelle base, dans laquelle la matrice B est diagonale ; il suffit de remplacer ui par |bii |ui (quand bii 6= 0) pour obtenir des carrés. 5.2 Espaces euclidiens Rappelons qu’un espace euclidien est un espace vectoriel de dimension finie 3 muni d’un produit scalaire, ie. d’une forme bilinéaire symétrique définie positive. Le produit scalaire de deux vecteurs est souvent noté ~u ·~v , hu, vi, hu|vi ou (u|v) ; la notation (u, v) est à déconseiller pour des raisons de confusion évidentes. Exemple 7 Pn − produit scalaire canonique dans Rn : hu, vi = 1 ui vi = t U V où U, V sont les matrices colonnes représentant les vecteurs u, v dans la base canonique (U = (u1 , . . . , un )) ; dans la base canonique sa matrice est Matcan h, i = I (4 ) P − produit scalaire associé à une matrice B symétrique de signature (n, 0) : hu, viB := ij ui bij vj = t U BV = hu, Bvi = hBu, vi en utilisant (abusivement) B comme la matrice d’un endomorphisme (5 ) ; Rb − produit scalaire L2 sur les fonctions de C 0 ([a, b], R) : hf, gi = a f (t)g(t)dt (idem pour la mesure de Lebesgue pour les classes de fonctions intégrables) ; extension à des fonctions intégrables sur des Rb intervalles non compacts ; généralisation à des intégrables à P noyaux k : hf, gi = a f (t)g(t)k(t)dt ∞ − sur les suites de carré intégrable (espace `2 ) : h(un ), (vn )i = k=0 uk vk ; cas simplifié des polynômes de degré maximal fixé ; 3 si E est de dimension infinie, on parle d’espace préhilbertien, et hilbertien si E est complet pour la norme induite par le produit scalaire. 4 on peut même dire que le produit scalaire est défini par le fait que la base canonique est orthonormée. 5 on obtient ainsi tous les produits scalaires possibles sur Rn . 22 2 − sur les matrices réelles Mn (R) ' Rn : hA, Bi = tr(t AB) (remarque : si on identifie Mn (R) à Rn de façon canonique les deux produits scalaires canoniques correspondent). 2 Définition 10 L’orthogonal d’une partie S ⊂ E est S ⊥ := {u ∈ E, ∀v ∈ S, hu, vi = 0} et c’est un sous-espace vectoriel. La plupart du temps S est un sous-espace vectoriel, auquel cas l’orthogonal est un ⊥ supplémentaire : E = S ⊕ S ⊥ (aussi noté E = S ⊕ S ⊥ ) par conséquent dim S ⊥ = dim E − dim S. Exercice 20 Montrer que si A ⊂ B sont deux parties de E, alors A⊥ ⊃ B ⊥ ; si de plus A et B sont deux sous-espaces vectoriels et que A * B, alors A⊥ + B ⊥ . Exercice 21 Montrer que si S ⊂ E, alors S ⊂ (S ⊥ )⊥ et que c’est le plus petit sous-espace vectoriel contenant S (c’est S lui-même si S en est un). Définition 11 La projection (orthogonale) sur le sous-espace vectoriel F est la projection (classique) sur F parallèlement à F ⊥ . La symétrie (orthogonale) par rapport à l’hyperplan F = v ⊥ est la symétrie (classique) par rapport à F et de direction F ⊥ = hvi = Rv. Proposition 10 Le produit scalaire définit un isomorphisme dit canonique entre E et son dual E ∗ via : E 3 u 7→ ψu ∈ E ∗ où ψu est la forme linéaire ψu (v) = hu, vi. Cet isomorphisme est à la base de nombreuse identifications, par exemple le gradient d’une fonction f : E → R est le vecteur ∇f (x) tel que ∀u ∈ E, dfx (u) = h∇f (x), ui. P Exemple 8 Si (e1 , . . . , en ) est une base orthonormée de E, la forme linéaire e∗i qui à x = i xi ei associe sa i-ème coordonnée xi est obtenue par le produit scalaire : xi = hei , xi. Ce n’est plus vrai si la base n’est pas orthonormée. Corollaire 1 (définition abstraite du produit vectoriel) Soient u, v ∈ R3 , alors il existe un unique vecteur z tel que ∀w ∈ R3 , det(u, v, w) = hz, wi et ce vecteur z est noté habituellement u∧v. En effet l’application w 7→ det(u, v, w) est une forme linéaire. Proposition 11 (inégalité de Cauchy-Schwarz) 2 hu, vi 6 hu, ui hv, vi et l’égalité n’a lieu que si u et v sont colinéaires. p Corollaire 2 u 7→ kuk := hu, ui définit une norme sur E, en effet − k.k est à valeur dans R+ et est bien définie (non infinie notamment), − kuk = 0 ⇐⇒ u = 0 − ∀u ∈ E, ∀λ ∈ R, kλuk = |λ|kuk, − ∀u, v ∈ E, ku + vk 6 kuk + kvk avec égalité ssi u, v sont colinéaires (le plus court chemin est la ligne droite) [découle de l’inégalité de Cauchy-Schwarz]. 23 Endomorphismes et isométries. Définition 12 Dans E euclidien, on associe à tout endomorphisme f un autre endomorphisme appelé adjoint de f et noté f ∗ tel que ∀u, v, hf (u), vi = hu, f ∗ (v)i. Par exemple dans Rn muni du produit scalaire canonique, si Matcan f = A, alors A∗ = Matcan f ∗ = t A. L’endomorphisme est dit autoadjoint si f ∗ = f . Noter que l’application L(E) → L(E), f 7→ f ∗ est un automorphisme involutif de L(E). Pour tout endomorphisme f sur E, l’application (u, v) 7→ hf (u), vi est une forme bilinéaire, de plus elle est symétrique ssi f est autoajoint. Avertissement 2 Dans Rn la transposition joue deux rôles : pour une matrice de forme bilinéaire t A = A indique la symétrie (sans intervention du produit scalaire canonique) ; pour la matrice d’un endomorphisme t A = A indique que ce dernier est autoadjoint, par rapport qui produit scalaire canonique (voir exercice 22). Exercice 22 Donner l’expression de la matrice de l’adjointe pour un produit scalaire h, iB [réponse : M ∗ = B −1t M B]. Définition 13 Un endomorphisme est dit orthogonal (ou isométrique) si l’une des assertions équivalentes est satisfaite : i. f ∗ = f −1 ii. f préserve le produit scalaire : hf (u), f (v)i = hu, vi iii. f préserve la norme : kf (u)k = kuk iv. f envoie une base orthonormée sur une base orthonormée v. f envoie les bases orthonormées sur les bases orthonormées. Les isométries forment un sous-groupe de GL(E), noté O(E) ou O(n) dans le cas de Rn . Exemple 9 Dans (Rn , can) une matrice M est la matrice d’une isométrie (vectorielle6 ) ssi t M = M −1 . Proposition 12 Le déterminant d’une isométrie est toujours ±1. Les isométries de déterminant +1 (resp. −1) sont appelées isométries directes (resp. indirectes), elles préservent les base orthonormées orientées (resp. inversent les orientations) et forment un groupe noté O+ (n) ou SO(n) dans Rn (resp. un sous-ensemble noté O− (n) mais pas un groupe !). Il est à noter que O(n), O+ (n), O− (n) sont compacts ; O(n) n’est pas connexe mais O+ (n) l’est (7 ). Enfin O− (n) engendre O(n), autrement dit toute isométrie peut s’écrire comme produit d’isométries indirectes. Exemple 10 Isométries de (R2 , can) : O+ (2) est composé des rotations et ses éléments ont des matrices de la forme cos θ − sin θ où θ est l’angle de la rotation; sin θ cos θ la symétrie centrale est directe (c’est la rotation d’angle π). Les isométries indirectes sont les symétries axiales, dont les matrices sont cos θ sin θ où θ/2 est l’angle de l’axe avec (Ox). sin θ − cos θ 6 pour 7 la ne pas confondre avec les isométries affines première propriété est facile, la deuxième plus délicate. 24 Exemple 11 Isométries de (R3 , can) : O+ (3) se compose des rotations axiales d’angles θ (8 ). O− (3) contient d’une part la symétrie centrale (ici indirecte !), et d’autre part les symétries planes. Exercice 23 Donner l’équation que doit satisfaire la matrice M pour être une isométrie pour le produit scalaire h, iB [réponse : t M BM = B]. Remarque 17 Dans une base orthonormée, la matrice B du produit scalaire est l’identité9 . Alors, un calcul rapide montre que M ∗ = t M donc M est orthogonale ssi t M M = I (10 ) ; cela équivaut exactement à dire que les vecteurs colonnes forment une BON. En particulier det M = ±1. Noter qu’un changement de base orthonormée se fait par une matrice P ∈ O(n) donc P −1 AP = t P AP . Théorème spectral. Ce théorème11 très important est à la fois un résultat de réduction pour les formes bilinéaires symétriques (comme la réduction de Gauss) et un théorème de diagonalisation dans le cas d’une matrice symétrique (comme corollaire abusif du précédent, en assimilant une forme bilinéaire à une matrice). À la différence de la réduction de Gauss, il suppose que E est muni en même temps d’une forme bilinéaire et d’un produit scalaire (la première pouvant éventuellement être aussi un produit scalaire). Il arrive que le produit scalaire ne soit pas mentionné quand il s’agit du produit scalaire canonique. Théorème 8 Soit (E, h, i) un espace euclidien et ϕ une forme bilinéaire symétrique. Alors il existe une base orthonormée B = (e1 , . . . , en )P (pour h, i évidemment) dans laquelle ϕ est diagonale. Autrement dit P MatB = diag(λ1 , . . . , λn ) et si x = i xi ei , ϕ(x, x) = λi x2i . la signature s’en déduit immédiatement. i on part d’une base orthonormée B̃ = (ẽ1 , . . . , ẽn ) dans laquelle la matrice de ϕ est B, alors B est symétrique et le théorème spectral implique : ∃P ∈ O(n), P −1 BP = t P BP = diag(λ1 , . . . , λn ). D’où le Corollaire 3 Si B est une matrice symétrique, il existe une matrice orthogonale P telle que ∃P ∈ O(n), P −1 BP = t P BP soit diagonale. Enfin il existe une version abstraite : Corollaire 4 Tout endomorphisme f autoadjoint est diagonalisable dans une base orthonormée. Remarque 18 À la différence de la réduction de Gauss, la réduction s’effectue dans une base orthonormée ce qui est plus fort (mais exige un produit scalaire). Corollaire 5 Les valeurs propres d’un endomorphisme autoadjoint (ou d’une matrice symétrique) sont toutes réelles. Proposition 13 (algorithme de calcul des valeurs propres) Si les valeurs propres distinctes de A matrice symétrique sont λ1 < · · · < λm avec λm > 0 alors λm = supx6=0 hAx, xi/kxk2 et la suite de vecteurs donnée par xn+1 = Axn /kAxn k converge génériquement12 vers un vecteur propre associé e1 . Pour obtenir 8 le cas θ = π est particulier : une telle isométrie est appelée retournement ; les retournements engendrent O+ (n). mais rien n’empêche de considérer le produit scalaire dans une base non orthonormée, auquel cas B n’est pas l’identité, mais reste symétrique et définie positive. 10 Mais si le produit scalaire est donné par B, l’adjointe de M est B −1t M B et la condition d’orthogonalité t M BM = B. 11 peu cité sous ce nom dans les programmes et manuels, hélas. 12 génériquement, i.e. en prenant x ∈ ⊥ 0 / Eλm , qui est un sous-espace vectoriel donc de mesure nulle. 9 (†) 25 les autres valeurs propres et vecteurs propres (éventuellement associés à la même valeur propre), on se restreint à e⊥ 1 , et ainsi de suite, tant que la valeur propre est positive strictement. (Idem en prenant un endomorphisme autoadjoint plutôt qu’une matrice symétrique.) Théorème 9 (procédé d’orthonormalisation de Gram-Schmidt) Soit (e1 , . . . , en ) une base de E. Alors il existe une base orthonormée (u1 , . . . , un ) telle que ∀k ∈ [1, n], Vect(e1 , . . . , ek ) = Vect(u1 , . . . , uk ). Corollaire 6 Toute matrice M ∈ GL(n, R) est le produit RT de R ∈ O(n) et T triangulaire supérieure. Cette décomposition est unique si l’on exige que la diagonale de T ne comporte que des termes positifs. Exercice 24 Déterminer toutes les décompositions RT possibles (et leur nombre) si l’on n’impose aucune condition sur la diagonale de T . 5.3 Espaces hermitiens Quasiment la même structure que le cas euclidien, mais avec un C-espace vectoriel, sauf les objets intéressants sont les formes hermitiennes : idem forme symétrique, mais (i) C-linéaire en la première variable et (ii) (y|x) = (x|y) (donc antilinéaire en la seconde variable13 ). Noter que (x|x) ∈ R. C’est un produit scalaire hermitien si on a de plus défini et positif. Toutes les propriétés ci-dessus sont encore vraies avec les modifications suivantes : − isomorphisme avec le dual, à condition de prendre u 7→ [χu : x 7→ (x|u)] (pour préserver la Clinéarité) ; mais alors ψu : E 7→ E ∗ n’est plus C-linéaire mais seulement R-linéaire (d’où des complications...) ; idem pour f 7→ f ∗ . − Dans une base P orthonormée (pour le produit scalaire hermitien) (e1 , . . . , en ) les coordonnées d’un vecteur u = k uk ek s’obtiennent en faisant le produit scalaire à droite avec les ek : uk = (u|ek ) 6= (ek |u). − La matrice d’une forme hermitienne est égale à sa transconjuguée (voir ci-dessous). − L’adjointe est notée f ∗ ; un endomorphisme autoadjoint est dite hermitien. Dans une base orthonormée, M ∗ = t (M̄ ) (transconjuguée). − Le groupe unitaire U (E) est le sous-groupe de GL(n, C) préservant le produit scalaire hermitien. Groupe SU (E) = U (E) ∩ SL(E). Dans Cn , U (n) = {M, M ∗ = M −1 }. Pas de décomposition en deux composantes, ici le déterminant est de module 1. − Nota bene : la partie réelle d’un produit scalaire hermitien est un produit scalaire usuel. On a encore l’inégalité de Cauchy-Schwarz (en prenant le module), la propriété de norme, et le théorème spectral (identique, si ce n’est que dans la version matricielle, les matrices sont unitaires au lieu d’orthogonales). Noter que les valeurs propres sont encore réelles. Théorème 10 (procédé d’orthonormalisation de Gram-Schmidt) Soit (e1 , . . . , en ) une base de E. Alors il existe une base orthonormée (u1 , . . . , un ) telle que ∀k ∈ [1, n], Vect(e1 , . . . , ek ) = Vect(u1 , . . . , uk ). 13 la convention opposée est aussi rencontrée. 26 Corollaire 7 Toute matrice M ∈ GL(n, C) est le produit RT de R ∈ U (n) et T triangulaire supérieure. Cette décomposition est unique si l’on exige que la diagonale de T ne comporte que des termes réels et positifs. Exercice 25 Montrer que les matrices unitaires de C2 sont de la forme « „ α −β̄ , θ ∈ R, (α, β) ∈ C2 − {(0, 0)}. eiθ β ᾱ 27