2. Compléments d’algèbre linéaire Dans tout le chapitre, K désigne un corps de caractéristique nulle et E un K-espace vectoriel. Sauf indication contraire, on admettra que les résultats vus en MPSI (dans le cas particulier où K était R ou C) s’étendent. I - Combinaisons linéaires — Bases On généralise ici les notions étudiées en MPSI au cas d’un ensemble d’indices I non nécessairement fini. 1) Combinaisons linéaires Définition : le support d’une famille de scalaires (λi )i∈I ∈ K I est {i ∈ I / λi = 0}. On note K (I) l’ensemble des familles de scalaires à support fini. Propriété : K (I) est un sous-espace vectoriel de K I , +, . . Définition : soit F = (xi )i∈I une famille de vecteurs de E. On dit qu’un vecteur x de E est combinaison (I) linéaire des vecteurs de F si et seulement s’il existe une famille (λi )i∈I ∈ K telle que λi .xi (il s’agit d’une somme finie de vecteurs de E . . . ). x= i∈I 2) Bases a) Familles génératrices Soit F une famille de vecteurs de E. On dit que F est une famille génératrice de E si et seulement si tout vecteur de E est combinaison linéaire des vecteurs de F. b) Sous-espace engendré par une famille de vecteurs Soit F une famille de vecteurs de E et F l’ensemble des combinaisons linéaires des vecteurs de F. F est un sous-espace vectoriel de E ; c’est le plus petit sous-espace de E contenant les vecteurs de F. F est noté Vect F, appelé le sous-espace vectoriel de E engendré par F (F est une famille génératrice de Vect F !). NB : une famille F est génératrice de E si et seulement si Vect F = E. c) Familles libres Soit F = (xi )i∈I une famille de vecteurs de E. On dit que F est libre si et seulement si la seule combinaison linéaire nulle des vecteurs deF est celle dont tous les coefficients sont nuls : ∀(λi )i∈I ∈ K (I) λi .xi = 0 =⇒ ∀i ∈ I λi = 0 . i∈I F est libre si et seulement si toutes ses sous-familles finies sont libres. Une partie A de E est dite libre si et seulement si la famille (x)x∈A est libre. Par convention, ∅ est libre. d) Bases Soit F une famille de vecteurs de E. On dit que F est une base de E si et seulement si F est libre et génératrice. Une famille B = (ei )i∈I de vecteurs de E est une base de E si et seulement si tout vecteur de E s’écrit de manière unique comme combinaison linéaire des vecteurs de B. Dans ce cas, si x = λi .ei , la famille (λi )i∈I est appelée la famille des coordonnées de x dans la base B. Exemple : X k k∈N est une base de K [X], appelée la base canonique de K [X]. NB : l’existence de bases en dimension quelconque est liée à l’axiome du choix . . . i∈I 2. Compléments d’algèbre linéaire Page 2 e) Caractérisation d’une application linéaire par l’image d’une base Théorème : soient E et F deux K-espaces vectoriels, B = (ei )i∈I une base de E et (yi )i∈I une famille de vecteurs de F (indexées par le même ensemble I). Il existe une unique application linéaire u de E dans F telle que : ∀i ∈ I u(ei ) = yi . En outre : ∗ Im u = Vect(yi )i∈I . u est surjective si et seulement si la famille (yi )i∈I est génératrice de F . ∗ u est injective si et seulement si la famille (yi )i∈I est libre. ∗ u est bijective si et seulement si la famille (yi )i∈I est une base de F . NB : dans le cas particulier où E = K (I) , muni de la base canonique (ei )i∈I , où ei = (δ i,j )j∈I , Ker u est l’ensemble des familles de coefficients des relations de dépendance linéaire de la famille (yi )i∈I (la famille nulle mise à part !). II - Structure d’algèbre 1) Définition On appelle K-algèbre tout quadruplet (A, +, ., ×) où : 1) (A, +, .) est un K-espace vectoriel ; 2) (A, +, ×) est un anneau ; 3) ∀λ ∈ K ∀(x, y) ∈ A2 λ.(x × y) = (λ.x) × y = x × (λ.y) Une K-algèbre (A, +, ., ×) est dite commutative si et seulement si × est en outre commutative. NB : le point 3) et la distributivité de × par rapport à + reviennent à dire que l’application (x, y) → x × y est bilinéaire de E × E dans E. Exemples : 1) K-algèbre commutative (K[X], +, ., ×) des polynômes à coefficients dans K. 2) K-algèbre (L(E), +, ., ◦) des endomorphismes d’un K-espace vectoriel E. 3) K-algèbre (Mn (K), +, ., ×) des matrices carrées d’ordre n à coefficients dans K. 2) Morphismes d’algèbres — Sous-algèbres On appelle morphisme d’algèbres tout morphisme d’anneaux linéaire entre deux algèbres. On appelle sous-algèbre d’une algèbre (A, +, ., ×) tout sous-espace vectoriel B de (A, +, .) qui est un sous-anneau de (A, +, ×). Exemples : 1) Les fonctions polynomiales, les fonctions de classe C k sur R, constituent des sousalgèbres de (F (R, R) , +, ., ×). 2) Les matrices diagonales (resp. triangulaires supérieures, inférieures) constituent des sous-algèbres de (Mn (K), +, ., ×). 3) Algèbre des fonctions polynomiales sur Rn ou Cn Ici n ∈ N∗ et K = R ou K = C. On appelle fonction monomiale de Kn dans K toute fonction de la forme ϕk : (x1 , . . . , xn ) → xk11 · · · xknn où k = (k1 , . . . , kn ) ∈ Nn . On appelle algèbre des fonctions polynomiales sur Kn la sous-algèbre de F (Kn , K) engendrée par la famille (ϕk )k∈Nn . Propriétés : 1) Cette algèbre est commutative et intègre. 2) (ϕk )k∈Nn est une base de cette algèbre, appelée base canonique. 2. Compléments d’algèbre linéaire Page 3 III - Sommes directes de sous-espaces vectoriels Dans tout ce paragraphe, I est un ensemble fini non vide. 1) Somme d’une famille finie de sous-espaces-vectoriels Soient E un K-espace vectoriel et (Ei )i∈I une famille finie de sous-espaces vectoriels de E. On note E I l’espace des familles de vecteurs de E indexées par I et Ei le sous-espace de E I formé des familles i∈I (xi )i∈I de E I telles que : ∀i ∈ I xi ∈ Ei . Théorème et définition : avec les notations précédentes, l’application ϕ : Ei → (xi )i∈I → i∈I est linéaire. Son image, notée E xi i∈I Ei , est un sous-espace vectoriel de E i∈I appelé somme des Ei , i ∈ I. Ei est l’ensemble des sommes de la forme xi , (xi )i∈I ∈ Ei . i∈I i∈I i∈I Ei est le plus petit sous-espace de E contenant les Ei , i ∈ I. i∈I Autrement dit : Ei = Vect i∈I i∈I Ei . Cas particulier : si F , G sont deux sous-espaces de E, F + G = {y + z, (y, z) ∈ F × G} = Vect (F ∪ G) . 2) Somme directe d’une famille finie de sous-espaces vectoriels Définition : (mêmes si et seulement si tout vecteur notations) les Ei , i ∈ I sont dits en somme directe x de Ei s’écrit de manière unique sous la forme x = xi , (xi )i∈I ∈ Ei i∈I i∈I i∈I (c’est-à-dire si et seulement si l’application linéaire ϕ du §1 est injective). Si c’est le cas, le sous-espace Ei est noté Ei , appelé somme directe des Ei , i ∈ I. i∈I i∈I Caractérisation : toujours avec les mêmes notations, les assertions suivantes sont équivalentes : a) les Ei , i ∈ I sont en somme directe ; b) ∀ (xi )i∈I ∈ Ei xi = 0 ⇒ ∀i ∈ I xi = 0 ; i∈I c) ∀i ∈ I i∈I Ei ∩ Ej = {0} (i.e. l’intersection de chaque sous-espace avec la j=i somme des autres est réduite à {0}). Attention ! Il ne suffit pas que les intersections des sous-espaces pris deux à deux soient réduites à {0} (voir par exemple trois droites vectorielles distinctes dans un plan). Dém. Je remarque tout d’abord que les assertions a) et b) sont toutes deux équivalentes à l’injectivité de l’application linéaire ϕ : a) signifie par définition d’une somme directe que tout élément de Im ϕ admet au plus un antécédent, tandis que b) signifie que Ker ϕ = {0}. J’en déduis par transitivité de l’équivalence que a) et b) sont équivalentes. Je montre ensuite l’équivalence entre b) et c) par double implication : 2. Compléments d’algèbre linéaire Page 4 • b) ⇒ c) : je suppose pour prouver c), je fixe arbitrairement i dans I et je considère un vecteur b) et, x élément de Ei ∩ Ej . Ainsi, d’une part x est élément de Ei , d’autre part x s’écrit j=i x= xj où xj ∈ Ej , pour tout j dans I\ {i} . j=i Je pose (habilement) xi = −x : la famille (xj )j∈I vérifie alors, par construction, Ej et xj = 0 (xj )j∈I ∈ j∈I j∈I donc, d’après b), tous les xj sont nuls, en particulier x = 0. c) en résulte. • c) ⇒ b): par contraposition, je suppose “non b)”, je dispose donc d’une famille (xi )i∈I dans Ei i∈I de vecteurs dont la somme est nulle alors que les xi ne sont pas tous nuls. Soit donc i0 telque xi0 = 0. xi0 appartient à Ei0 et donc xj = −xi0 est un vecteur non nul de Ei0 ∩ Ej , ce j=i0 j=i0 qui prouve “non c)” et achève la démonstration. Cas particulier : deux sous-espaces F , G de E sont en somme directe si et seulement si F ∩ G = {0} . NB : E = E= i∈I Ei si et seulement si l’application ϕ est surjective ; Ei si et seulement si ϕ est un isomorphisme, dans ce cas chaque Ei est un supplémentaire i∈I dans E de la somme des autres, à savoir Fi = Ej (qui est également une somme directe). j=i 3) Famille de projecteurs associée à une somme directe Soit E = Ei ; on associe à cette décomposition de E la famille (pi )i∈I de projecteurs de E où, pour i∈I tout i dans I, pi est la projection de E sur Ei parallèlement à Fi = Ej (voir la remarque ci-dessus). j=i Alors, la décomposition de tout vecteur x de E suivant la somme directe x= (En effet, soit x = Ei n’est autre que i∈I pi (x) . i∈I xj cette décomposition ; pour i fixé dans I, x s’écrit j∈I x = xi + yi , où xi ∈ Ei et yi = xj ∈ Fi , j=i par conséquent xi est bien égal à pi (x), par définition de la projection pi .) NB : La famille (pi )i∈I d’endomorphismes de E vérifie : ∗ pi = IE (d’après la propriété précédente) ; i∈I ∗ pour i, j distincts dans I, pi ◦ pj = 0 (car Im pj = Ej ⊂ Fi = Ker pi ). Exercice : établir réciproquement que, si (pi )i∈I est une famille d’endomorphismes de E vérifiant les deux propriétés ci-dessus, alors les pi sont des projecteurs de E, E = Im pi et (pi )i∈I est — au sens i∈I précédent — la famille de projecteurs associée à cette décomposition de E. 2. Compléments d’algèbre linéaire Page 5 Cas particulier de deux sous-espaces supplémentaires Soient E = F ⊕ G et p, q les projecteurs associés, on a p + q = IE , p ◦ q = q ◦ p = 0. s = 2p − IE et −s = 2q − IE sont les symétries associées. Exemple fondamental : dans E = K [X], soit B de degré n + 1 (n ∈ N) et F l’ensemble des multiples de B : F = {BQ, Q ∈ K [X]}. F est un sous-espace vectoriel de E, admettant pour supplémentaire G = Kn [X] (sous-espace des polynômes de degré au plus égal à n). La décomposition de tout polynôme P de E suivant la somme directe F ⊕ G correspond à la division euclidienne de P par B. 4) Prolongement linéaire d’applications linéaires Théorème : soient E, F deux K-espaces vectoriels, (Ei )i∈I une famille finie de sous-espaces de E telle que E = Ei et, pour tout i dans I, ui une application linéaire de Ei dans F . i∈I Il existe alors une unique application linéaire u de E dans F telle que ∀i ∈ I u|Ei = ui (la restriction de u à Ei est ui ). En outre, u est définie par ∀x ∈ E u (x) = ui [pi (x)] , i∈I où (pi )i∈I est la famille de projecteurs associée à la décomposition E = Ei . i∈I NB : on se permet parfois d’écrire u = ui ◦ pi car l’ensemble d’arrivée de pi est inclus dans i∈I l’ensemble départ de ui est Ei . . . Dém. Analyse — synthèse. . . Exemple : si E1 est un sous-espace de E et u1 ∈ L (E1 , F ), on peut prolonger u1 en une application linéaire de E dans F grâce au théorème précédent, en utilisant un supplémentaire E2 de E1 dans E (en choisissant par exemple u2 = 0 ∈ L (E2 , F ) !). u1 (x) si x ∈ E1 est bien un prolongement de u1 à E, mais non linéaire “en Attention ! u : x → 0 sinon général” (exercice : CNS sur E1 et u1 pour que u soit linéaire ?). 5) En dimension finie Ici, E est un K-espace vectoriel de dimension finie. Les résultats précédents s’appliquent bien sûr dans le cas particulier de la dimension finie. On a en outre le : Théorème : soit (Ei )i∈I une famille finie de sous-espaces vectoriels de E. a) les Ei , i ∈ I, sont en somme directe si et seulement si dim Ei = dim Ei ; i∈I b) dans le cas où les Ei sont en somme directe, E est égal à dim E = i∈I Ei si et seulement si i∈I dim Ei . i∈I Dém. Soit S = i∈I Ei ; l’application ϕ : Ei → (xi )i∈I → i∈I S est linéaire et surjective. xi i∈I et seulement si ϕ est injective, donc si et seulement si ϕ est De plus, les Ei sont en somme directe si un isomorphisme, soit si et seulement si Ei et S sont de même dimension. Le a) en découle. i∈I Le b) est immédiat, compte tenu du a), puisque S est un sous-espace de E, donc E = S si et seulement si dim S = dim E. 2. Compléments d’algèbre linéaire Page 6 Exemple : si (ei )i∈I est une famille finie de vecteurs non nuls de E, les droites vectorielles K.ei sont en somme directe si et seulement si la famille (ei )i∈I est libre. Définition : (bases adaptées) a) si F est un sous-espace de E, une base B = (e1 , . . . , en ) de E est dite adaptée à F si et seulement si les premiers vecteurs de B forment une base de F ; p p Ei , une base B de E est dite adaptée à la décomposition E = Ei si et b) si E = i=1 i=1 seulement si les premiers vecteurs de B forment une base de E1 , les suivants une base de E2 ,. . . IV - Quelques isomorphismes classiques 1) Isomorphisme de tout supplémentaire du noyau de u dans son image Théorème : soient u ∈ L (E, F ) et E ′ un supplémentaire de Ker u dans E ; alors u définit un isomorphisme de E ′ dans Im u, c’est-à-dire que u′ : E ′ → Im u est un isomorphisme. x → u (x) Dém. L’application u′ est bien définie, linéaire comme u ; de plus : • u′ est injective : si x ∈ Ker u′ , alors x ∈ E ′ et u (x) = 0, donc x ∈ E ′ ∩ Ker u d’où x = 0 puisque E ′ et Ker u sont supplémentaires ; • u′ est surjective : soit y ∈ Im u ; par définition de Im u, je dispose d’un élément x de E tel que u (x) = y ; comme E = E ′ ⊕ Ker u, x s’écrit x = x′ + z avec x′ ∈ E ′ et z ∈ Ker u. J’ai alors : y = u (x) = u x′ + z = u x′ + u (z) = u′ x′ car x′ ∈ E ′ et z ∈ Ker u. Donc tout élément de Im u admet au moins un antécédent par u′ . En conclusion, u′ est linéaire et bijective, donc un isomorphisme de E ′ dans Im u. Application 1 — théorème du rang Si E est de dimension finie et u ∈ L (E, F ) alors Im u est de dimension finie et dim Im u + dim Ker u = dim E. Corollaire : 1) Lorsque dim E = dim F = n, u est un isomorphisme si et seulement si rg u = n. 2) Le rang est invariant par composition avec un isomorphisme. Application 2 — interpolation de Lagrange Soient a0 , . . . , an dans K, distincts deux à deux, et u : K [X] → K n+1 . P → P (a0 ) , . . . , P (an ) n u est linéaire et Ker u est l’ensemble des multiples du polynôme N = (X − ak ). N est de degré k=0 n + 1, donc Kn [X] est un supplémentaire de Ker u dans K [X] (cf. § III-3) in fine). Ainsi, d’après le théorème précédent, u définit un isomorphisme de Kn [X] dans Im u, qui est donc de dimension n + 1 ; or Im u est un sous-espace de K n+1 . Ainsi, u est surjective et : n+1 φ : Kn [X] → K est un isomorphisme. P → P (a0 ) , . . . , P (an ) (Exercice : montrer ce résultat de façon “élémentaire”.) On en déduit en particulier, pour tout b = (b0 , . . . , bn ) de K n+1 , l’existence et l’unicité de P dans Kn [X] tel que ∀j ∈ {0, . . . , n} P (aj ) = bj . 2. Compléments d’algèbre linéaire Page 7 Pour expliciter P , je considère la base canonique (C0 , . . . , Cn ) de K n+1 et j’ai n n b= bi .Ci d’où P = φ−1 (b) = bi .φ−1 (Ci ) i=0 i=0 or on vérifie immédiatement que : ∀i ∈ {0, . . . , n} φ−1 (Ci ) = X − ak k=i d’où : P = n bi .Li avec ∀i ∈ {0, . . . , n} Li = i=0 X − ak k=i ai − ak ai − ak . (L0 , . . . , Ln ) est la base de Kn [X] caractérisée par : 1 si i = j 2 ∀ (i, j) ∈ {0, . . . , n} Li (aj ) = δ i,j = (symbole de Kronecker). 0 si i = j NB : le déterminant de la matrice de φ dans les bases canoniques est le déterminant d’ordre n + 1, appelé déterminant de Vandermonde 1 a0 a2 · · · an 0 0 1 a1 a2 . . . an 1 1 Vn+1 (a0 , . . . an ) = .. .. (aj − ai ) . .. .. = . . . . 0≤i<j≤n 1 an a2n · · · ann 2) Isomorphisme entre deux supplémentaires d’un même sous-espace Théorème : soient E ′ un sous-espace vectoriel de E, F1 et F2 deux supplémentaires de E ′ dans E ; la projection de E sur F1 parallèlement à E ′ définit un isomorphisme de F2 dans F1 . Dém. Soit p ∈ L (E) cette projection ; F2 est un supplémentaire dans E de E ′ qui n’est autre que le noyau de p, tandis que F1 est l’image de p : le théorème du paragraphe précédent fournit donc le résultat. Application : codimension — notion d’hyperplan Définition : on appelle sous-espace de codimension finie dans E tout sous-espace E ′ de E admettant un supplémentaire de dimension finie. La dimension d’un tel supplémentaire est alors appelée codimension de E ′ , notée codim E ′ (indépendante du choix dudit supplémentaire, en vertu du théorème précédent !). On appelle hyperplan de E tout sous-espace de E de codimension 1 (i.e. admettant une droite pour supplémentaire). Propriétés : Soit H un hyperplan de E. 1) Si F est un sous-espace de E contenant H, alors F = H ou F = E. 2) Pour tout vecteur a de E\H, E = H ⊕ K.a. 3) Deux hyperplans quelconques de E sont isomorphes. Dém. Fixons un vecteur b de E tel que E = H ⊕ K.b (il en existe par définition d’un hyperplan !). 1) Soit F un sous-espace de E contenant H. Deux cas se présentent : • si b ∈ F , alors F contient H et K.b, donc F contient la somme H + K.b qui n’est autre que E tout entier ( H + K.b est le plus petit — au sens de l’inclusion — des sous-espaces de E contenant H et K.b) ; d’où F = E dans ce cas ; • si b ∈ / F , alors je montre que F = H ; j’ai déjà F ⊃ H, soit donc x un vecteur de F ; comme E = H ⊕ K.b, je dispose de h dans H et de λ dans K tels que x = h + λ.b et nécessairement λ = 0 1 (sinon b = · (x − h) appartiendrait à F , d’où une contradiction) ; ainsi x = h appartient à H, ceci λ pour tout x de F , autrement dit F ⊂ H, ce qui achève la démonstration. 2) Soit a ∈ E\H ; H ∩ K.a = {0} (sinon a serait élément de H) ; de plus F = H + K.a est un sous-espace de E contenant H et a, donc F = H d’où — grâce au 1) — F = E ; en conclusion, H et K.a sont supplémentaires, ce qu’il fallait démontrer. 2. Compléments d’algèbre linéaire Page 8 3) Soient H1 et H2 deux hyperplans de E, distincts (s’ils sont égaux, ils sont isomorphes !). Si j’avais H1 ⊂ H2 , j’aurais H2 = E d’après 1), d’où une contradiction. Comme les rôles sont symétriques, j’ai H1 ⊂ / H2 et H2 ⊂ / H1 ; il en résulte (classique !) que H1 ∪ H2 n’est pas stable par l’addition, donc est strictement inclus dans E. Fixons donc a ∈ E\ (H1 ∪ H2 ) ; d’après 2), H1 et H2 sont des supplémentaires de la même droite K.a ; il sont par conséquent isomorphes d’après le théorème précédent. Exemples : 1) Si E est de dimension finie n ≥ 1, les hyperplans de E sont les sous-espaces de dimension n − 1. Pour tout sous-espace E ′ de E,on a : dim E ′ + codim E ′ = n. 2) Si F est de dimension finie et u ∈ L (E, F ), alors Ker u est de codimension finie dans E et rg u = dim Im u = codim Ker u. 3) Dans K [X], pour α ∈ K, l’ensemble des multiples de X − α, polynôme de degré 1, admet pour supplémentaire la droite vectorielle K0 [X] = K ; c’est donc un hyperplan de K [X], égal à {P ∈ K [X] / P (α) = 0} (le noyau de la forme linéaire P → P (α)). V - Formes linéaires. Dualité 1) Hyperplans et formes linéaires Théorème : Soit E un K-espace vectoriel, E = {0}. 1) Si ϕ est une forme linéaire non nulle sur E, H = Ker ϕ est un hyperplan de E (dit l’hyperplan d’équation ϕ (x) = 0). De plus, toute forme linéaire ψ nulle sur H est colinéaire à ϕ. 2) Si H est un hyperplan de E, alors il existe des formes linéaires sur E dont H est le noyau. De plus, si H = Ker ϕ, alors l’ensemble des formes linéaires ψ sur E telles que H = Ker ψ est {λ.ϕ, λ ∈ K ∗ } (autrement dit l’équation de H est unique à un coefficient multiplicatif non nul près). 1 Dém. 1) Soit ϕ forme linéaire non nulle sur E et b dans E tel que ϕ (b) = 0 ; je pose a = · b, alors ϕ (b) ϕ (a) = 1. Montrons que tout vecteur x de E s’écrit de manière unique x = h + λ.a avec (h, λ) ∈ H × K (où H = Ker ϕ). Analyse : si le couple (h, λ) existe, nécessairement ϕ (x) = ϕ (h) + λϕ (a) = λ car ϕ (h) = 0 et ϕ (a) = 1, la seule solution possible est donc donnée par λ = ϕ (x) et h = x − ϕ (x) .a. Synthèse : je pose λ = ϕ (x) et h = x − ϕ (x) .a. J’ai bien x = h + λ.a,ϕ (h) = ϕ (x) − λϕ (a) = 0 donc h ∈ H, et λ ∈ K. En conclusion, E = H ⊕ K.a, ce qui prouve que H est un hyperplan de E. Supposons maintenant ψ forme linéaire sur E, nulle sur H, c’est-à-dire que H ⊂ Ker ψ. H étant un hyperplan et Ker ψ un sous-espace vectoriel de E, deux cas se présentent : • soit Ker ψ = E ; alors ψ = 0 = 0.ϕ est bien colinéaire à ϕ ; • soit Ker ψ = H = Ker ϕ ; je construis comme ci-dessus un vecteur a de E tel que ϕ (a) = 1 et j’observe la forme linéaire δ = ψ − ψ (a) .ϕ ; il est clair que H ⊂ Ker δ et que a ∈ Ker δ ; ainsi Ker δ contient H et K.a, donc leur somme qui n’est autre que E tout entier, donc δ = 0. Ainsi ψ = ψ (a) .ϕ est là encore colinéaire à ϕ. 2) Soit H un hyperplan de E et a ∈ E\H ; j’ai vu au § II — 2) que E = H ⊕ K.a ; soient alors u l’application linéaire de E dans K.a qui à tout x de E associe sa projection sur K.a parallèlement à H, θ l’isomorphisme de K dans K.a qui à tout scalaire λ associe λ.a. Soit enfin ϕ = θ −1 ◦ u ; ϕ est une forme linéaire sur E et, pour tout x de E : ϕ (x) = 0 ⇔ u (x) = 0 ⇔ x ∈ H. Autrement dit, Ker ϕ = H. 2. Compléments d’algèbre linéaire Page 9 Supposons pour finir que ϕ est une forme linéaire sur E telle que H = Ker ϕ. Il est alors immédiat que toute forme linéaire ψ de la forme λ.ϕ, avec λ ∈ K ∗ , vérifie Ker ψ = Ker ϕ = H. Réciproquement, soit ψ forme linéaire sur E de noyau H ; d’après le 1) in fine, ψ est de la forme λ.ϕ, où λ est un scalaire, nécessairement non nul (puisque Ker ψ = E). Cela achève la démonstration. NB : si ϕ est une forme linéaire non nulle sur E et H = Ker ϕ, alors ϕ est surjective (son image est un sous-espace vectoriel de K différent de {0} !) et ses lignes de niveau (les ensembles d’équation ϕ (x) = k, k ∈ K) sont les hyperplans affines de E de direction H. Cas où E est de dimension finie non nulle : • il existe des hyperplans de E (les sous-espaces de dimension dim E − 1) et donc des formes linéaires non nulles sur E ; • pour tout vecteur non nul e de E, il existe une forme linéaire ϕ sur E telle que ϕ (e) = 1 ; • le vecteur nul est le seul vecteur de E sur lequel toute forme linéaire s’annule. 2) Espace dual d’un K -espace vectoriel Définition : le dual d’un K-espace vectoriel E est le K-espace vectoriel noté E ∗ des formes linéaires sur E. Attention ! E ∗ = L (E, K), à ne pas confondre avec E\ {0} . . . Propriété : si E est de dimension finie n, alors E ∗ est de même dimension finie n, par conséquent E ∗ est isomorphe à E. 3) Bases duales Théorème et définition : soit E un K-espace vectoriel de dimension finie n ≥ 1. • si B = (e1 , . . . , en ) est une base de E, on définit pour tout i de Nn la forme linéaire e∗i ∈ E ∗ par ∀ (i, j) ∈ N2n (autrement dit, e∗i est la ie e∗i (ej ) = δ i,j (symbole de Kronecker) forme linéaire coordonnée associée à B : au vecteur x = n xk .ek , e∗i k=1 associe sa composante xi suivant le vecteur de base ei ). Alors, B∗ = (e∗1 , . . . , e∗n ) est une base de E ∗ , appelée la base duale de B. Elle vérifie : n n ∗ ∗ ek (x) .ek et ∀ϕ ∈ E ϕ = ϕ (ek ) .e∗k . ∀x ∈ E x = k=1 k=1 • Réciproquement, pour toute base C = (ϕ1 , . . . , ϕn ) de C = B∗ (B est la base anté-duale de C). E∗ il existe une unique base B de E telle que Dém. Notons que les e∗i sont bien définies, en tant qu’applications linéaires définies par l’image d’une base de l’espace de départ. • B∗ est une famille de n vecteurs de E ∗ , qui est de dimension n ; il suffit donc, pour montrer que B∗ est une base de E ∗ , de vérifier que c’est une famille libre. Soit donc (λ1 , . . . , λn ) dans K n tel que n λi .e∗i = 0 (la forme linéaire nulle). Je fixe j dans Nn et j’écris l’image du vecteur ej : i=1 n λi .e∗i (ej ) = 0 (le zéro de K) i=1 d’où, par définition de e∗i : λj = 0 et ceci pour tout j de Nn . J’en conclus que B∗ est libre, donc est une base de E ∗ . 2. Compléments d’algèbre linéaire Page 10 • Soit maintenant C = (ϕ1 , . . . , ϕn ) une base de E ∗ ; je cherche e1 , . . . , en dans E vérifiant : ∀ (i, j) ∈ N2n (1) ϕi (ej ) = δi,j or l’application Φ : E → est linéaire (vérification immédiate) entre deux x → (ϕ1 (x) , . . . , ϕn (x)) espaces de même dimension finie n ; pour prouver que Φ est bijective, il me suffit donc de vérifier qu’elle est injective. Soit donc x ∈ Ker Φ ; toutes les ϕi s’annulent donc en x et donc toute forme linéaire sur E s’annule en x (car s’écrivant comme combinaison linéaire des ϕi par hypothèse). Il en résulte que x = 0 (cf. § 1) in fine). Finalement Φ est un isomorphisme de E dans K n . Soit (ε1 , . . . , εn ) la base canonique de K n ; les relations (1) s’écrivent encore : Kn ∀j ∈ Nn (2) Φ (ej ) = εj Je montre alors par analyse—synthèse l’existence et l’unicité de B = (e1 , . . . , en ) vérifiant (2) : Analyse : si B existe, nécessairement ej = Φ−1 (εj ) pour tout j. Synthèse : je peux poser, pour tout j, ej = Φ−1 (εj ) puisque Φ est bijective ; la famille B ainsi construite est bien une base de E comme image d’une base de K n par l’isomorphisme Φ−1 et sa base duale est bien C d’après (2) qui équivaut à (1). En conclusion, B convient et c’est la seule solution d’après l’analyse. Exemples : 1) Dans K n , la base duale de la base canonique (ε1 , . . . , εn ) est formée des projections canoniques : ε∗i : Kn → K , (x1 , . . . , xn ) → xi (en effet xi est bien la composante de (x1 , . . . , xn ) = n i ∈ Nn xk .εk suivant le vecteur εi ). k=1 Toute forme linéaire ϕ sur K n est de la forme ϕ : x = (x1 , . . . , xn ) → n λk .xk , (λ1 , . . . , λn ) ∈ K n k=1 et l’on a alors : ϕ= n λk .ε∗k et ∀i ∈ Nn λi = ϕ (εi ) , k=1 la matrice de ϕ dans les bases canoniques respectives de K n et K est donc la matrice-ligne L = λ1 λ2 . . . λn ; x1 notant X = ... , on identifie la matrice LX∈M1,1 (K) avec son unique élément xn ϕ (x) = n λk .xk . k=1 2) À la lumière de l’exemple précédent, on constate que,si C = (ϕ1 , . . . , ϕn) est une famille de formes linéaires sur K n , ϕi (i ∈ Nn ) ayant pour matrice Li = λi,1 λi,2 . . . λi,n dans les bases canoniques, et si B = (e1 , . . . , en ) est un système de vecteurs de K n , de matrice A = (ai,j ) dans la base canonique, alors la matrice des ϕi (ej ), 1 ≤ i, j ≤ n n’est autre que le produit ΛA, où Λ = (λi,j ) a pour lignes les Li . Il en résulte que : ∗ B est une base de K n et C = B∗ si et seulement si A est inversible et Λ = A−1 . ∗ C est une base du dual de K n et C = B∗ si et seulement si Λ est inversible et A = Λ−1 . 3) Dans Kn [X], pour a fixé dans K, la formule de Taylor : n P (k) (a) ∀P ∈ Kn [X] P (X) = · (X − a)k k! k=0 2. Compléments d’algèbre linéaire Page 11 fournit la base duale de la base 1, (X − a) , (X − a)2 , . . . , (X − a)n : la forme linéaire coordonnée associée à (X − a)k est P → P (k) (a) . k! 4) Dans Kn [X] toujours, soient a0 , . . . , an sont n + 1 scalaires distincts deux à deux et, pour tout k dans {0, . . . , n}, ϕk la forme linéaire P → P (ak ) et Lk le polynôme de Lagrange défini par : X − ap Lk (X) = . ak − ap p=k 2 Les relations : ∀ (i, j) ∈ {0, . . . , n} ϕi (Lj ) = Lj (ai ) = δ i,j montrent que (L0 , . . . , Ln ) est une base de Kn [X] dont (ϕ0 , . . . , ϕn ) est la base duale. 4) Formes linéaires et sous-espaces vectoriels Théorème : si F est un sous-espace vectoriel de E de dimension p, l’ensemble des formes linéaires s’annulant sur F est un sous-espace vectoriel de E ∗ , de dimension n − p. Si Φ = ϕ1 , . . . , ϕq est une famille libre de formes linéaires sur E de dimension n, alors q F = Ker ϕi est un sous-espace vectoriel de E de dimension n − q. Les formes linéaires i=1 s’annulant sur F sont les combinaisons linéaires de ϕ1 , . . . , ϕq . NB : la détermination de F correspond à la résolution d’un système linéaire homogène. VI - Trace d’une matrice carrée, d’un endomorphisme 1) Trace d’une matrice carrée Définition : soit A = (ai,j ) ∈ Mn (K) ; on appelle trace de A la somme des éléments de la diagonale principale de A : n Tr A = ak,k k=1 Propriétés : 1) L’application Tr est une forme linéaire sur Mn (K). 2) ∀ (A, B) ∈ Mn (K)2 Tr (BA) = Tr (AB). 3) ∀P ∈ GLn (K) ∀A ∈ Mn (K) Tr P −1 AP = Tr A (deux matrices semblables ont même trace). Dém. 1) Vérification immédiate. 2) Soient A = (ai,j ) et B = (bi,j ) ; j’ai n n Tr (AB) = ai,j bj,i i=1 et Tr (BA) = j=1 n i=1 d’où le résultat par réindexation. n bi,j aj,i j=1 3) D’après 2) : Tr P −1 AP = Tr P −1 (AP ) = Tr (AP ) P −1 = Tr AP P −1 = Tr A . Attention ! En général Tr(AB) = (Tr A)(Tr B) ; Tr(ABC) = Tr(BAC). NB : le calcul précédent montre que, avec les mêmes notations : n n ai,j bi,j Tr At B = Tr t AB = i=1 j=1 qui n’est autre que le produit scalaire canonique de A et B dans Mn (K). On vérifie que, pour ce produit scalaire, le sous-espace des matrices symétriques et celui des matrices antisymétriques sont supplémentaires orthogonaux. 2. Compléments d’algèbre linéaire Page 12 2) Trace d’un endomorphisme Théorème et définition : soit u un endomorphisme d’un K-espace vectoriel E de dimension finie ; la trace de la matrice de u dans une base de E ne dépend pas du choix de cette base, on l’appelle trace de u, notée Tr u. Dém. Soient B et C sont deux bases de E et P la matrice de passage de B à C ; si A est la matrice de u dans B, alors la matrice de u dans C est P −1 AP , qui a la même trace que A d’après le § 1). Propriétés : 1) L’application Tr est une forme linéaire sur L (E). 2) ∀ (u, v) ∈ L (E)2 Tr (v ◦ u) = Tr (u ◦ v). 3) Le rang d’un projecteur est égal à sa trace. Dém. 1) et 2) découlent du paragraphe précédent. 3) Soit p un projecteur de rang r ; dans une base adaptée à la décomposition E = Im p ⊕ Ker p, Ir 0 p admet pour matrice , d’où Tr p = r = rg p. 0 0 VII - Matrices équivalentes 1) Définition Deux matrices de mêmes dimensions A et B dans Mn,p (K) sont dites équivalentes si et seulement s’il existe deux matrices inversibles P ∈ GLp (K) et Q ∈ GLn (K) telles que : B = Q−1 AP . Cela signifie que A et B représentent dans des bases bien choisies la même application linéaire de K p dans K n . NB : ne pas confondre avec la notion de matrices semblables, qui concerne uniquement les matrices carrées ; A et B dans Mn (K) sont semblables si et seulement s’il existe P ∈ GLn (K) telle que B = P −1 AP . 2) Caractérisation à l’aide du rang Théorème : toute matrice M ∈ Mn,p (K) de rang r est équivalente à la matrice Ir 0r,n−r 1 si i = j ≤ r = (αi,j )1≤i≤n où αi,j = Jr = . 0p−r,r 0p−r,n−r 0 sinon 1≤j≤p Corollaire : deux matrices de Mn,p (K) sont équivalentes si et seulement si elles ont même rang.