Chapitre 2 ALGEBRE LINEAIRE ELEMENTAIRE 152 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE Dans tout le chapitre K désigne un corps commutatif 2.1. Généralités sur les espaces vectoriels 153 2.1 Généralités sur les espaces vectoriels 2.1.1 Notion de K-espace vectoriel Définition 2.1.1 On appelle K-espace vectoriel un triplet (E, +, .) où (E, +) est un groupe abélien, . une loi externe à domaine d’opérateurs K, doublement distributive par rapport à l’addition dans K et dans E, vérifiant ∀x ∈ E, 1K x = x et ∀α, β ∈ K, ∀x ∈ E, α(βx) = (αβ)x. Exemples fondamentaux : si L est un sur-corps de K, L est naturellement un K-espace vectoriel . 154 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE Soit n ∈ N ; K n muni des lois (x1, . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn ) et λ(x1 , . . . , xn ) = (λx1 , . . . , λxn )est un K-espace vectoriel. Plus généralement, si I est un ensemble, K (I) = {(ai )i∈I | ∀i, ai ∈ K et nombre fini de ai non nuls} est un K-espace vectoriel pour les lois (ai ) + (bi ) = (ai + bi ) et λ(ai ) = (λai ). 2.1. Généralités sur les espaces vectoriels 2.1.2 155 Notion de sous-espace vectoriel Remarque 2.1.1 Un sous-espace vectoriel est une partie stable aussi bien par la loi interne que par la loi externe et qui est muni par les lois induites d’une structure d’espace vectoriel. On vérifie immédiatement que c’est équivalent à la définition suivante que l’on retiendra : Définition 2.1.2 On appelle sous-espace vectoriel de l’espace vectoriel E une partie F de E telle que – (i) F 6= ∅ – (ii) ∀α, β ∈ K, ∀x, y ∈ F, αx + βy ∈ F . 156 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE Remarque 2.1.2 L’intersection d’une famille quelconque de sous-espaces vectoriels en est encore un ce qui conduit à la définition suivante Définition 2.1.3 L’ensemble des sous-espaces vectoriels contenant une partie A de E admet un plus petit élément appelé le sous-espace vectoriel engendré par A et noté \ Vect(A). On a Vect(A) = F A⊂F F sev Définition 2.1.4 On appelle sous-espace vectoriel engendré par la famille (xi )i∈I le plus petit sous-espace 2.1. Généralités sur les espaces vectoriels 157 vectoriel contenant tous les vecteurs de la famille, et on le note Vect(xi , i ∈ I). On a [ Vect(xi , i ∈ I) = Vect( {xi }) = { X i∈I i∈I αi xi | (αi ) ∈ K (I) } (ensemble des combinaisons linéaires de la famille (xi )). 158 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE 2.1.3 Produits, quotients Définition 2.1.5 (espace produit) Si E et F sont deux espaces vectoriels , l’espace E × F est muni d’une structure d’espace vectoriel en posant (x1 , y1 )+(x2 , y2 ) = (x1 +x2 , y1 + y2 ), λ(x, y) = (λx, λy). Définition 2.1.6 (espace quotient) Soit E un espace vectoriel et F un sous-espace vectoriel de E. La relation ”xRy ⇐⇒ x − y ∈ F ” est une relation d’équivalence sur E. La classe d’un élément x de E est x + F . Il existe sur E/F une unique structure d’espace vectoriel telle que la projection π : E → E/F vérifie ∀α, β ∈ K, ∀x, y ∈ E, π(αx + βy) = απ(x) + βπ(y). 2.1. Généralités sur les espaces vectoriels 159 Démonstration 2.1.1 La relation d’équivalence et la caractérisation de la classe d’équivalence proviennent du même résultat sur les groupes additifs. La loi d’espace vectoriel sur E/F doit être définie de telle sorte que α(x+F )+β(y+F ) = (αx+βy)+ F ; il suffit donc de vérifier que si x +F = x0 + F et y + F = y 0 + F , alors (αx + βy) + F = (αx0 + βy 0 ) + F . Or les deux premières relations signifient que x − x0 ∈ F et y − y 0 ∈ F . On a donc (αx + βy) − (αx0 + βy 0 ) = α(x − x0 ) + β(y − y 0 ) ∈ F , soit encore (αx + βy) + F = (αx0 + βy 0 ) + F . Ceci définit parfaitement une structure d’espace vectoriel sur E/F (vérification facile) et on a bien π(αx + βy) = απ(x) + βπ(y). 160 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE 2.1.4 Applications linéaires Proposition 2.1.1 Soit E et F deux espaces vectoriels . On appelle application linéaire une application f : E → F telle que ∀α, β ∈ K, ∀x, y ∈ E, f(αx + βy) = αf (x) + βf (y). Notation : L(E, F ) l’ensemble des applications linéaires de E dans F . Proposition 2.1.2 L’ensemble L(E, F ) est muni d’une structure de K espace vectoriel en posant (f + g)(x) = f(x) + g(x) et (λf )(x) = λf (x). 2.1. Généralités sur les espaces vectoriels 161 Proposition 2.1.3 Soit f ∈ L(E, F ). L’image par f de tout sous-espace vectoriel de E est un sous-espace vectoriel de F . L’image réciproque de tout sous-espace vectoriel de F est un sous-espace vectoriel de E. Remarque 2.1.3 En particulier Ker f = f −1 ({0}) et Im f = f (E) sont des sous-espaces vectoriels respectivement de E et F . Théorème 2.1.1 Soit f ∈ L(E, F ). L’application f est injective si et seulement si Ker f = {0}. 162 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE Démonstration 2.1.2 C’est une traduction du résultat sur les groupes. Théorème 2.1.2 Soit f ∈ L(E, F ). Il existe une unique application f : E/ Ker f → Im f vérifiant ∀x ∈ E, f (π(x)) = f (x) (où π désigne la projection canonique de E sur E/ Ker f ). L’application f est un isomorphisme d’espaces vectoriels . Démonstration 2.1.3 Analogue au résultat similaire sur les groupes. 2.1. Généralités sur les espaces vectoriels 2.1.5 163 Somme de sous-espaces Soit E un K-espace vectoriel et F1 , . . . , Fk des sousespaces vectoriels de E. Soit f : F1 × · · · × Fk → E définie par f (x1 , . . . , xk ) = x1 + . . . + xk . On vérifie facilement que f est linéaire. Définition 2.1.7 On appelle somme des sous-espaces vectoriels F1 , . . . , Fk le sous-espace vectoriel F1 + · · · + Fk = Im f = {x1 + . . . + xk | ∀i, xi ∈ Fi }. On dit que F1, . . . , Fk sont en somme directe si f est injective (c’est-à-dire si l’écriture d’un x sous la forme x = x1 + . . . + xk lorsqu’elle existe, est unique). Dans ce cas on écrit la somme sous la forme F1 ⊕ · · · ⊕ Fk . 164 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE Théorème 2.1.3 Les sous-espaces F1 , . . . , Fk sont en somme directe si et seulement si x1 + . . . + xk = 0 ⇒ x1 = 0, . . . , xk = 0 Démonstration 2.1.4 Ceci traduit simplement que f est injective si et seulement si son noyau est réduit à {0}. Remarque 2.1.4 Il n’existe pas d’autre caractérisation correcte et réellement utile de la somme directe dans le cas où k ≥ 3. Par contre, si k = 2 on a 2.1. Généralités sur les espaces vectoriels 165 Théorème 2.1.4 Les sous-espaces F1 et F2 sont en somme directe si et seulement si F1 ∩ F2 = {0}. Démonstration 2.1.5 On a en effet x1 + x2 = 0 ⇐⇒ x1 = −x2 ∈ F1 ∩ F2 Définition 2.1.8 On dit que deux sous-espaces vectoriels F et G de l’espace vectoriel E sont supplémentaires s’ils vérifient les trois propriétés équivalentes – (i) E = F ⊕ G – (ii) E = F + G et F ∩ G = {0} 166 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE – (iii) Tout élément x de E s’écrit de manière unique sous la forme x = y + z avec y ∈ F et z ∈ G. On dit que y est la projection de x sur F parallèlement à G : y = πF kG (x). Proposition 2.1.4 Si F et G sont supplémentaires, πF kG est une application linéaire de E dans E et on a πF kG + πGkF = IdE . Le théorème suivant peut rendre de grands services Théorème 2.1.5 Soit f : E → F une application linéaire et V un supplémentaire de Ker f dans E. Alors la restriction de f à V , f|V , induit un isomorphisme de V sur Im f . 2.1. Généralités sur les espaces vectoriels 167 Démonstration 2.1.6 Soit f 0 la restriction de f à V ; on a Ker f 0 = Ker f ∩ V = {0} ce qui montre que f 0 est injective. De plus, si y ∈ Im f , il existe x ∈ E tel que y = f (x). Cet élément x peut s’écrire x = x1 + x2 avec x1 ∈ V, x2 ∈ Ker f , d’où y = f (x) = f (x1 ) + f (x2 ) = f (x1 ) = f 0 (x1 ) ce qui montre que f 0 est surjective de V sur Im f . Remarque 2.1.5 Appelons g l’isomorphisme réciproque ; on a alors f ◦g = IdIm f et g◦f = πV kKer f . Le résultat suivant n’est qu’un cas particulier utile du théorème énoncé : Proposition 2.1.5 Si F et G sont supplémentaires, soit π la projection canonique de E sur E/F . Alors la restriction 168 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE de π à G est un isomorphisme de G sur E/F Remarque 2.1.6 Contrairement au quotient E/F qui est unique, un supplémentaire G ne l’est pas ; par contre deux supplémentaires d’un même sous-espace vectoriel sont isomorphes (puisqu’ils sont tous deux isomorphes à E/F ). 2.1. Généralités sur les espaces vectoriels 2.1.6 169 Algèbres Définition 2.1.9 On appelle K-algèbre un quadruplet (A, +, ∗, .) tel que (A, +, ∗) est un anneau, (A, +, .) est un K-espace vectoriel avec ∀λ ∈ K, ∀x, y ∈ A, (λx) ∗ y = x ∗ (λy) = λ(x ∗ y) (avec la distributivité, bilinéarité du produit ∗). ces propriétés traduisent la Remarque 2.1.7 Notions évidentes : sous-algèbres, morphisme d’algèbres. 170 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE Exemple 2.1.1 L’ensemble L(E) = L(E, E) des endomorphismes de E est une K-algèbre, la multiplication étant la composition. Le groupe des éléments inversibles (automorphismes de E) est noté GL(E). 2.1. Généralités sur les espaces vectoriels 2.1.7 171 Familles libres, génératrices. Bases Soit E un espace vectoriel, X = (xi )i∈I une famille de vecteurs de E. A cette famille on peut associerX une application linéaire fX : K (I) → E par f ((αi )i∈I ) = α i xi . i∈I Définition 2.1.10 On dit que la famille X est (i) libre si fX est injective (ii) génératrice si fX est surjective (iii) une base de E si fX est bijective. Proposition 2.1.6 La famille X est 172 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE (I) X (i) libre si et seulement si ∀(αi ) ∈ K , α i xi = 0 ⇒ ∀i ∈ I, αi = 0 (ii) génératrice si etX seulement si tout élément x de E s’écrit sous la forme x = αi xi (iii) une base si et seulement si tout élément x de E s’écrit X de manière unique sous la forme x = αi xi (on dit alors que les αi sont les coordonnées de x dans la base X ). Démonstration 2.1.7 Seul (i) n’est pas totalement évident. Il traduit que fX est injective si et seulement si son noyau est réduit à la famille nulle. On remarque alors facilement qu’une famille est libre si et seulement si toute sous-famille finie est libre. 2.1. Généralités sur les espaces vectoriels Définition 2.1.11 On dit lorsqu’elle n’est pas libre. qu’une famille 173 est liée Proposition 2.1.7 Toute sous-famille d’une famille libre est libre, toute surfamille d’une famille génératrice est génératrice. L’image par une application linéaire injective d’une famille libre est libre. L’image par une application linéaire surjective d’une famille génératrice est génératrice. L’image par une application linéaire d’une famille liée est liée. L’image par un isomorphisme d’une base est une base. Démonstration 2.1.8 Elémentaire 174 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE 2.1.8 Théorèmes fondamentaux Théorème 2.1.6 Une famille (xi )i∈I est liée si et seulement si il existe i0 ∈ I tel que xi0 soit combinaison linéaire de la famille (xi )i∈I\{i0 } Démonstration 2.1.9 Si xi0 X i∈I = X αi xi , on a i∈I\{i0 } αi xi = 0 en posant αi0 = −1 et la famille est donc liée. En ce qui concerne la réciproque, on écrit X avec par exemple αi0 6= 0. Alors xi0 = X i∈I i∈I\{i0 } (− α i xi = 0 αi )xi . En αi0 2.1. Généralités sur les espaces vectoriels 175 adaptant de façon évidente la démonstration on a Théorème 2.1.7 Soit (xi )i∈I une famille liée. On suppose que la famille (xi )i∈I\{i0 } est libre. Alors xi0 est combinaison linéaire de la famille (xi )i∈I\{i0 } Démonstration 2.1.10 En effet le fait que la famille (xi )i∈I\{i0 } soit libre implique que nécessairement αi0 6= 0. Théorème 2.1.8 Soit E et F deux K-espaces vectoriels et E = (ei )i∈I une base de E. Pour toute famille (bi )i∈I 176 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE d’éléments de F indexée par I, il existe une unique application linéaire f : E → F vérifiant ∀i ∈ I, f (ei ) = bi Démonstration f est bien évidemment X 2.1.11 L’application X définie par f ( xi ei ) = xi bi . On vérifie facilement qu’elle est linéaire. Remarque 2.1.8 Les deux théorèmes suivants découlent 2.1. Généralités sur les espaces vectoriels 177 simplement de la relation X i∈I αi ei = p X X αi ei j=1 i∈Ij | {z } ∈Ej et des caractérisations d’une base et d’une somme directe : Théorème 2.1.9 Soit E un K-espace vectoriel , E = (ei )i∈I une base de E, I = I1 ∪ . . . ∪ Ip une partition de I, Ej = Vect(ei , i ∈ Ij ). Alors E = E1 ⊕ · · · ⊕ Ep . 178 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE Théorème 2.1.10 Soit E un K-espace vectoriel , E = E1 ⊕ · · · ⊕ Ep une décomposition en somme directe. Pour j ∈ [1, p], soit Ej = (ei )i∈Ij une base de Ej (les ensembles Ij sont disjoints). Alors la famille E1 ∪ . . . ∪ Ep est une base de E (dite adaptée à la décomposition en somme directe). 2.2. Bases et dimension 2.2 2.2.1 179 Bases et dimension Existence de bases Lemme 2.2.1 fondamental. Soit E un K-espace vectoriel et E une famille de E. On a équivalence de (i) E est une base de E (ii) E est une famille libre maximale (toute surfamille stricte est liée) (iii) E est une famille génératrice minimale (toute sousfamille stricte est non génératrice). Démonstration 2.2.1 Si E est une base, on ne peut lui adjoindre aucun vecteur x sans obtenir une famille liée 180 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE puisque x est combinaison linéaire de E ; on ne peut lui retirer aucun vecteur ei0 sans obtenir une famille non génératrice puisque ei0 n’est pas combinaison linéaire des autres vecteurs. Donc une base est une famille libre maximale et une famille génératrice minimale. Inversement, soit E une famille libre maximale ; si on lui adjoint un vecteur x, la famille devient liée, c’est donc que x est combinaison linéaire de E et donc E est également génératrice, donc c’est une base. De même soit E une famille génératrice minimale ; si elle était liée, l’un des vecteurs serait combinaison linéaire des autres vecteurs et la famille obtenue en retirant ce vecteur serait encore génératrice, ce qui n’est pas ; la famille est donc libre, donc c’est une base. 2.2. Bases et dimension 181 Théorème 2.2.1 (de la base incomplète). Soit E un Kespace vectoriel , (ei )i∈I une famille génératrice de E. Soit L une partie de I telle que la famille (ei )i∈L soit libre. Alors il existe une partie J avec L ⊂ J ⊂ I telle que (ei )i∈J est une base de E. Démonstration 2.2.2 On considère X = {J | L ⊂ J ⊂ I et (ei )i∈J libre} ordonné par l’inclusion. Si (Js )s∈S est une famille totalement ordonnée de X, alors J = ∪s∈S Js est encore dans X (facile car si on a une sous-famille finie de la famille (ej )j∈J , ils sont tous dans un même Js , donc forment une famille libre) et c’est un majorant de la famille. Le théorème de Zorn garantit que l’ensemble X admet un élément maximal. Soit J un tel élément maximal. La famille 182 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE (ei )i∈J est libre. D’autre part, pour tout j ∈ I \ J , la famille (ei )i∈I∪{j} est liée, donc ej est combinaison linéaire de la famille (ei )i∈J . On en déduit que la famille est aussi génératrice. Corollaire 2.2.1 Tout K-espace vectoriel admet des bases. Démonstration 2.2.3 Prendre la famille (x)x∈E comme famille génératrice et la famille vide comme sous-famille libre. 2.2. Bases et dimension 183 Corollaire 2.2.2 Soit E un K-espace vectoriel et F un sous-espace vectoriel de E. Alors F admet des supplémentaires dans E. Démonstration 2.2.4 Il suffit de prendre une base de F , de la compléter en une base de E et de prendre pour supplémentaire le sous-espace vectoriel engendré par les vecteurs de la base introduits en supplément. 184 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE 2.2.2 Espaces vectoriels de dimension finie. Dimension Définition 2.2.1 On dit qu’un espace vectoriel E est de dimension finie, s’il admet une famille génératrice finie. Lemme 2.2.2 Soit E un espace vectoriel de dimension finie, (x1 , . . . , xn ) une famille génératrice finie. Alors toute famille libre a un cardinal inférieur ou égal à n. Démonstration 2.2.5 Il suffit de démontrer par récurrence sur n que si n + 1 vecteurs y1 , . . . , yn+1 sont combinaisons linéaires de n vecteurs x1 , . . . , xn , alors 2.2. Bases et dimension 185 la famille (y1 , . . . , yn+1 ) est liée (c’est évident pour n = 1). n X Pour cela on écrit yj = ai,j xj . Si, pour tout i, ai,n = 0 i=1 alors y1 , . . . , yn sont combinaisons linéaires de x1 , . . . , xn−1 , donc forment une famille liée ; il en est de même a fortiori de la famille complète. Sinon par exemple an+1,n 6= 0. On n−1 X ai,n pose alors ∀i ∈ [1, n], zi = yi − yn+1 = bi,j xj . an+1,n j=1 Par récurrence, la famille z1 , . . . , zn est liée (combinaisons linéaires de x1 , . . . , xn−1 ), donc il existe α1, . . . , αn non tous nuls tels que α1 z1 + . . . + αn zn = 0 ce qui donne après remplacement α1 y1 + . . . + αn yn + βyn+1 = 0 et montre que la famille est liée. Ceci achève la démonstration. 186 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE Remarque 2.2.1 Ceci permet de redémontrer dans ce cas le théorème de la base incomplète sans faire appel au théorème de Zorn, l’existence d’un sous-ensemble J de X maximal étant garanti par la limitation sur son cardinal induite par le lemme précédent. Le lemme précédent montre aussi que le cardinal d’une famille libre est nécessairement fini et que le cardinal d’une famille libre est inférieur au cardinal d’une famille génératrice. Comme les bases sont à la fois libres et génératrices, on a le théorème suivant : Théorème 2.2.2 Soit E un K-espace vectoriel de dimension finie. Alors toutes les bases de E ont un même cardinal fini, appelé la dimension de E. Toute famille libre est finie et a un cardinal inférieur ou égal à dim E avec égalité si et 2.2. Bases et dimension 187 seulement si c’est une base de E. Toute famille génératrice a un cardinal supérieur ou égal à dim E avec égalité si et seulement si c’est une base de E. 188 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE 2.2.3 Résultats sur la dimension Théorème 2.2.3 Deux espaces sont isomorphes si et seulement si ils ont la même dimension. Démonstration 2.2.6 Deux espaces de même dimension sont isomorphes : prendre deux bases et envoyer l’une sur l’autre. Inversement, l’image d’une base par un isomorphisme étant une base, deux espaces isomorphes ont même dimension. Théorème 2.2.4 – dim(E × F ) = dim E + dim F X – dim(F1 ⊕ · · · ⊕ Fk ) = dim Fi 2.2. Bases et dimension 189 – dim(E/F ) = dim E − dim F – f : E → F linéaire, dim E = dim Ker f + dim Im f (théorème du rang) – dim(F + G) = dim F + dim G − dim F ∩ G – F ⊂ E, dim F ≤ dim E avec égalité si et seulement si F = E – dim L(E, F ) = dim E. dim F Démonstration 2.2.7 – Si (ei )i∈I et (fj )j∈J sont des bases respectives ¡ de E¢et F , ¡on vérifie ¢ immédiatement que la famille (ei , 0) i∈I ∪ (0, fj ) j∈J ) est une base de E × F en écrivant (x, y) = (x, 0) + (0, y). 190 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE – F1 ⊕ · · · ⊕ Fk est isomorphe à F1 × · · · × Fk (prendre (x 1 , . . . , xk ) 7→ x1 + . . . + xk ) qui est de dimenX sion dim Fi par récurrence à partir du résultat précédent. – L’espace E/F est isomorphe à tout supplémentaire de F dans E qui est de dimension dim E − dim F d’après le résultat précédent. – Il existe un isomorphisme f de E/ Ker f sur Im f , d’où dim Im f = dim E/ Ker f = dim E − dim Ker f. – L’application linéaire f : F × G → E, (x, y) 7→ x + y a pour image F +G et pour noyau {(x, −x) | x ∈ F ∩G} qui est naturellement isomorphe à F ∩G. Il suffit donc d’appliquer le résultat précédent à f . 2.2. Bases et dimension 191 – D’après le théorème de la base incomplète, toute base de F est une famille libre de E, donc peut être complétée en une base de E, d’où dim F ≤ dim E avec égalité si et seulement si F = E – On peut soit utiliser le résultat analogue sur les matrices que l’on verra plus loin, soit montrer que si (ei )i∈I et (fj )j∈J sont des bases respectives de E et F , alors les applications linéaires ϕj,i ∈ L(E, F ) définies par ½ fj si k = i ϕj,i (ek ) = 0 si k 6= i forment une base de L(E, F ), ce qui est laissé en exercice. 192 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE Théorème 2.2.5 Soit F et G deux sous-espaces vectoriels de E de dimension finie. On a équivalence de (i) F et G sont supplémentaires dans E (ii) E = F + G et dim E = dim F + dim G (iii) F ∩ G = {0} et dim E = dim F + dim G Démonstration 2.2.8 Elémentaire. Remarque 2.2.2 On sait que si F est un sous-espace vectoriel de E, la restriction à tout supplémentaire G de F dans E de la projection canonique de E sur E/F est un isomorphisme d’espace vectoriel. Ceci justifie la définition suivante : 2.2. Bases et dimension 193 Définition 2.2.2 Soit E un K espace vectoriel et F un sous-espace vectoriel de E. On appelle codimension de F la dimension (éventuellement infinie) de l’espace vectoriel quotient E/F , qui est encore la dimension de tout supplémentaire de F dans E. 194 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE 2.3 2.3.1 Rang Rang d’une famille de vecteurs Définition 2.3.1 rg(xi )i∈I sup{|J| | (xi )i∈J libre } = dim Vect(xi , i ∈ I) = Démonstration 2.3.1 L’égalité provient évidemment du théorème de la base incomplète qui garantit que l’on peut extraire de la famille (xi ) une base du sous-espace Vect(xi ). Une application linéaire transformant une famille liée en une famille liée, on a : 2.3. Rang 195 Théorème 2.3.1 Soit u ∈ L(E, F ) et (xi )i∈I une famille de E. Alors rg(u(xi ))i∈I ≤ rg(xi )i∈I . Recherche pratique : voir le rang d’une matrice. 196 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE 2.3.2 Rang d’une application linéaire Définition 2.3.2 Soit u dim Im u ∈ N ∪ {+∞}. ∈ L(E, F ). Alors rg u = Remarque 2.3.1 Recherche pratique : Si (ei )i∈I est une base de E, (u(ei ))i∈I est une famille génératrice de Im u et donc rg u = rg(u(ei ))i∈I . Théorème 2.3.2 Soit u ∈ L(E, F ). (i) Si dim E < +∞, alors u est de rang fini, rg u = dim E − dim Ker u ; on a rg u = dim E si et seulement si u est injectif 2.3. Rang 197 (ii) Si dim F < +∞, alors u est de rang fini, rg u ≤ dim F ; on a rg u = dim F si et seulement si u est surjectif Démonstration 2.3.2 Découle résultats sur la dimension. immédiatement des Remarque 2.3.2 On a donc dans tous les cas rg u ≤ min(dim E, dim F ) Proposition 2.3.1 Soit u ∈ L(E, F ), v ∈ L(F, G). Alors rg v ◦ u ≤ min(rg v, rg u). Si u est bijectif, rg v ◦ u = rg v. Si v est bijectif, rg v ◦ u = rg u. 198 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE Démonstration 2.3.3 Il suffit de remarquer que Im v ◦ u = v(u(E)). Théorème 2.3.3 On suppose ici dim E = dim F < +∞, u ∈ L(E, F ). On a équivalence de – (i) u injective – (ii) u surjective – (iii) u bijective – (iv) ∃v ∈ L(F, E), v ◦ u = IdE – (v) ∃v ∈ L(F, E), u ◦ v = IdF 2.3. Rang 199 Démonstration 2.3.4 L’équivalence entre (i), (ii) et (iii) est une compilation des résultats précédents. De plus (iii) ⇒ (iv) et (v), (iv)⇒ (i) et (v)⇒(ii), ce qui boucle la boucle. 200 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE 2.4 Dualité : approche restreinte 2.4.1 Formes linéaires, dual, formes coordonnées Définition 2.4.1 Soit E un K-espace vectoriel . On appelle forme linéaire sur E toute application linéaire de E dans K. On appelle dual de E le K-espace vectoriel E ∗ = L(E, K). Remarque 2.4.1 Soit (ei )i∈I une base de E et i0 ∈ I. Tout vecteur Xx de E s’écrit de manière unique sous la forme x = xi ei . L’application ϕi0 : x 7→ xi0 est clairement i∈I 2.4. Dualité : approche restreinte 201 une forme linéaire sur E, appelée forme linéaire coordonnée d’indice i0 dans la base (ei )i∈I . Elle est définie par ϕi0 (ei0 ) = 1 et ϕi0 (ei ) = 0 si i 6= i0 , soit encore par ϕi0 (ei ) = δii0 . Proposition 2.4.1 Soit E un K-espace vectoriel et x ∈ E, x 6= 0. Alors il existe une forme linéaire ϕ sur E telle que ϕ(x) = 1. Démonstration 2.4.1 Le vecteur x forme à lui tout seul une famille libre que l’on peut compléter en une base (ei )i∈I de E avec x = ei0 . Soit ϕ la forme linéaire qui associe à tout vecteur de E sa i0 -ième coordonnée dans cette base. On a bien entendu ϕ(x) = 1. 202 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE Remarque 2.4.2 Le résultat précédent peut encore s’interpréter sous la forme : si x ∈ E, ∀ϕ ∈ E ∗ , ϕ(x) = 0 ⇐⇒ x = 0 2.4. Dualité : approche restreinte 2.4.2 203 Base duale d’un espace vectoriel de dimension finie Définition 2.4.2 Soit E un espace vectoriel de dimension finie, E = (e1 , . . . , en ) une base de E. Pour i ∈ [1, n], soit ϕi la forme linéaire coordonnée d’indice i dans la base E . Alors E ∗ = (ϕ1 , . . . , ϕn ) est une base du dual E ∗ , appelée la base duale de la base E. Elle est caractérisée par les relations ∀i, j ∈ [1, n], ϕi (ej ) = δij . Démonstration 2.4.2 Tout d’abord, montrons que E ∗ est une famille libre en utilisant les relations de définition des 204 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE formes coordonnées ∀i, j ∈ [1, n], ϕi (ej ) = δij Soit λ1 , . . . , λn ∈ K tels que λ1 ϕ1 + . . . + λn ϕn = 0 ; on a alors, pout tout i ∈ [1, n] 0 = 0(ei ) = λ1 ϕ1 (ei ) + . . . + λn ϕn (ei ) = λi ce qui montre bien que la famille est libre. Pour montrer qu’elle est génératrice, soit ϕ ∈ E et considérons ψ = n X ϕ(ei )ϕi ; on a alors pour tout j ∈ [1, n], i=1 ψ (ej ) = n X i=1 ϕ(ei )ϕi (ej ) = n X i=1 ϕ(ei )δij = ϕ(ej ) 2.4. Dualité : approche restreinte 205 Les deux applications linéaires ϕ et ψ coı̈ncidant sur une base, sont égales, ce qui montre que la famille est génératrice. Remarque 2.4.3 Attention : la dimension finie est essentielle ; elle garantit qu’il n’y a qu’un nombre Xfini de ϕ(ei ) non nuls et permet de considérer la somme ϕ(ei )ϕi ; en ∗ i∈I ∗ dimension infinie, E n’est pas une base de E , car elle n’est pas génératrice (considérer la forme linéaire ϕ qui à tout ei associe 1). Corollaire 2.4.1 La dimension de l’espace dual d’un es- 206 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE pace vectoriel de dimension finie est égale à la dimension de l’espace. 2.4. Dualité : approche restreinte 2.4.3 207 Orthogonalité 1 Soit E un K-espace vectoriel de dimension finie, (e1 , . . . , ep ) une famille d’éléments de E. Nous pouvons associer à cette famille l’application u : E ∗ → K p , définie par u(ϕ) = (ϕ(e1 ), . . . , ϕ(ep )). On vérifie immédiatement que u est linéaire. Son noyau est constitué des ϕ ∈ E ∗ vérifiant ∀i ∈ [1, p], ϕ(ei ) = 0. Proposition 2.4.2 Si (e1 , . . . , ep ) est une base de E, alors u est un isomorphisme d’espace vectoriel de E ∗ sur K p . Démonstration 2.4.3 En effet dans ce cas, u envoie la base duale E ∗ sur la base canonique de K p ; c’est donc un 208 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE isomorphisme. Proposition 2.4.3 La famille (e1 , . . . , ep ) est libre si et seulement si u est surjective. Sous ces conditions, Ker u est de codimension p et ∀x ∈ E, (x ∈ Vect(e1 , . . . , ep ) ⇐⇒ ∀ϕ ∈ Ker u, ϕ(x) = 0) Démonstration 2.4.4 Si u est surjective, notons (ε1 , . . . , εp ) la base canonique de K p et soit ϕi ∈ E ∗ tel que u(ϕi ) = εi ; on a donc ∀i, j ∈ [1, p], ϕi (ej ) = δij ce qui implique évidemment que la famille est libre : si 2.4. Dualité : approche restreinte p X j=1 209 λj ej = 0, on a pour tout i ∈ [1, p] 0 = ϕi (0) = ϕi ( p X j=1 λj ej ) = p X λj ϕi (ej ) = λi j=1 Inversement, si la famille est libre, on peut compléter la famille (e1 , . . . , ep ) en une base (e1 , . . . , en ) de E et soit (ϕ1 , . . . , ϕn ) la base duale. On a alors ∀i, j ∈ [1, p], ϕi (ej ) = δij , soit ∀i ∈ [1, p], u(ϕi ) = εi . L’image de u contient une base de K p , c’est donc K p et u est surjective. Dans ces conditions, on peut appliquer le théorème du rang, et donc dim Ker u = dim E ∗ − p = dim E − p. Soit ϕ ∈ Ker u ; alors ∀i ∈ [1, p], ϕ(ei ) = 0 et donc 210 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE ∀x ∈ Vect(e1 , . . . , ep ), ϕ(x) = 0. Inversement, supposons que x ∈ / Vect(e1 , . . . , ep ) ; alors la famille (e1 , . . . , ep , x) est libre, on peut la compléter en une base de E et la forme coordonnée suivant x dans cette base, soit ϕ, appartient à Ker u alors que ϕ(x) = 1. On a donc bien l’équivalence ∀x ∈ E, (x ∈ Vect(e1 , . . . , ep ) ⇐⇒ ∀ϕ ∈ Ker u, ϕ(x) = 0) Remarque 2.4.4 Application : Soit F un sous-espace vectoriel de E, (e1 , . . . , ep ) une base de F , u : E ∗ → K p l’application linéaire associée, (ϕ1 , . . . , ϕn−p ) une base de Ker u ; alors x ∈ F ⇐⇒ ∀i ∈ [1, n − p], ϕi (x) = 0. On dit encore que F est défini par le système d’équations linéaires ϕ1 (x) = 0, . . . , ϕn−p (x) = 0. 2.4. Dualité : approche restreinte 2.4.4 211 Hyperplans Définition 2.4.3 On appelle hyperplan de E tout sousespace vectoriel H de E vérifiant les conditions équivalentes – (i) dim E/H = 1 – (ii) ∃f ∈ E \ {0}, H = Ker f – (iii) H admet une droite comme supplémentaire. Démonstration 2.4.5 – (i)⇒(ii) : prendre e une base de E/H et écrire π(x) = f (x)e. – (ii)⇒ (iii) : on prend a ∈ E tel que f (a) 6= 0. Tout élément x s’écrit de manière unique sous la forme x = 212 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE f (x) f (x) f(x) a) + a avec x − a ∈ Ker f, soit f (a) f (a) f (a) E = Ker f ⊕ Ka. – (iii)⇒(i) : tout supplémentaire de H est isomorphe à E/H. (x − Théorème 2.4.1 Soit H un hyperplan de E. Alors deux formes linéaires nulles sur H sont proportionnelles. Démonstration 2.4.6 Si E = H ⊕ Ka et H = Ker f , soit g(a) g ∈ E ∗ nulle sur H. Alors g et f coı̈ncident sur H et f (a) sur Ka, donc sont égales. 2.4. Dualité : approche restreinte 2.4.5 213 Orthogonalité 2 Remarque 2.4.5 Soit E un K-espace vectoriel de dimension finie, (ϕ1 , . . . , ϕp ) une famille d’éléments de E ∗ . Nous pouvons associer à cette famille l’application v : E → K p , définie par v(x) = (ϕ1 (x), . . . , ϕp (x)). On vérifie immédiatement que v est linéaire. Son noyau est constitué de l’intersection des Ker ϕi (en général des hyperplans, sauf si la forme linéaire est nulle). Proposition 2.4.4 Si (ϕ1 , . . . , ϕp ) est une base de E ∗ , alors v est un isomorphisme d’espace vectoriel de E ∗ sur Kp. 214 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE Démonstration 2.4.7 En effet dans ce cas, v est injective car v(x) = 0 ⇐⇒ ∀i ∈ [1, p], ϕi (x) = 0 ⇐⇒ x=0 ⇐⇒ ∀ϕ ∈ E ∗ , ϕ(x) = 0 Comme dim E = dim E ∗ = p = dim K p , il s’agit d’un isomorphisme. Théorème 2.4.2 Soit (ϕ1 , . . . , ϕp ) une base de E ∗ ; alors il existe une unique base (e1 , . . . , ep ) de E dont (ϕ1 , . . . , ϕp ) soit la base duale. 2.4. Dualité : approche restreinte 215 Démonstration 2.4.8 On a en effet ∀i ∈ [1, p], ϕi (ej ) = δij ⇐⇒ v(ej ) = εj (j-ième vecteur de la base canonique). La famille (e1 , . . . , ep ) est donc l’image de la base canonique de K p par l’isomorphisme v−1 . Proposition 2.4.5 La famille (ϕ1 , . . . , ϕp ) est libre si et seulement si v est surjective. Sous ces conditions, Ker v est de codimension p et ∀ϕ ∈ E ∗ , (ϕ ∈ Vect(ϕ1 , . . . , ϕp ) ⇐⇒ ∀x ∈ Ker v, ϕ(x) = 0) Démonstration 2.4.9 Si v est surjective, notons (ε1 , . . . , εp ) la base canonique de K p et soit ei ∈ E 216 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE tel que v(ei ) = εi ; on a donc ∀i, j ∈ [1, p], ϕi (ej ) = δij ce qui implique évidemment que la famille est libre : si p X λj ϕj = 0, on a pour tout i ∈ [1, p] j=1 0 = 0(ei ) = p X j=1 λj ϕj (ei ) = p X λj ϕj (ei ) = λi j=1 Inversement, si la famille est libre, on peut compléter la famille (ϕ1 , . . . , ϕp ) en une base (ϕ1 , . . . , ϕn ) de E ∗ qui est la base duale de la base (e1 , . . . , en ) de E. On a alors ∀i, j ∈ [1, p], ϕi (ej ) = δij , soit ∀i ∈ [1, p], v(ei ) = εi . L’image de v contient une base de K p , c’est donc K p et v est surjective. Dans ces conditions, on peut appliquer le théorème du rang, 2.4. Dualité : approche restreinte 217 et donc dim Ker v = dim E − p. Soit x ∈ Ker v ; alors ∀i ∈ [1, p], ϕi (x) = 0 et donc ∀ϕ ∈ Vect(ϕ1 , . . . , ϕp ), ϕ(x) = 0. Inversement, supposons que ϕ ∈ / Vect(ϕ1 , . . . , ϕp ) ; alors la famille (ϕ1 , . . . , ϕp , ϕ) est libre, on peut la compléter en une base de E ∗ qui est la base duale d’une base (e1 , . . . , en ) de E ; on a alors ep+1 ∈ Ker v et ϕ(ep+1 ) = 1. On a donc bien l’équivalence ∀ϕ ∈ E ∗ , ⇐⇒ (ϕ ∈ Vect(ϕ1, . . . , ϕp ) ∀x ∈ Ker v, ϕ(x) = 0) Remarque 2.4.6 Application : soit H1 , . . . , Hp des hyperplans de E d’équations respectives ϕ1 (x) = 0, . . . , ϕp (x) = 0 ; soit r = rg(ϕ1 , . . . , ϕp ). Quitte à renuméroter les 218 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE Hi , on peut supposer que (ϕ1 , . . . , ϕr ) est une base de Vect(ϕ1 , . . . , ϕp ). On a alors, si v : E → K r est l’application linéaire associée à cette famille, x∈ p \ Hi i=1 ce qui montre que ⇐⇒ ∀i ∈ [1, p], ϕi (x) = 0 ⇐⇒ ⇐⇒ ∀i ∈ [1, r], ϕi (x) = 0 x ∈ Ker v p \ i=1 Hi est un sous-espace vectoriel de dimension dim E − r. Soit alors H un hyperplan de E 2.4. Dualité : approche restreinte 219 d’équation ϕ(x) = 0. On a alors p \ i=1 Hi ⊂ H ⇐⇒ Ker v ⊂ Ker ϕ ⇐⇒ ϕ ∈ Vect(ϕ1 , . . . , ϕr ) = Vect(ϕ1 , . . . , ϕp ) 220 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE 2.4.6 Application : polynômes d’interpolation de Lagrange Théorème 2.4.3 Soit K un corps commutatif, x1 , . . . , xn ∈ K distincts. Soit a1 , . . . , an ∈ K. Alors il existe un unique polynôme P ∈ K[X] tel que deg P ≤ n − 1 et ∀i ∈ [1, n], P (xi ) = ai . Démonstration 2.4.10 Soit ϕi : Kn−1 [X] → K, P 7→ P (xi ) (où Kn−1 [X] = {P ∈ K[X] | deg P ≤ n − 1}). Les ϕi sont des formes linéaires sur l’espace vectoriel Kn−1 [X] de dimension n ; soit v : Kn−1 [X] → K n , P 7→ (ϕ1 (P ), . . . , ϕn (P )) = (P (x1 ), . . . , P (xn )). Alors v est 2.4. Dualité : approche restreinte 221 une application linéaire injective car v(P ) = 0 ⇐⇒ ⇐⇒ ∀i ∈ [1, n], P (xi ) = 0 n Y (X − xi ) | P (X) ⇐⇒ P = 0 i=1 pour des raisons de degré évidentes. On en déduit que v est un isomorphisme d’espaces vectoriels, ce qui démontre le résultat. Remarque 2.4.7 Comme v est surjective, la famille (ϕ1 , . . . , ϕn ) est libre ; comme son cardinal est n, c’est une base du dual Kn−1 [X]∗ . Cherchons la base dont c’est la 222 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE duale, c’est-à-dire des polynômes Pi vérifiant Pi (xj ) = δij ; Y un tel polynôme doit être divisible par (X − xj ). Pour j6=i des raisons de degrés, il doit lui être proportionnel et le fait que Pi (xi ) = 1 nécessite Q j6=i (X − xj ) Pi (X) = Q j6=i (xi − xj ) On a alors ∀P ∈ Kn−1 [X], P = n X i=1 ϕi (P )Pi = n X i=1 Q j6=i (X P (xi ) Q j6=i (xi − xj ) − xj ) 2.5. Dualité : approche générale 2.5 223 Dualité : approche générale Cette section ne fait pas partie du programme des classes preparatoires. Elle reprend les definitions et les resultats de la section precedente en les generalisant. 2.5.1 Notion de dual. Orthogonalité Définition 2.5.1 Soit E un K-espace vectoriel . On appelle forme linéaire sur E toute application linéaire de E dans K. On appelle dual de E le K-espace vectoriel E ∗ = L(E, K). Remarque 2.5.1 On dispose d’une application bilinéaire de E ∗ × E dans K donnée par hf | xi = f (x) appelée la forme bilinéaire canonique. A cette forme bilinéaire est associée une notion d’orthogonalité. On notera donc 224 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE – (i) si A ⊂ E, A⊥ = {f ∈ E ∗ | ∀x ∈ A, f (x) = 0} – (ii) si B ⊂ E ∗ , B o = {x ∈ E | ∀f ∈ B, f (x) = 0} Proposition 2.5.1 Les notations A, A1, A2 désignant des parties de E et B, B1 , B2 désignant des parties de E ∗ , on a – (i) A⊥ et B o sont des sous-espaces vectoriels de E ∗ et E ; A⊥ = Vect(A)⊥ et B o = Vect(B)o ⊥ o o – (ii) A1 ⊂ A2 ⇒ A⊥ ⊃ A et B ⊂ B ⇒ B ⊃ B 1 2 1 2 1 2 ⊥ o o ⊥ – (iii) A ⊂ (A ) et B ⊂ (B ) – (iv) Soit A un sous-espace vectoriel de E, alors A⊥ = {0} ⇐⇒ A = E et A⊥ = E ∗ ⇐⇒ A = {0}. – (v) Soit B un sous-espace vectoriel de E ∗ , alors B o = E ⇐⇒ B = {0}. 2.5. Dualité : approche générale 225 Démonstration 2.5.1 Les propriétés (i),(ii) et (iii) sont évidentes ainsi que les parties ”⇐” de (iv) et (v). Montrons donc que A 6= E ⇒ A⊥ 6= {0}. Soit (ei )i∈I une base de A que l’on complète en (ei )i∈J base de E. Soit i0 ∈ J \I et f l’application qui à x associe sa i0-ième coordonnée dans la base. On a f 6= 0 et f ∈ A⊥ . Montrons maintenant que A 6= {0} ⇒ A⊥ 6= E ∗ . Pour cela soit x ∈ A\{0}. On complète x en une base (ei )i∈I de E avec x = ei0 . Soit f l’application qui à x associe sa i0 -ième coordonnée dans la base. On a f (x) 6= 0, donc f ∈ / A⊥ . Montrons maintenant que B 6= {0} ⇒ B o 6= E. Soit f ∈ B \ {0}. On a f 6= 0, donc ∃x ∈ E, f (x) 6= 0. Dans ce cas x ∈ / B o , ce qui achève la démonstration. 226 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE On prendra garde qu’on peut avoir B o = {0} avec B 6= E ∗ (prendre par exemple E = R[X] et B = Vect(εx , x ∈ Z) où εx (P ) = P (x) ; on a B o = {0} alors que ε1/2 ∈ / B). 2.5. Dualité : approche générale 2.5.2 227 Hyperplans Définition 2.5.2 On appelle hyperplan de E tout sousespace vectoriel H de E vérifiant les conditions équivalentes – (i) dim E/H = 1 – (ii) ∃f ∈ E ∗ \ {0}, H = Ker f – (iii) H admet une droite comme supplémentaire. Démonstration 2.5.2 (i)⇒(ii) : prendre e une base de E/H et écrire π(x) = f (x)e. (ii)⇒ (iii) : on prend a ∈ E tel que f (a) 6= 0. Tout élément x s’écrit de manière unique sous la forme x = (x − 228 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE f (x) f (x) f (x) a) + a avec x − a ∈ Ker f , soit E = Ker f ⊕ f (a) f(a) f(a) Ka. (iii)⇒(i) : tout supplémentaire de H est isomorphe à E/H . Théorème 2.5.1 Soit H un hyperplan de E. Alors H ⊥ est de dimension 1 (droite vectorielle) : deux formes linéaires nulles sur H sont proportionnelles. Démonstration 2.5.3 Si E = H ⊕ Ka et H = Ker f , soit g(a) ⊥ g ∈ H . Alors g et f coı̈ncident sur H et sur Ka, donc f (a) sont égales. 2.5. Dualité : approche générale 2.5.3 229 Bidual Définition 2.5.3 On désigne par E ∗∗ le dual de E ∗ . Remarque 2.5.2 Si E est de dimension finie, E ∗ aussi et dim E ∗ = dim E. On en déduit que E ∗∗ est aussi de dimension finie encore égale à dim E. Théorème 2.5.2 L’application u : E → E ∗∗ , x 7→ ux définie par ux (f ) = f (x) est une application linéaire injective. Si E est un espace vectoriel de dimension finie, c’est un isomorphisme d’espaces vectoriels. 230 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE Démonstration 2.5.4 En effet, cette application est visiblement linéaire et si x ∈ Ker u, on a ∀f ∈ E ∗ , f (x) = ux (f) = 0(f) = 0 et donc x ∈ (E ∗)o = {0} ; elle est donc injective. Si E est un espace vectoriel de dimension finie, on a une application linéaire injective entre deux espaces de même dimension finie, elle est donc bijective. 2.5. Dualité : approche générale 2.5.4 231 Transposée Définition 2.5.4 Soit u ∈ L(E, F ). On note t u : F ∗ → E ∗ définie par t u(g) = g ◦ u (c’est une application linéaire). Remarque 2.5.3 Cela revient à poser, pour x ∈ E et g ∈ F ∗ , ht u(g) | xiE = hg | u(x)iF . Théorème 2.5.3 On a les propriétés suivantes – (i) u 7→ t u est linéaire de L(E, F ) dans L(F ∗ , E ∗ ). – (ii) u ∈ L(E, F ), v ∈ L(F, G) ; alors t (v ◦ u) = t u ◦ t v – (iii) Si u est bijective, t u aussi et (t u)−1 = t (u−1 ) 232 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE – (iv) Ker t u = (Im u)⊥ – (v) Im t u = (Ker u)⊥ Démonstration 2.5.5 (i) et (ii) sont très faciles à partir de la définition. (iii) découle immédiatement de (ii) en écrivant que v ◦ u = IdE et u ◦ v = IdF . Pour (iv), on a g ∈ Ker t u ⇐⇒ ∀x ∈ E, t u(g)(x) = 0 ⇐⇒ ∀x ∈ E, g(u(x)) = 0 ⇐⇒ g ∈ (Im u)⊥ . Pour (v), on remarque d’abord que f ∈ Im t u ⇒ ∃g, f = g ◦ u ⇒ ∀x ∈ Ker u, f(x) = 0 ⇒ f ∈ (Ker u)⊥ , soit Im t u ⊂ (Ker u)⊥ . Inversement, soit f ∈ (Ker u)⊥ . On définit g1 forme linéaire sur Im u par g1 (y) = f (x) si y = u(x) ; on vérifie en effet que f(x) est indépendant du 2.5. Dualité : approche générale 233 choix de x tel que y = u(x) car f est nulle sur Ker u. Soit alors V un supplémentaire de Im u dans F . On définit g : F → K par g(y1 + y2) = g1 (y1 ) si y1 ∈ Im u et y2 ∈ V . On a bien f = g ◦ u = t u(g). Donc (Ker u)⊥ ⊂ Im t u et donc l’égalité. 234 2.5.5 Chapitre 2. Algèbre linéaire élémentaire Dualité en dimension finie Proposition 2.5.2 Soit E un espace vectoriel de dimension finie, E = (e1 , . . . , en ) une base de E. La famille E 0 = (e∗1 , . . . , e∗n ) de E ∗ définie par e∗i (ej ) = δij est une base de E ∗ appelée la base duale de la base E Démonstration 2.5.6 On vérifie en effet immédiatement qu’elle est libre et elle a le bon cardinal. Théorème 2.5.4 Soit E un espace vectoriel de dimension finie. L’application E → E 0 est une bijection de l’ensemble des bases de E sur l’ensemble des bases de E ∗. 2.5. Dualité : approche générale 235 Démonstration 2.5.7 Injectivité : si ((e1 , . . . , en ) et (e01 , . . . , e0n ) sont deux bases qui ont même base duale, on a pour toute f ∈ E ∗ , f (ei ) = f (e0i ) et donc ei = e0i . Surjectivité : soit F = (f1, . . . , fn ) une base de E ∗ et soit F sa base duale (dans E ∗∗ ). Soit u l’isomorphisme de E sur E ∗∗ , et E = u−1 (F 0 ), base de E. On a alors fi (ej ) = uej (fi ) = fj∗ (fi ) = δij , donc F est la base duale de la base E. Corollaire 2.5.1 Soit E un espace vectoriel de dimension finie. – (i) Soit A un sous-espace vectoriel de E. On a dim E = dim A + dim A⊥ et (A⊥ )o = A 236 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE – (ii) Soit B un sous-espace vectoriel de E ∗ . On a dim E = dim B + dim B o et (B o )⊥ = B Démonstration 2.5.8 Soit (e1 , . . . , ep ) une base de A que l’on complète en (e1 , . . . , en ) base de E. On vérifie immédiatement que A⊥ = Vect(e∗p+1 , . . . , e∗n ) d’où le résultat sur la dimension. On montre de même le résultat sur la dimension de B o . Les égalités découlent alors des inclusions et du fait que les espaces ont même dimension. Corollaire 2.5.2 Soit E un espace vectoriel de dimension finie, f1 , . . . , fk ∈ E ∗ , V = {x ∈ E | f1 (x) = . . . = fk (x) = 0}. Alors dim V = dim E − rg(f1 , . . . , fk ). 2.5. Dualité : approche générale 237 Théorème 2.5.5 Soit E et F deux espaces vectoriels de dimensions finies, u ∈ L(E, F ). Alors rg u = rg t u. Démonstration 2.5.9 rg t u = dim Im t u = dim(Ker u)⊥ = dim E − dim Ker u = rg u. 238 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE 2.6 2.6.1 Matrices Généralités Définition 2.6.1 MK (m, n) = {(ai,j ) 1≤i≤m } est un K1≤j≤n espace vectoriel de dimension mn. Il admet pour base la famille (Ek,l ) 1≤k≤m avec 1≤l≤n k,l Ek,l = (δi,j ) 1≤i≤m 1≤j≤n l 0 = k ... 0 .. . 1 .. . 0 ... 0 2.6. Matrices 239 Définition 2.6.2 Soit E et F deux espaces vectoriels de dimensions finies n et m respectivement et u ∈ L(E, F ). Soit E = (e1 , . . . , en ) une base de E et F = (f1, . . . , fm ) une base de F de base duale F ∗ = (f1∗ , . . . , fm∗ ). On définit la matrice de u dans les bases E et F comme étant la matrice Mat(u, E, F) = (ai,j ) 1≤i≤m construite de façon équivalente 1≤j≤n par m X (i) ∀j ∈ [1, n], u(ej ) = ai,j fi i=1 (ii) ∀i ∈ [1, m], ∀j ∈ [1, n], ai,j = fi∗ (u(ej )) = hfi∗ | u(ej )i Proposition 2.6.1 L’application L(E, F ) → MK (m, n), 240 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE u 7→ Mat(u, E , F) est un isomorphisme de K-espaces vectoriels . Produit de matrices A = (ai,j ) ∈ MK (m, n) et B = (bi,j ) ∈ MK (n, p). On définit AB = (ci,j ) ∈ MK (m, p) par ∀(i, j) ∈ [1, m] × [1, p], ci,j = n X ai,k bk,j k=1 Théorème 2.6.1 Soit u ∈ L(E, F ), v ∈ L(F, G) où E, F et G sont trois espaces vectoriels de dimensions finies admettant des bases E , F et G. Alors on a Mat(v ◦ u, E , G) = Mat(v, F , G) Mat(u, E , F) 2.6. Matrices 241 Démonstration 2.6.1 En effet, si les dimensions des espaces sont respectivement p, n et m, et si l’on note A = Mat(u, E, F) et B = Mat(v, F , G), on a v ◦ u(ej ) = v(u(ej ) = v( n X ak,j fk ) k=1 = = = n X k=1 n X ak,j v(fk ) ak,j m X i=1 k=1 Ã m n X X bi,k gi bi,k ak,j i=1 k=1 ! gi 242 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE ce qui montre que la i-ième coordonnée de v ◦ u(ej ) est bien le terme d’indice i, j de la matrice BA. Remarque 2.6.1 Ceci lié à l’isomorphisme avec les applications linéaires permet d’obtenir immédiatement les propriétés essentielles du produit des matrices : associativité et bilinéarité. Définition 2.6.3 Soit x ∈ E et y ∈ F . Si x = n X xi ei , on i=1 x1 . définit X = .. (vecteur colonne des coordonnées de x xn 2.6. Matrices 243 dans la base E). De même, on définit Y vecteur colonne des coordonnées de y dans la base F . On a alors Théorème 2.6.2 Mat(u, E , F) est l’unique matrice A ∈ MK (m, n) vérifiant ∀(x, y) ∈ E × F, u(x) = y ⇐⇒ Y = AX Démonstration 2.6.2 En effet u(x) = y ⇐⇒ n X j=1 xj u(ej ) = m X i=1 yi fi 244 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE ⇐⇒ ⇐⇒ n X j=1 xj m X ai,j fi = i=1 ∀i, yi = n X j=1 m X yi fi i=1 ai,j xj ⇐⇒ Y = AX Inversement, si une matrice A vérifie cette condition, en prenant x = ej , on voit que ai,j est la i-ième coordonnée de u(ej ), et donc A = Mat(u, E , F ). 2.6. Matrices 2.6.2 245 Matrices carrées Lemme 2.6.1 Soit (Ei,j ) la base canonique de MK (n). On a Ei,j Ek,l = δjk Ei,l Démonstration 2.6.3 Calcul élémentaire Proposition 2.6.2 MK (n) (= MK (n, n)) est une Kalgèbre de dimension n2 dont le centre est constitué des matrices scalaires. Le groupe de ses éléments inversibles est noté GLK (n) (groupe linéaire d’indice n). 246 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE Démonstration 2.6.4 Tout est élémentaire, sauf la recherche du centre. Soit A ∈ Mk (n) une matrice qui commute X à toutes les autres matrices carrées. On a A = ai,j Ei,j . On écrit pour k 6= l, Ek,l A = AEk,l soit i,j encore X j al,j Ek,j = X ai,k Ei,l . En prenant la coordonnée i suivant Ek,k , on a al,k = 0. En prenant la coordonnée suivant Ek,l on a al,l = ak,k soit A = a1,1 In . Remarque 2.6.2 Bien entendu si E est un K-espace vectoriel de dimension n admettant une base E , les résultats précédents impliquent que l’application L(E) → MK (n), u 7→ Mat(u, E ) est un isomorphisme de K-algèbres. 2.6. Matrices 247 Définition 2.6.4 Si A = (ai,j ) ∈ MK (n), on définit la n X trace de A comme tr A = ai,i . i=1 Théorème 2.6.3 Soit A ∈ MK (m, n) et B ∈ MK (n, m). Alors tr(AB) = tr(BA). En particulier, si A ∈ MK (n) et P ∈ GLK (n), alors tr(P −1 AP ) = tr A. Démonstration 2.6.5 On a en effet tr(AB) = X ai,j bj,i i,j qui est une expression visiblement symétrique en a et b. 248 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE 2.6.3 Transposée Définition 2.6.5 Si A = (ai,j ) ∈ MK (m, n) on pose t A = (bi,j ) ∈ MK (n, m) définie par ∀(i, j) ∈ [1, n]×[1, m], bi,j = aj,i . Proposition 2.6.3 L’application M 7→ t M est linéaire bijective de MK (m, n) sur MK (n, m) et on a t (t M ) = M . Si M ∈ MK (m, n), N ∈ MK (n, p), alors t (M N ) = t N t M . Si M ∈ MK (n) est inversible, t M aussi et (t M )−1 = t (M −1 ). Démonstration 2.6.6 Calcul élémentaire pour montrer que t (αM + βN ) = αt M + β t N et que t (M N ) = t N t M . 2.6. Matrices 249 Si M est inversible, on a M M −1 = M −1 M = In et prenant la transposée, t (M −1 )t M = t M t (M −1) = t In = In . On en déduit que t M est inversible et que (t M )−1 = t (M −1 ). Théorème 2.6.4 Soit E et F deux K-espaces vectoriels de dimensions finies admettant des bases E et F . Alors Mat(t u, F ∗ , E ∗ ) = t Mat(u, E, F ) Démonstration X 2.6.7 Soit A et B les deux matrices. On a t u(fj∗ ) = bi,j e∗i soit bi,j = t u(fj∗ )(ei ) = fj∗ ◦ u(ei ) = fj∗ (u(ei )) i = aj,i . 250 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE Définition 2.6.6 Soit M ∈ MK (n). On dit que M est symétrique si t M = M et antisymétrique si t M = −M . Proposition 2.6.4 L’ensemble SK (n) (resp. AK (n)) des matrices symétriques (resp. antisymétriques) est un sousn(n + 1) espace vectoriel de MK (n). On a dim SK (n) = . Si 2 car K 6= 2, on a MK (n) = SK (n) ⊕ AK (n) et dim AK (n) = n(n − 1) . 2 Démonstration 2.6.8 Une base de SK (n) est clairement constituée des Ei,i 1 ≤ i ≤ n et des Ei,j +Ej,i , 1 ≤ i < j ≤ n, 2.6. Matrices 251 n(n + 1) donc dim SK (n) = . Si car K 6= 2, on peut écrire 2 1 1 A = (A + t A) + (A − t A), ce qui montre que MK (n) = 2 2 SK (n) + AK (n) et on a clairement SK (n) ∩ AK (n) = {0}. Remarque 2.6.3 Par contre, si car K = 2, on a 1 = −1 et donc SK (n) = AK (n). 252 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE 2.6.4 Rang d’une matrice Définition 2.6.7 Soit A ∈ MK (m, n). On appelle rang de A le rang dans K m de la famille (c1, . . . , cn ) de ses vecteurs colonnes. Théorème 2.6.5 Si u ∈ L(E, F ), E une base de E, F une base de F , A = Mat(u, E, F ). Alors rg A = rg u. Démonstration 2.6.9 On a rg u = rg(u(e1 ), . . . , u(en )). Mais le rang de la famille des u(ej ) est aussi le rang de son image par l’isomorphisme de F dans K m qui à un vecteur 2.6. Matrices 253 associe la famille de ses coordonnées dans la base F , c’est-àdire le rang de la famille des vecteurs colonnes de la matrice A. Corollaire 2.6.1 rg(AB) ≤ min(rg A, rg B). Théorème 2.6.6 Soit A ∈ MK (n). On a équivalence de – (i) A est inversible – (ii) rg A = n – (iii) ∃B ∈ MK (n), AB = In – (iv) ∃B ∈ MK (n), BA = In 254 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE Démonstration 2.6.10 Se déduit immédiatement du théorème analogue sur les endomorphismes d’un espace vectoriel de dimension finie. 2.6. Matrices 2.6.5 255 La méthode du pivot La recherche pratique du rang d’une matrice peut se faire par la méthode du pivot ; dans les algorithmes qui suivent, la flèche vers la gauche décrira un remplacement : x ← y signifiera remplacer x par y. Il s’agit là de l’analogue d’une affectation dans un langage de programmation. Définition 2.6.8 On définit les opérations élémentaires sur les vecteurs colonnes c1 , . . . , cn d’une matrice A ∈ MK (m, n) : – (i) ajouter à une colonne cj une combinaison linéaire 256 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE des autres vecteurs colonnes X ci ← ci + λj cj j6=i ou encore A← A 1 .. . λ1 .. . 1 .. . λn .. . 1 – (ii) multiplier la colonne ci par un scalaire non nul ci ← λci 2.6. Matrices 257 ou encore A← 1 A .. . λ .. . 1 – (iii) effectuer une permutation σ sur les vecteurs colonnes (c1 , . . . , cn ) ← (cσ(1) , . . . , cσ(n)) ou encore A← APσ 258 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE σ(j) où Pσ = (δi ). Proposition 2.6.5 Les opérations changent pas le rang d’une matrice. élémentaires ne Démonstration 2.6.11 En effet, il est clair que les opérations élémentaires ne changent pas le sous-espace de K n , Vect(c1 , . . . , cn ) ; on peut remarquer aussi que les opérations élémentaires s’effectuent par multiplications à droite par des matrices inversibles, donc ne changent pas le rang. 2.6. Matrices 259 Théorème 2.6.7 Soit M ∈ MK (n, p). Alors il existe une matrice M 0 qui se déduit de M par une suite d’opérations 260 Chapitre 2. Algèbre linéaire élémentaire élémentaires, de la forme 0 0 . .. .. . .. . 0 1 0 aσ(1)+1,1 .. .. . . 0 . M = .. 1 . .. aσ(2)+1,2 .. .. . . .. .. . . ... ... 0 .. . .. . 0 .. . 0 .. . .. . 0 .. . .. . .. . .. . 1 aσ(r)+1,r .. . .. . 0 ... ... 0 .. . .. . 0 .. . .. . .. . 0 2.6. Matrices 261 où σ est une application strictement croissante de [1, r] dans [1, n]. Dans toute telle écriture, on a rg M = r. Démonstration 2.6.12 Par récurrence sur le nombre de colonnes de M . C’est évident s’il existe une seule colonne ou si M = 0. Sinon, soit σ(1) l’indice de la première ligne non nulle et j tel que aσ(1),j 6= 0. On effectue une permutation des colonnes pour amener la colonne cj en première colonne, 1 puis on effectue les opérations c1 ← puis pour j aσ(1),1 c1 allant de 2 à n, cj ← cj − aσ(1),j c1 . On aboutit alors à une 262 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE matrice 0 .. . 0 1 aσ(1)+1,1 .. . 0 .. . .. . 0 .. . ... ... 0 .. . .. . 0 .. . 0 .. . .. . 0 .. . .. . .. . ... ... 0 .. . .. . 0 .. . .. . Il suffit alors d’utiliser l’hypothèse de récurrence sur les n−1 dernières colonnes de la matrice. Il est clair que rg M 0 = r, mais on a rg M = rg M 0 , d’où rg M = r. 2.6. Matrices 263 Remarque 2.6.4 On peut ensuite utiliser les 1 qui sont dans les r premières colonnes pour éliminer au fur et à mesure en partant du bas tous les aσ(i),j . Si M est inversible, nécessairement σ = Id et alors la matrice obtenue est In . Mais on a M 0 = M P1 . . . Pk où les Pi sont les matrices des différentes opérations élémentaires effectuées. On en déduit que M −1 = P1 . . . Pk . On peut calculer ce produit en partant de B ← In et en effectuant sur la matrice B les mêmes opérations élémentaires que sur la matrice A. On a donc à la fin B ← P1 . . . Pk , soit B ← M −1 . 264 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE 2.6.6 Changement de bases Proposition 2.6.6 Soit E = (e1 , . . . , en ) une base de E et n X A = (ai,j ) ∈ MK (n). Posons xj = ai,j ei . Alors A est i=1 inversible si et seulement si (x1 , . . . , xn ) est une base de E. Démonstration 2.6.13 Comme précédemment, le rang de la famille des xj est aussi le rang de son image par l’isomorphisme de E sur K n qui à un vecteur associe la famille de ses coordonnées dans la base E , c’est-à-dire ici de la famille des vecteurs colonnes de A. 2.6. Matrices 265 Définition 2.6.9 Soit E et E 0 deux bases de E. On définit 0 PEE comme étant la matrice inversible (ai,j ) ∈ Mk (n) définie n X par e0j = ai,j ei . i=1 0 Remarque 2.6.5 On a donc PEE = Mat(IdE , E 0 , E ) = Mat(u, E, E) où u est défini par u(ei ) = e0i . De la première égalité on déduit immédiatement : PEE0 E 0 −1 (PE ) E 00 PE E 0 E 00 PE PE 0 Théorème 2.6.8 – (i) = et = – (ii) si X et X 0 sont les vecteurs colonnes des coor0 données de x ∈ E dans les bases E et E 0 et P = PEE , on a X = P X 0 . 266 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE Théorème 2.6.9 Soit u ∈ L(E, F ), E et E 0 deux bases de 0 0 E, F et F 0 deux bases de F . On pose P = PEE , Q = PFF , M = Mat(u, E , F ), M 0 = Mat(u, E 0 , F 0 ). Alors on a M 0 = Q−1 M P . Démonstration 2.6.14 y = u(x) ⇐⇒ Y = M X ⇐⇒ QY 0 = M P X 0 ⇐⇒ Y 0 = Q−1 M P X 0 . L’unicité de la matrice d’une application linéaire permet de conclure que M 0 = Q−1M P . Définition 2.6.10 On dit que M, M 0 ∈ MK (m, n) sont équivalentes s’il existe Q ∈ GLK (m) et P ∈ GLK (n) telles que M 0 = Q−1 M P . 2.6. Matrices 267 Remarque 2.6.6 Ceci revient à dire que M et M 0 sont les matrices d’une même application linéaire dans des bases ”différentes” ; sous cette forme, il est clair qu’il s’agit d’une relation d’équivalence. Lemme µ 2.6.2 ¶ Si M est de rang r, elle est équivalente à Ir 0 Jr = 0 0 Démonstration 2.6.15 Soit M = Mat(u, E , F). Soit V un supplémentaire de Ker u dans E, (e01 , . . . , e0r ) une base de V , (e0r+1 , . . . , e0n ) une base de Ker u. Comme u|V est un isomorphisme de V sur Im u, (f10 , . . . , fr0 ) = (u(e01 ), . . . , u(e0r )) 268 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE 0 est une base de Im u que l’on peut compléter en (f10 , . . . , fm ) base de F . On a alors Mat(u, E 0 , F 0 ) = Jr , d’où le résultat. Théorème 2.6.10 Deux matrices de MK (m, n) sont équivalentes si et seulement si elles ont même rang. Démonstration 2.6.16 La condition est bien évidemment nécessaire, et le lemme précédent montre qu’elle est suffisante. Théorème 2.6.11 rg A = rg t A. Autrement dit, le rang d’une matrice est aussi égal au rang de la famille de ses vecteurs lignes. 2.6. Matrices 269 Démonstration 2.6.17 En effet si A est équivalente à Jr , t A est équivalente à t Jr qui est aussi de rang r. Remarque 2.6.7 Dans le cas d’un endomorphisme, on a en général E = F et E 0 = F 0 d’où le théorème Théorème 2.6.12 Soit u ∈ L(E), E et E 0 deux bases de E0 E. On pose P = PE , M = Mat(u, E ), M 0 = Mat(u, E 0 ). Alors on a M 0 = P −1 M P . Définition 2.6.11 On dit que M, M 0 ∈ MK (n) sont semblables s’il existe P ∈ GLK (n) telles que M 0 = P −1 M P . 270 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE Remarque 2.6.8 Cela revient à dire que M et M 0 sont les matrices d’un même endomorphisme dans des bases ”différentes” ; sous cette forme, il est clair qu’il s’agit d’une relation d’équivalence. Remarque 2.6.9 On remarque que deux matrices semblables ont même trace ce qui permet de définir Définition 2.6.12 Soit u ∈ L(E). On pose tr u = tr Mat(u, E ), indépendant du choix de la base E de E. 2.6. Matrices 2.6.7 271 Produit des matrices par blocs Soit M ∈ MK (m, n), M 0 ∈ MK (n, p), 1 ≤ q ≤ m, 1 ≤ r ≤ n, 1 ≤ s ≤ p. On écrit M= q m−q µ r n−r A C B D ¶ , 0 M = r n−r µ s A0 C0 p−s ¶ 0 B D0 avec A ∈ MK (q, r), B ∈ MK (q, n − r), C ∈ MK (m − q, r), D ∈ MK (m − q, n − r), A0 ∈ MK (r, s), B 0 ∈ MK (r, p − s), C 0 ∈ MK (n − r, s), D 0 ∈ MK (n − r, p − s) Alors µ ¶ 0 0 0 0 AA + BC AB + BD MM0 = CA0 + DC 0 CB 0 + DD0 272 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE Démonstration 2.6.18 Par le calcul (attention aux décalages d’indices). 2.7. Déterminants 2.7 2.7.1 273 Déterminants Formes p-linéaires Définition 2.7.1 On appelle forme p-linéaire sur le Kespace vectoriel E toute application ϕ : E p → K vérifiant ∀(a1 , . . . , ap ) ∈ K p , ∀i ∈ [1, p], xi 7→ ϕ(a1 , . . . , ai−1 , xi , ai+1 , . . . , ap ) est linéaire de E dans K. Définition 2.7.2 Soit f une forme p-linéaire sur E. On dit qu’elle est – (i) alternée si ∀(x1 . . . , xp ) ∈ E p , ¡ ¢ 2 ∃(i, j) ∈ [1, p] , i 6= j et xi = xj ⇒ f (x1 , . . . , xp ) = 0 274 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE – (ii) antisymétrique si ∀(x1 . . . , xp ) ∈ E p , ∀σ ∈ Sp , f(xσ(1) , . . . , xσ(p) ) = ε(σ)f(x1 , . . . , xp ) Proposition 2.7.1 Toute forme alternée est antisymétrique. Si car K 6= 2, toute forme antisymétrique est alternée. Démonstration 2.7.1 On remarque que si f est alternée, on a 0 = f (. . . , xi + xj , . . . , xi + xj , . . .) = f (. . . , xi , . . . , xj , . . .) + f (. . . , xj , . . . , xi , . . .) 2.7. Déterminants 275 On a donc f (xσ(1) , . . . , xσ(p) ) = ε(σ)f (x1 , . . . , xp ) lorsque σ est la transposition τi,j . Comme les transpositions engendrent Sp , f est antisymétrique. Inversement si f est antisymétrique et si xi = xj , soit σ la transposition τi,j . On a alors f (. . . , xi , . . . xj , . . .) = = −f(. . . , xj , . . . xi , . . .) −f(. . . , xi , . . . xj , . . .) soit f (. . . , xi , . . . xj , . . .) = 0 si car K 6= 2. Définition 2.7.3 On note Ap (E) l’espace vectoriel des formes p-linéaires alternées sur E. 276 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE Théorème 2.7.1 Toute forme alternée est nulle sur une famille liée. Démonstration 2.7.2 Il suffit d’écrire un terme comme combinaison linéaire des autres et de développer. Dans tous les termes obtenus figurent deux Xtermes identiques et donc chaque terme est nul : si xk = αj xj , on a j6=k ϕ(x1 , . . . , xk , . . . , xp ) = X j6=k j k z}|{ z}|{ αj ϕ(x1 , . . . , xj , . . . , xj , . . . , xp ) = 0 où l’on a indiqué au dessus de xj l’indice de sa position. 2.7. Déterminants 2.7.2 Déterminant vecteurs 277 d’une famille de Définition 2.7.4 Soit E un K-espace vectoriel de dimension n, E = (e1, . . . , en ) une base de E de base duale E ∗ = (e∗1 , . . . , e∗n ), et (x1 , . . . , xn ) une famille de vecteurs de E. n X Y On pose detE (x1 , . . . , xn ) = ε(σ) e∗j (xσ(j) ). σ∈Sn j=1 Théorème 2.7.2 detE ∈ An (E). L’espace vectoriel An (E) est de dimension 1 : pour toute f ∈ An (E), on a f = λf detE avec λf = f (e1 , . . . , en ). L’application detE est l’unique forme n-linéaire alternée vérifiant f (e1 , . . . , en ) = 1. 278 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE Démonstration 2.7.3 detE est clairement n-linéaire. Supposons que xi = xj et écrivons Sn = A ∪ τi,j A où A est l’ensemble des permutations de signature +1. On a donc, en tenant compte de ε(τi,j σ) = −ε(σ) detE (x1 , . . . , xn ) = − X ε(σ) σ∈A X σ∈A ε(σ) n Y k=1 n Y e∗k (xσ(k) ) e∗k (xτi,j σ(k) ) k=1 Mais on a pour tout k ∈ [1, n], xτi,j σ(k) = xσ(k) : c’est évident si σ(k) ∈ / {i, j} car alors τi,j σ(k) = σ(k), et si par exemple σ(k) = i, on a xτi,j σ(k) = xj = xi = xσ(k) . On en déduit que dans la différence précédente, les deux sommes 2.7. Déterminants 279 sont égales, et donc detE (x1 , . . . , xn ) = 0. Ceci montre le caractère alterné de detE . n X Soit maintenant f ∈ An (E). On pose xj = ξi,j ei . On i=1 a alors f (x1 , . . . , xn ) = X ξi1 ,1 . . . ξin,n f (ei1 , . . . , ein ) i1 ,...,in ∈N En fait dans cette somme on peut se limiter aux i1 , . . . , in distincts, car sinon f(ei1 , . . . , ein ) = 0. Posant i1 = σ(1), . . . , in = σ(n) où σ est une permutation de [1, n], on obtient (compte tenu de f (ei1 , . . . , ein ) = 280 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE f(eσ(1) , . . . , eσ(n)) = ε(σ)f (e1 , . . . , en )) X f (x1 , . . . , xn ) = f (e1 , . . . , en ) ε(σ)ξσ(1),1 . . . ξσ(n),n σ∈Sn = f (e1 , . . . , en )f0 (x1 , . . . , xn ) avec une définition évidente de f0 . Ceci montre clairement que dim An (E) ≤ 1. Comme d’autre part, detE est non nul (car on vérifie immédiatement que detE (e1, . . . , en ) = 1 : il y a un seul terme non nul dans la somme), c’est qu’il est bien de dimension 1. Le reste en résulte immédiatement (ainsi que le fait que f0 = detE ). Théorème 2.7.3 Soit E = (e1 , . . . , en ) une base de E et 2.7. Déterminants 281 (x1 , . . . , xn ) une famille de E. Alors c’est une base de E si et seulement si detE (x1 , . . . , xn ) 6= 0. Démonstration 2.7.4 En effet, si c’est une base X , on a detE = detE (x1 , . . . , xn ) detX et comme detE 6= 0, on a detE (x1 , . . . , xn ) 6= 0 ; si ce n’est pas une base, c’est que la famille est liée (son cardinal est n) et donc detE (x1 , . . . , xn ) = 0. 282 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE 2.7.3 Déterminant d’un endomorphisme Théorème 2.7.4 Soit u ∈ L(E). Il existe un unique scalaire noté det u vérifiant ∀f ∈ An (E), ∀(x1 , . . . , xn ) ∈ En ; f (u(x1 ), . . . , u(xn )) = det u f (x1 , . . . , xn ) Démonstration 2.7.5 Soit ϕu : An (E) → An (E) définie par ϕu (f )(x1 , . . . , xn ) = f (u(x1 ), . . . , u(xn )). C’est un endomorphisme d’un espace vectoriel de dimension 1, donc une homothétie ; on note det u son rapport. Proposition 2.7.2 – (i) Soit E = (e1 , . . . , en ) une base 2.7. Déterminants 283 de E, alors det u = detE (u(e1 ), . . . , u(en )) – (ii) det Id = 1, det λu = λn det u, det t u = det u – (iii) det v ◦ u = det v det u – (iv) u est un automorphisme de E si et seulement si det u 6= 0. Démonstration 2.7.6 Tout est presque immédiat ; (iii) découle de ϕv◦u = ϕu ◦ ϕv et du fait que le rapport du produit de deux homothéties est le produit des rapports. 284 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE 2.7.4 Déterminant d’une matrice Définition 2.7.5 Soit A ∈ Mk (n). On appelle déterminant de A le déterminant de la famille de ses vecteurs colonnes dans la base canonique. On a donc det A = n X Y ε(σ) aj,σ(j) . σ∈Sn j=1 Proposition 2.7.3 – (i) Soit E = (e1 , . . . , en ) une base de E, u ∈ L(E), alors det u = det Mat(u, E ) – (ii) det In = 1, det λA = λn det A, det t A = det A – (iii) det AB = det A det B – (iv) A est inversible si et seulement si det A 6= 0. 2.7. Déterminants 285 Démonstration 2.7.7 On a det u = detE (u(e1 ), . . . , u(en )) ce qui n’est autre que det Mat(u, E) puisque les vecteurs colonnes de cette matrice sont constitués des coordonnées des u(ej ) dans la base E , ce qui montre (i). La formule det t A = det A résulte de la remarque que nous avons faite lors de la démonstration du fait que An (E) est de dimension 1 : f0 = detE , soit encore X X ε(σ)ξσ(1),1 . . . ξσ(n),n = ε(σ)ξ1,σ(1) . . . ξn,σ(n) σ∈Sn σ∈Sn Tout le reste s’obtient en traduisant les résultats similaires sur les endomorphismes. Proposition 2.7.4 Le déterminant d’une matrice dépend 286 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE linéairement de chacun de ses vecteurs colonnes (resp lignes), le déterminant d’une matrice ne change pas si on ajoute à une colonne (resp. ligne) une combinaison linéaire des autres colonnes (resp. lignes). Si on effectue une permutation σ sur les colonnes (resp. lignes) d’une matrice, son déterminant est multiplié par ε(σ). Application Calcul par la méthode du pivot. Démonstration 2.7.8 Evident de par la définition du déterminant d’une matrice comme déterminant de la famille de ses vecteurs colonnes (ou de ses vecteurs lignes par transposition) 2.7. Déterminants 287 Théorème 2.7.5 (calcul des déterminants par blocs). det p n−p µ p n−p A 0 B C ¶ = det A. det C. Démonstration 2.7.9 Notons M = (ai,j )1≤i,j≤n = µ ¶ A B , si bien que l’on a ai,j = 0 si i ≥ p + 1 et j ≤ p. 0 C n X Y On a alors det M = ε(σ) ak,σ(k) . Soit σ ∈ Sn ; s’il σ∈Sn k=1 existe k0 ∈ [p + 1, n] tel que σ(k0 ) ∈ [1, p], on a alors 288 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE ak0 ,σ(k0 ) = 0 et donc n Y k=1 ak,σ(k) = 0. Autrement dit, les seules permutations qui peuvent donner une contribution non nulle au déterminant sont les permutations σ ∈ Sn telles que σ([p + 1, n]) ⊂ [p + 1, n], c’est-à-dire vérifiant σ([p + 1, n]) = [p + 1, n] et donc aussi σ([1, p]) = [1, p]. Une telle permutation σ est entièrement définie par ses restrictions σ1 à [1, p] et σ2 à [p + 1, n], l’application σ 7→ (σ1 , σ2 ) étant bijective de l’ensemble de ces permutations sur Sp × Sn−p . D’autre part, on voit immédiatement que toute décomposition de σ1 et σ2 en produit de transpositions, fournit une décomposition de σ en produit de transpositions, ce qui montre que ε(σ) = ε(σ1 )ε(σ2 ). On obtient 2.7. Déterminants 289 donc : det M = X ε(σ1 )ε(σ2 ) = = σ1 ∈Sp ε(σ1 ) ak,σ1 (k) k=1 σ1 ∈Sp σ2 ∈Sn−p X p Y p Y k=1 det A. det C ak,σ1 (k) n Y ak,σ2 (k) k=p+1 X σ2 ∈Sn−p ε(σ2 ) n Y ak,σ2 (k) k=p+1 Corollaire 2.7.1 Le déterminant d’une matrice triangulaire par blocs est égal au produit des déterminants des blocs diagonaux. Le déterminant d’une matrice triangulaire est égal au produit de ses éléments diagonaux. 290 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE Démonstration 2.7.10 Récurrence évidente. Définition 2.7.6 Soit A = (ai,j ) ∈ MK (n). On notera Ak,l = (−1)k+l det(ai,j )i6=k,j6=l (cofacteur d’indice (k, l)). La matrice (Ai,j ) ∈ MK (n) est appelée la comatrice de la matrice A. Théorème 2.7.6 (développement d’un déterminant). On a n X ∀i ∈ [1, n], det A = ai,k Ai,k k=1 2.7. Déterminants 291 (développement suivant la i-ième ligne) ∀j ∈ [1, n], det A = n X ak,j Ak,j k=1 (développement suivant la j-ième colonne) Démonstration 2.7.11 Par exemple sur les colonnes ; soit (ε1 , . . . , εn ) la base canonique de K n , (c1 , . . . cn ) les n X vecteurs colonnes de la matrice A. On a cj = ak,j εk , k=1 d’où det A = det(c1 , . . . , cn ) 292 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE = = n X k=1 n X ak,j det(c1 , . . . , cj−1 , εk , cj+1 , . . . , cn ) ak,j ∆k,j k=1 Par combinaisons linéaires de colonnes (pour éliminer les termes de la k-ième ligne) puis par échange de lignes et de colonnes, on obtient ¯ ¯ 0...0 ¯ ¯1 ¯0 ¯ ¯ ¯ ∆k,l = (−1)k+l ¯ .. (a ) ¯ = (−1)k+l Ak,l i,j i6=k,j6=l ¯ ¯ . ¯ ¯ 0 2.7. Déterminants 293 Corollaire 2.7.2 At com A = t com A A = (det A)In . Si A 1 t −1 est inversible, A = com A. det A Démonstration 2.7.12 En effet (At com A)i,j = n X ai,k Aj,k . Mais ceci n’est autre que le développement k=1 suivant la j-ième ligne du déterminant de la matrice B obtenue à partir de A en remplaçant la j-ième ligne par la i-ième. Si i = j, c’est donc det A. Si i 6= j, la matrice B a deux lignes identiques, donc son déterminant est nul. 294 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE 2.7.5 Application des déterminants à la recherche du rang Lemme 2.7.1 Soit A = (ai,j ) ∈ MK (m, n) et soit B = (ai,j )i∈I,j∈J une sous-matrice de A (avec I ⊂ [1, m] et J ⊂ [1, n]. Alors rg B ≤ rg A. Démonstration 2.7.13 Soit C = (ai,j )i∈[1,m],j∈J et soit c1 , . . . , cn les vecteurs colonnes de A. Alors on a rg C = rg(cj , j ∈ J ) ≤ rg(c1, . . . , cn ) = rg A. Mais soit d’autre 0 part l10 , . . . , lm les vecteurs lignes de la matrice C. On a 0 rg B = rg(li0 , i ∈ I) ≤ rg(l10 , . . . , lm ) = rg C, d’où rg B ≤ rg A. 2.7. Déterminants 295 Soit alors r le rang de A. D’après le lemme précédent, toute sous-matrice inversible B de A a une taille (un ordre) plus petit que r. On a alors le théorème suivant Théorème 2.7.7 Soit A = (ai,j ) ∈ MK (m, n) de rang r et soit B = (ai,j )i∈I,j∈J une sous-matrice de A carrée inversible avec |I| = |J | < r. Alors il existe i0 ∈ [1, m]\ I, j0 ∈ [1, n] \ J tels que la matrice B 0 = (ai,j )i∈I∪{i0 },j∈J ∪{j0 } (matrice bordante de B dans A) soit encore inversible. Démonstration 2.7.14 Soit C = (ai,j )i∈[1,m],j∈J et soit c1 , . . . , cn les vecteurs colonnes de A. On a rg C ≤ |J | (car C a |J | vecteurs colonnes) et rg C ≥ rg B = |J | (car B est une sous-matrice de C). Donc rg C = |J | < r. Ceci 296 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE montre que la famille (cj )j∈J est libre. D’autre part dans V = Vect(c1 , . . . , cn ), la famille (c1 , . . . , cn ) est génératrice. Par le théorème de la base incomplète, il existe J 0 tel que J ⊂ J 0 ⊂ [1, n] avec (cj )j∈J 0 base de V . Mais |J 0 | = dim V = r > |J | donc on peut prendre un j0 ∈ J 0 \ J et la famille (cj )j∈J∪{j0 } est encore libre. Soit D = (ai,j )i∈[1,m],j∈J∪{j0 } . 0 Le rang de D est donc |I| + 1. Soit l10 , . . . , lm les vecteurs colonnes de la matrice D. La matrice (ai,j )i∈I,j∈J∪{j0 } est de rang |I| (elle a |I| lignes et contient la matrice B de rang |I|), donc la famille (li0 )i∈I est de rang |I| alors que la famille (li0 )i∈[1,m] est de rang |I| + 1. Le même argument à base de théorème de la base incomplète montre que l’on peut trouver i0 ∈ [1, m] \ I tel que la famille (li0 )i∈I∪{i0 } soit encore libre. La matrice B 0 = (ai,j )i∈I∪{i0 },j∈J∪{j0 } est donc 2.7. Déterminants 297 inversible. Remarque 2.7.1 Le théorème précédent montre donc que toute sous-matrice inversible de taille strictement inférieure à r peut être complétée en une autre sousmatrice inversible. On en déduit Théorème 2.7.8 Soit A = (ai,j ) ∈ MK (m, n) de rang r. Alors A contient des sous-matrices carrées inversibles de rang r (sous-matrices principales). Une sous-matrice carrée inversible est une sous-matrice principale si et seulement si toutes ses matrices bordantes sont non inversibles. 298 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE Remarque 2.7.2 Ceci permet de rechercher théoriquement le rang d’une matrice à l’aide de déterminants, en augmentant au fur et à mesure la taille des sous-matrices inversibles. 2.7. Déterminants 2.7.6 299 Formes p-linéaires alternées Proposition 2.7.5 Soit E un K-espace vectoriel, f1 , . . . , fp ∈ E ∗ . Alors f1 ∧ . . . ∧ fp : E p → K définie par (x1 , . . . , xp ) 7→ det(fi (xj ))1≤i≤p,1≤j≤p est une forme plinéaire alternée sur E. Ceci va nous permettre d’exhiber une base de Ap (E) en utilisant les deux lemmes suivants. Pour cela soit E un K-espace vectoriel de dimension n et E = (e1 , . . . , en ) une base de E de base duale E ∗ = (e∗1 , . . . , e∗n ). Lemme 2.7.2 Soit f, g ∈ Ap (E) telles que pour toute famille (i1 , . . . , ip ) vérifiant 1 ≤ i1 < i2 < . . . < ip ≤ n, on ait f(ei1 , . . . , eip ) = g(ei1 , . . . , eip ). Alors f = g. 300 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE Démonstration 2.7.15 La relation f (ei1 , . . . , eip ) = g(ei1 , . . . , eip ) reste encore vraie si i1, . . . , ip sont distincts mais non ordonnés (il suffit de les réordonner par une permutation σ, ce qui ne fait que multiplier les deux côtés par ε(σ)). Elle est triviale si i1 , . . . , ip ne sont pas distincts car alors les deux membres valent 0. Mais alors, on a en n X posant xj = ξi,j ei i=1 f(x1 , . . . , xp ) = X ξi1 ,1 . . . ξip ,pf (ei1 , . . . , eip ) i1 ,...,ip ∈N et la même chose pour g. Donc f = g. 2.7. Déterminants 301 Lemme 2.7.3 Soit 1 ≤ i1 < i2 < . . . < ip ≤ n et 1 ≤ j1 < j2 < . . . < jp ≤ n. Alors j ,...,j e∗i1 ∧ . . . ∧ e∗ip (ej1 , . . . , ejp ) = δi11,...,ipp (symbole de Kronecker) Démonstration 2.7.16 Il est clair que e∗i1 ∧ . . . ∧ e∗i1 (ei1 , . . . , eip ) = 1 (la matrice ”fi (xj )” est l’identité). Supposons donc que i1 = j1 , . . . , ik−1 = jk−1 , ik 6= jk . Si ik < jk , on a pour tout l ∈ [1, p], ik 6= jl soit e∗jl (eik ) = 0. La matrice ”fi (xj )” a donc sa k-ième ligne nulle et son déterminant est donc nul. Si jk < ik , de manière similaire, 302 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE la k-ième colonne de la matrice est nulle. Dans les deux cas, on trouve donc 0 comme résultat. Théorème 2.7.9 La famille des (e∗i1 ∧. . .∧e∗ip )1≤i1 <i2 <...<ip ≤n est une base de Ap (E) (qui est donc de dimension Cnp ). Démonstration 2.7.17 Montrons que la famille est génératrice. Soit f ∈ Ap (E) et X g = f (ej1 , . . . , ejp )e∗j1 ∧ . . . ∧ e∗jp . Grâce 1≤j1 <j2 <...<jp ≤n au lemme 2, si 1 ≤ i1 < i2 < . . . < ip ≤ n, on a g(ei1 , . . . , eip ) = f (ei1 , . . . , eip ). D’après le lemme 1, on a f = g. Il reste à montrer que la famille est libre. Supposons 2.7. Déterminants que X 1≤j1 <j2 <...<jp ≤n 303 λj1 ,...,jp e∗j1 ∧ . . . ∧ e∗jp = 0. Grâce au lemme 2, si 1 ≤ i1 < i2 < . . . < ip ≤ n on a 0 = = 0(ei1 , . . . , eip ) X 1≤j1 <j2 <...<jp ≤n λj1 ,...,jp e∗j1 ∧ . . . ∧ e∗jp (ei1 , . . . , eip ) = λi1 ,...,ip ce qui montre que la famille est libre. 304 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE 2.8 Systèmes linéaires 2.8.1 Position du problème Soit A = (ai,j )1≤i≤m,1≤j≤n ∈ MK (m, n) et b1 , . . . , bm ∈ K. On considère le système d’équations aux inconnues x1 , . . . , xn ∈ K a1,1 x1 + . . . + a1,n xn = b1 (L) ... am,1 x1 + . . . + am,n xn = bm On a diverses interprétations possibles d’un tel système (en notant Cann la base canonique de K n ) : 2.8. Systèmes linéaires – – – – 305 x1 Interprétation matricielle : AX = B si X = . . . xn b1 et B = . . . . bm Interprétation linéaire : u(x) = b si u : K n → K m est telle que Mat(u, Cann , Canm ) et si x et b admettent (x1 , . . . , xn ) et (b1 , . . . , bm ) comme coordonnées dans les bases canoniques Cann et Canm . Interprétation vectorielle : b = x1 c1 + . . . + xn cn , si c1 , . . . , cn ∈ K m sont les vecteurs colonnes de la matrice A Interprétation duale : f1(x) = b1 , . . . , fm (x) = bm si 306 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE fj désigne la forme linéaire sur K n , (x1 , . . . , xn ) 7→ aj,1x1 + . . . + aj,n xn . Remarque 2.8.1 En remarquant que A est la matrice de u dans les bases canoniques, mais aussi la matrice des coordonnées de (c1 , . . . , cn ) dans la base canonique de K m et la transposée de la matrice de (f1 , . . . , fm ) dans la base duale de la base canonique de K n , on obtient Théorème 2.8.1 Avec les notations ci-dessus, on a rg A = rg u = rg(c1 , . . . , cn ) = rg(f1 , . . . , fm ). Cette valeur commune est appelée le rang du système. 2.8. Systèmes linéaires 2.8.2 307 Systèmes de Cramer Définition 2.8.1 On appelle système de Cramer un système d’équations linéaires vérifiant les conditions équivalentes (qui toutes impliquent que m = n) – (i) A est une matrice inversible – (ii) u est un isomorphisme de K n sur K m – (iii) (c1 , . . . , cn ) est une base de K m – (iv) (f1 , . . . , fm ) est une base de (K n )∗ Théorème 2.8.2 (Résolution d’un système de Cramer) Un système de Cramer admet une solution unique donnée par 308 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE – (i) Interprétation matricielle : X = A−1 B – (ii) Interprétation linéaire : x = u−1 (b) – (iii) Interprétation vectorielle : xj = det(c1 , . . . , cj−1 , b, cj+1 , . . . , cn ) det(c1 , . . . , cn ) (formules de Cramer) – (iv) Soit (v1 , . . . , vn ) la base duale de (f1 , . . . , fn ), alors x = b1 v1 + . . . + bn vn . Démonstration 2.8.1 Tout est évident sauf le (iii). Mais on a b = x1 c1 + . . . + xn cn , soit det(c1 , . . . , cj−1 , b, cj+1 , . . . , cn ) 2.8. Systèmes linéaires 309 = det(c1 , . . . , cj−1 , x1c1 + . . . + xn cn , cj+1 , . . . , cn ) = xj det(c1 , . . . , cn ) en développant suivant la j-ième colonne (tous les autres déterminants sont nuls car contenant deux fois la même colonne ci ). 310 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE 2.8.3 Théorème de Rouché-Fontené Définition 2.8.2 On associe au système (L) le système dit homogène a1,1x1 + . . . + a1,n xn = 0 (H) ... am,1x1 + . . . + am,n xn = 0 On appelle SL l’ensemble des solutions du système linéaire, SH celui du système homogène. Proposition 2.8.1 SH est un sous-espace vectoriel de K n de dimension égale à n − rg L. SL est soit vide, soit un sous-espace affine de direction SH ; dans ce cas on obtient 2.8. Systèmes linéaires 311 la solution générale de (L) en ajoutant à une solution particulière, la solution générale de (H). Démonstration 2.8.2 On a SH = Ker u d’où le fait qu’il est un sous-espace vectoriel ; sa dimension est donnée par le théorème du rang. De plus, si v ∈ SL , on a x ∈ SL ⇐⇒ u(x) = b = u(v) ⇐⇒ u(x − v) = 0 ⇐⇒ x − v ∈ SH . Définition 2.8.3 Soit P = (ai,j )i∈I,j∈J une sous-matrice principale de la matrice du système (L). On appelle déterminants caractéristiques du système associés à la 312 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE sous-matrice principale P les m − r déterminants µ ¶ (ai,j )i∈I,j∈J (bi )i∈I ∆i0 = det (ai0 ,j )j∈J bi0 avec i0 ∈ [1, m] \ I Théorème 2.8.3 (Rouché-Fontené). Soit P une sousmatrice principale de la matrice du système (L). Alors le système a des solutions si et seulement si les m − r déterminants caractéristiques associés à P sont nuls. Dans ce cas, l’ensemble des solutions de (L) est le même que l’ensemble des solutions du système L0 obtenu en éliminant les équations non principales. On résout ce système (L’), 2.8. Systèmes linéaires 313 en donnant des valeurs arbitraires aux inconnues non principales et en déterminant les valeurs correspondantes des inconnues principales par la résolution du système de Cramer (de matrice P ) ainsi obtenu. Démonstration 2.8.3 Etudions tout d’abord la compatibilité du système. On a SL 6= ∅ ⇐⇒ ⇐⇒ ⇐⇒ b ∈ Vect(c1 , . . . , cn ) dim Vect(c1 , . . . , cn , b) = dim Vect(c1 , . . . , cn ) rg ( A B ) = rg A Soit donc P = (ai,j )i∈I,j∈J une sous-matrice principale de A (avec |I| = |J | = r). Le système a des solutions si 314 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE et seulement si P est encore une sous-matrice principale de ( A B ), c’est-à-dire si et seulement si toutes les sous matrices bordantes de P dans ( A B ) sont non inversibles ; mais ces matrices bordantes sont de deux types : soit des matrices bordantes dans A qui sont µ forcément non inversibles, ¶ (ai,j )i∈I,j∈J (bi )i∈I soit des matrices de la forme , avec (ai0 ,j )j∈J bi0 i0 ∈ [1, m] \ I. On a noté ∆i0 le déterminant d’une telle matrice : les ∆i0 , i ∈ [1, m] \ I sont les déterminants caractéristiques du système (il y en a m − r). Le système a des solutions si et seulement si ces déterminants caractéristiques sont tous nuls. Supposons la condition réalisée, soit (L0 ) le système { ai,1x1 + . . . + ai,n xn = bi , i ∈ I (système d’équations 2.8. Systèmes linéaires 315 principales associées à P ). On a clairement SL ⊂ SL0 . Mais les deux systèmes ont même rang, si bien que dim SL = dim SL0 . On a donc SL = SL0 . Or le système L0 se résout facilement en l’écrivant sous la forme X X ai,j xj = bi − ai,j xj , i ∈ I j∈J j ∈J / On donne des valeurs arbitraires aux inconnues xj , j ∈ / J (inconnues non principales associées à la matrice P ) ; on obtient alors un système de Cramer de matrice P qui permet de déterminer les xj , j ∈ J (les inconnues principales associées à P ). 316 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE 2.8.4 Méthode du pivot Appliquons la méthode du pivot sur les lignes de la matrice A en effectuant les opérations correspondantes sur la matrice B. On obtient un nouveau système du type α1,i1 xi1 + α1,i1 +1 xi1 +1 + ... + α1,n xn = β1 α2,i2 xi2 + α2,i2 +1 xi2 +1 + . . . + α2,n xn = β2 ... αr,ir xir + α1,ir +1 xir +1 + . . . + αr,n xn = βr 0 = βr+1 ... 0 = βm avec i1 < i2 < . . . < ir , αk,ik 6= 0 pour k ∈ [1, r] 2.8. Systèmes linéaires 317 Un tel système se résout immédiatement : il a des solutions si et seulement si βr+1 = . . . = βm = 0. Dans ce cas il est équivalent au système formé des r premières équations. Celui-ci se résout en donnant des valeurs arbitraires aux xj pour j ∈ / {i1 , . . . , ir } et en calculant les xik par résolution d’un système triangulaire supérieur. Application : recherche de l’inverse d’une matrice : AX = Y ⇐⇒ X = A−1 Y . Cours de mathématiques par Denis Monasse Table des • Plan général • Algèbre générale • Algèbre linéaire • Réduction des endomorphismes • Topologie des espaces métriques 1.234,00 • Espaces vectoriels normés 43.009,45 • Comparaison des fonctions 96.000.000 • Suites et séries numériques 100.230,00 • Fonctions d’une variable réelle 1.234,00 • Intégration 43.009,45 • Suites et séries de fonctions 96.000.000 0100100010000100 1011011101111011 0100100010000100 Ed.1011011101111011 Vuibert matières 0100100010000100 1011011101111011 0100100010000100 • Séries entières 1011011101111011 0100100010000100 • Formes quadratiques 1011011101111011 0100100010000100 • Formes hermitiennes 1011011101111011 0100100010000100 • Séries de Fourier 1011011101111011 0100100010000100 • Calcul différentiel1011011101111011 0100100010000100 • Equations différentielles 1011011101111011 0100100010000100 • Espaces affines 1011011101111011 0100100010000100 • Courbes 1011011101111011 0100100010000100 • Surfaces 1011011101111011 0100100010000100 • Intégrales multiples 1011011101111011 0100100010000100 • Index 1011011101111011 0100100010000100