Cours d’algèbre linéaire de J.-P. Troallic FMdKdD fmdkdd [à] free.fr Université du Havre Année 2007–2008 Table des matières I Espaces vectoriels I.1 Préliminaires . . . . . . . . . . . . . . . . . . . . . 1.1 Groupes . . . . . . . . . . . . . . . . . . . 1.2 Corps . . . . . . . . . . . . . . . . . . . . . 1.3 Convention . . . . . . . . . . . . . . . . . I.2 Structures d’espace vectoriel . . . . . . . . . . . 2.1 Conséquences immédiates des axiomes I.3 Sous-espaces vectoriels . . . . . . . . . . . . . . . 3.1 Rappels . . . . . . . . . . . . . . . . . . . . I.4 Base et dimension d’un espace vectoriel . . . . I.5 Rang d’une suite finie de vecteurs . . . . . . . . 5.1 Méthode du pivot de Gauss . . . . . . . I.6 Espaces vectoriels quotients . . . . . . . . . . . . 6.1 Notation et définition . . . . . . . . . . . 6.2 Proposition et définition . . . . . . . . . I.7 Applications linéaires . . . . . . . . . . . . . . . . 7.1 Espaces isomorphes . . . . . . . . . . . . 7.2 Notation et définition . . . . . . . . . . . 7.3 Théorème et définition . . . . . . . . . . 7.4 Proposition et définition . . . . . . . . . I.8 Sous-espaces vectoriels supplémentaires . . . . 8.1 Proposition et définition . . . . . . . . . 8.2 Proposition et définition . . . . . . . . . 8.3 Généralisation . . . . . . . . . . . . . . . I.9 Espace vectoriel produit . . . . . . . . . . . . . . 9.1 Définition et proposition . . . . . . . . . I.10 Espaces vectoriels d’applications linéaires . . . 10.1 Notation et définition . . . . . . . . . . . 10.2 Cas particuliers . . . . . . . . . . . . . . . 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 4 4 4 4 4 6 7 8 10 15 15 16 17 17 18 19 19 20 21 23 23 24 25 25 25 26 26 26 TABLE DES MATIÈRES II Matrices II.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . II.2 Matrices particulières . . . . . . . . . . . . . . . . . . . . II.3 Opérations sur les matrices . . . . . . . . . . . . . . . . 3.1 Matrices élémentaires . . . . . . . . . . . . . . . 3.2 Transposition . . . . . . . . . . . . . . . . . . . . 3.3 Produit de matrices . . . . . . . . . . . . . . . . 3.4 Matrices carrées . . . . . . . . . . . . . . . . . . II.4 Matrices et applications linéaires . . . . . . . . . . . . . 4.1 Remarques utiles . . . . . . . . . . . . . . . . . . 4.2 Notation matricielle d’une application linéaire 4.3 Notation et définition . . . . . . . . . . . . . . . II.5 Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . II.6 Matrices carrées inversibles . . . . . . . . . . . . . . . . 6.1 Définitions et rappels . . . . . . . . . . . . . . . II.7 Changement de base . . . . . . . . . . . . . . . . . . . . 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 28 28 29 29 30 30 30 30 32 32 32 33 34 34 35 III Déterminants III.1 Permutations d’un ensemble fini . . . . . . . . . . . . . . . . . . . . III.2 Formes multilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . III.3 Formes n-linéaires alternées sur un espace vectoriel de dimension finie n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . III.4 Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . 4.1 Notations et définition . . . . . . . . . . . . . . . . . . . . . 4.2 Notation et définition . . . . . . . . . . . . . . . . . . . . . . III.5 Calcul de l’inverse d’une matrice carrée inversible . . . . . . . . . III.6 Systèmes d’équations linéaires . . . . . . . . . . . . . . . . . . . . . 6.1 Notation matricielle . . . . . . . . . . . . . . . . . . . . . . . 6.2 Système de Cramer . . . . . . . . . . . . . . . . . . . . . . . 6.3 Systèmes linéaires quelconques . . . . . . . . . . . . . . . . 37 37 38 IV Réduction de matrices carrées IV.1 Valeurs propres, vecteurs propres, sous-espaces propres . . . . . . . . . . . . . . . . . . . . . 1.1 Notation et définition . . . . . . . . . . . . . . . . IV.2 Endomorphismes diagonalisables . . . . . . . . . . . . . 2.1 Cas particulier important . . . . . . . . . . . . . . IV.3 Polynômes caractéristiques . . . . . . . . . . . . . . . . . IV.4 Cas des matrices . . . . . . . . . . . . . . . . . . . . . . . . IV.5 Applications de la diagonalisation . . . . . . . . . . . . . 5.1 Élévation à la puissance k d’une matrice carrée 52 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 42 42 46 47 48 48 49 50 52 53 54 56 56 59 59 59 TABLE DES MATIÈRES 5.2 Résolution de systèmes différentiels linéaires IV.6 Endomorphismes trigonalisables . . . . . . . . . . . . . 6.1 Proposition et définition . . . . . . . . . . . . . IV.7 Théorème de Cayley-Hamilton . . . . . . . . . . . . . . 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 61 62 63 Chapitre I Espaces vectoriels I.1 Préliminaires 1.1 Groupes Voir le cours d’algèbre générale. 1.2 Corps Voir le cours d’algèbre générale. 1.3 Convention Dans toute la suite, K désigne un corps commutatif, principalement R ou C. I.2 Structures d’espace vectoriel 2.0.1 Définition. Soit E un ensemble. On dit que E est muni d’une structure d’espace vectoriel sur K, ou encore que E est un espace vectoriel sur K, si E est muni d’une loi de composition interne et d’une loi de composition externe de domaine d’opérateurs K avec les propriétés suivantes : 1. La loi interne, le plus souvent notée additivement, confère à E une structure de groupe commutatif. On notera 0E ou 0 son élément neutre. 2. La loi externe, qui est une application de K × E dans E, le plus souvent notée multiplicativement, est telle que pour tous λ, µ ∈ K et x, y ∈ E : – λ x + y = λx + λ y – λ + µ x = λx + µx 4 CHAPITRE I. ESPACES VECTORIELS 5 – λµ x = λ µx – 1x = x Remarque. Soit E un espace vectoriel sur K. Alors les éléments de E sont souvent appelés des vecteurs et ceux de K des scalaires. Si K = R (resp. C), on dit que E est un espace vectoriel réel (resp. complexe). Exemples. 1. Soit n ∈ N∗ .Considérons l’ensemble Kn = K × K × · · · × K (n fois). Pour tous x = x 1 , x 2 , . . . , x n et y = y1 , y2 , . . . , yn posons : x + y = x 1 + y1 , x 2 + y2 , . . . , x n + yn Il est immédiat que cette addition sur Kn est associative et commutative. Elle admet un élément neutre qui est 0K , 0K , . . . , 0K , noté 0. De plus, chaque élément x = x 1 , x 2 , . . . , x n ∈ Kn admet −x 1 , −x 2 , . . . , −x n pour opposé, noté −x. L’ensemble Kn muni de + est donc un groupe commutatif. D’autre part, pour tous λ ∈ K et x = x 1 , x 2 , . . . , x n ∈ Kn posons λx = λx 1 , λx 2 , . . . , λx n . On vérifie aisément que Kn muni de ces deux lois est un espace vectoriel sur K. On dit que c’est la structure naturelle, ou canonique, d’espace vectoriel sur Kn . 2. Soit A un ensemble non vide et soit E un espace vectoriel sur K. Soit F (A, E) l’ensemble de toutes les applications de A dans E. Pour tous f , g ∈ F (A, E), définissons l’élément f + g de F (A, E) par : f + g (a) = f (a) + g(a) pour tout a ∈ E. Pour tous λ ∈ K et f ∈ F (A, E), définissons l’élément λ f de F (A, E) par λ f (a) = λ f (a) pour tout a ∈ A. Il est immédiat que F (A, E) est ainsi muni d’une structure d’espace vectoriel sur K. L’élément nul de F (A, E) est l’application nulle de A dans E. Là encore on parle de structure usuelle, ou canonique, d’espace vectoriel sur F (A, E). Le plus souvent on prend E = Kn ou même E = K. Remarque. La structure d’espace vectoriel sur Kn (resp. sur F (A, E)) définie dans l’exemple précédent est appelée la structure d’espace vectoriel usuelle sur Kn (resp. sur F (A, E)). CHAPITRE I. ESPACES VECTORIELS 2.1 6 Conséquences immédiates des axiomes 2.1.1 Propositions. Soit E un espace vectoriel sur K. Soient x, y ∈ E et λ, µ ∈ K. Alors on a : 1. λ x − y = λx − λ y. 2. λ0E = 0E . 3. λ (−x) = −λx. 4. λ − µ x = λx − µx. 5. 0K x = 0E . 6. (−λ)x = −λx. 7. (−λ)(−x) = λx. 8. λx = 0 si et seulement si λ = 0 ou x = 0. 9. Soit x 1 , x 2 , . . . , x n ∈ E. Alors on a : n X λ ! xi = i=1 n X λx i i=1 10. Soient λ1 , . . . , λn ∈ K. Alors : n X i=1 ! λi x= n X λi x i=1 11. Supposons que K = R. Soit α ∈ Z. Alors : (1 ·· + 1 · · + 1x} = |x + ·{z · · + x} | + ·{z })x = 1x | + ·{z α fois α fois α fois + · · · + (−x) si α < 0 αx = (−x) | {z } −α fois 0 si α = 0 si α > 0 Démonstrations. Soit E un espace vectoriel sur K. Soient x, y ∈ E et λ, µ ∈ K. 1. On a λ x − y + λ y = λ x − y + y = λx, donc λ x − y = λx − λ y. 2. λ0E = λ 0E − 0E = λ0E − λ0E = 0E 3. λ(−x) = λ 0E − x = λ0E − λx = 0E − λx = −λx 4. On a λ − µ x + µx = λ − µ + µ x = λx, d’où λ − µ x = λx − µx. CHAPITRE I. ESPACES VECTORIELS 7 5. On a 0K x = 0K − 0K x = 0K x − 0K x = 0E . 6. On a (−λ)x = 0K − λ x = 0K x − λx = 0E − λx = −λx. 7. Conséquence de 3 et 6. 8. Si λ = 0 ou si x = 0, il résulte de 5 et 2 que λx = 0. Inversement, supposons que λx = 0. Supposons que 0, montrons que nécessairement λ 6= −1 −1 x vaut 0. On a x = 1x = λ λ x = λ (λx) = λ−1 0E = 0E . 9. On raisonne par récurrence sur n. C’est évident pour n = 1. Supposons la propriété vraie pour n ; montrons qu’elle est vraie pour n + 1. Soient x 1 , x 2 , . . . , x n+1 ∈ E ; alors : ! ! ! n+1 n X X λ xi = λ x i + x n+1 i=1 i=1 =λ n X ! xi + λx n+1 i=1 = n X λx i + λx n+1 i=1 = n+1 X λx i i=1 10. Par récurrence sur n. Remarque. Soit (G, +) un groupe commutatif. Rappelons que pour tous x, y de E, l’opposé de y est noté − y et x + (− y) est noté x − y. I.3 Sous-espaces vectoriels Soit E un espace vectoriel sur K. 3.0.1 Définition. On appelle sous-espace vectoriel de E toute partie F de E vérifiant les conditions suivantes : – F est non vide. – Si x, y ∈ F alors x + y ∈ F ; c.-à-d. F est stable pour la loi interne. – Si λ ∈ K et si x ∈ F, alors λx ∈ F ; c.-à-d. F est stable pour la loi externe. 3.0.2 Propositions. Soit F un sous-espace vectoriel de E. Alors : 1. 0E ∈ F. 2. Si x, y ∈ F, alors x − y ∈ F ; donc − y ∈ F. CHAPITRE I. ESPACES VECTORIELS 8 3. Les lois d’addition et de multiplication par les scalaires données sur E induisent sur F des lois qui confèrent à F une structure d’espace vectoriel sur K. Lorsque F sera considéré comme un espace vectoriel sur K, ce sera toujours pour cette structure induite. Démonstration. Soient x, y ∈ F. On a − y = (−1) y, donc − y ∈ F. On a aussi x − y = x + (− y) donc x − y ∈ F, ce qui établit 2. Pour obtenir 1, il suffit de prendre x et y égaux. Le 3 est immédiat. Remarque. 0E est le plus petit sous-espace vectoriel de E, et E est le plus grand sous-espace vectoriel de E. 3.1 Rappels 1. Soit X un ensemble et soit I un ensemble auxiliaire que l’on appellera un ensemble d’indices. Supposons qu’à chaque élément (ou indice) de I, on associe un et un seul élément deE, que l’on notera x i . On dit alors que l’on s’est donné une famille x i i ∈ I d’éléments de X indexée par I. Une famille x i i ∈ I d’éléments de X n’est donc pas autre chose qu’une application de I dans X, celle qui à tout i ∈ I associe un et un seul élément de X noté x i . 2. Soit x i i ∈ I une famille d’éléments d’un ensemble X. On appelle sousfamille de x i i ∈ I toute famille x i i ∈ J où J est une partie de I. Exemples. 1. Si I = {1, . . . , n} la famille x i i ∈ I se note x i 1¶i¶n , ou x 1 , . . . , x n , ou x 1 , x 2 , . . . , x n et est appelée une suite (finie) d’éléments de X. 2. Si I = N, la famille x i i ∈ I se note x i i ∈ N ou encore x 0 , x 1 , . . . , x n , . . . ou x 0 , x 1 , . . . , x n , . . . et est appelée une suite (infinie) d’éléments de X. Remarque. On est souvent conduit à considérer une famille de parties d’un ensemble Y, c’est à dire une T famille Ai i ∈ I d’éléments de X = P (Y). L’intersection des Ai , notée i∈I Ai , est par définition l’ensemble des éléments de Y qui appartiennent à AS i pour tout i ∈ I. (On suppose I 6= ;). La réunion des Ai , notée i∈I Ai , est par définition l’ensemble des éléments de Y qui appartiennent à Ai pour au moins un i de I. 3.1.1 Proposition. Soit FiTi ∈ I une famille non vide (c.-à-d. I 6= ;) de sousespaces vectoriels de E. Alors i∈I Fi est un sous-espace vectoriel de E. CHAPITRE I. ESPACES VECTORIELS 9 T Démonstration. i∈I Fi est non vide car 0E ∈ Fi pour tout i ∈ I. Soient x, y T dans i∈I Fi ; alors x,T y ∈ Fi pour tout i ∈ I. On a donc T x + y ∈ Fi pour tout i ∈ I et donc x + y ∈ i∈I Fi . Enfin, si λ ∈ K et si x ∈ Ti∈I Fi alors T x ∈ Fi pour tout x ∈ I, donc λx ∈ Fi pour tout i ∈ I et donc λx ∈ i∈I Fi . i∈I Fi est donc un sous-espace vectoriel de E. Remarque. Si F1 et F2 sont des sous-espaces vectoriels de E, alors F1 ∪ F2 n’est généralement pas un sous-espace vectoriel. En fait, F1 ∪ F2 est un sous-espace vectoriel de E si et seulement si F1 ⊂ F2 ou F2 ⊂ F1 . 3.1.2 Définition. Soit x 1 , . . . , x n une suite finie de vecteurs de E. On appelle combinaison linéaire de x 1 , . . . , x n tout vecteur x de E ayant la propriété suivante : il existe une Pn suite finie λ1 , . . . , λn (de même longueur n) d’éléments de K telle que x = i=1 λi x i . 3.1.3 Théorème. Soit x 1 , . . . , x n une suite finie de vecteurs de E et soit F l’ensemble des combinaisons linéaires de x 1 , . . . , x n . Alors F est un sous-espace vectoriel de E, et c’est le plus petit sous-espace vectoriel de E contenant les vecteurs x 1 , . . . , x n . On dit que F est le sous-espace vectoriel de E engendré par la suite x1, . . . , x n. Démonstration. Si I = {1, . . . , n} alors : x i = 0x 1 + · · · + 0x i−1 + x i + 0x i+1 + · · · + 0x n pour i ∈ I. Par conséquent, x i ∈ F pour i ∈ I. D’autre part, tout sous-espace vectoriel de E contenant x 1 , x 2 , . . . , x n contient λ1 x 1 , . . . , λn x n (quels que soient λ1 , . . . , λn ∈ K), donc contient λ1 x 1 + · · · + λn x n . Par conséquent, tout sousespace vectoriel de E qui contient les x i (i ∈ I) contient F. Pour achever la démonstration, il reste à établir que F est un sous-espace vectoriel de E. Tout d’abord, F 6= ; car x 1 ∈ F (on pourrait aussi dire 0E ∈ F car 0E = 0K x 1 + · · · + 0K x n ). Soient x, y ∈ F et λ ∈ K. Avec λi , µi ∈ K, on a : x= n X i=1 λi x i et y= n X µi x i i=1 Pn Pn x . Comme λ + µ On a donc x + y = λ + µ x et λx = λλ i i i i i i i i=1 i=1 et λλi sont dans K, on a x + y ∈ F et λx ∈ F. F est donc un sous-espace vectoriel de E. 3.1.4 Définition. Soit A une partie non vide de E. On appelle combinaison linéaire finie de vecteurs de A tout vecteur de E qui est combinaison linéaire d’une suite finie de vecteurs de A. CHAPITRE I. ESPACES VECTORIELS 10 3.1.5 Théorème. Soit A une partie non vide de E et soit F l’ensemble des combinaisons linéaires finies de vecteurs de A. Alors F est un sous-espace vectoriel de E et c’est le plus petit sous-espace vectoriel de E qui contient A. On dit que F est le sous-espace vectoriel engendré par A, ou encore que A est une partie génératrice de F. Démonstration. Vérifions que si x, y ∈ F alors x + yP∈ F. Par définition, il p existe x 1 , . . . , x p ∈ A et λ1 , . . . , λ p ∈ K tels que x = i=1 λi x i . De même, il Pq existe y1 , . . . , yq ∈ A et µ1 , . . . , µq ∈ K tels que : y = i=1 µi yi . On a alors : x + y = λ1 x 1 + · · · + λ p x p + µ1 y1 + · · · + µq yq Ce qui montre que x + y ∈ F. Le reste de la démonstration est laissé en exercice. 3.1.6 Corollaire. Soient F et G deux sous-espaces vectoriels de E. Alors le sous espace vectoriel H de E engendré par F ∪ G est x + y/x ∈ F, y ∈ G , noté F + G. Remarques. 1. Le sous-espace vectoriel de E engendré par une suite finie x 1 , . . . , x n de vecteurs de E coïncide avec le sous-espace vectoriel de E engendré par A = x k /1 ¶ k ¶ n . 2. On peut définir le sous-espace vectoriel de E engendré par une famille x i i ∈ I de vecteurs de E. C’est par définition le sous-espace vectoriel de E engendré par A = x i /i ∈ I . 3. On convient que le sous-espace vectoriel de E engendré par ; est 0E . I.4 Base et dimension d’un espace vectoriel 4.0.1 Définitions. Soit E un espace vectoriel sur K et soit x 1 , . . . , x n une suite finie de vecteurs de E (de longueur n). 1. On dit que cette suite est liée, ou encore que les vecteurs x 1 , . . . , x n sont linéairement dépendants s’il existe une suite finie λ1 , . . . , λn de scalaires de K non tous nuls telle que λ1 x 1 + · · · + λn x n = 0. 2. On dit que la suite finie x 1 , . . . , x n est libre, ou encore que les vecteurs x 1 , . . . , x n sont linéairement indépendants, si la suite x 1 , . . . , x n n’est pas liée. La suite finie x 1 , . . . , x n est donc libre si et seulement si la condition suivante est vérifiée : si λ1 , . . . , λn ∈ K et si λ1 x 1 + · · · + λn x n = 0 alors nécessairement λ1 = 0, . . . , λn = 0. CHAPITRE I. ESPACES VECTORIELS 11 Remarques. 1. Une suite réduite à un vecteur x de E est libre si et seulement si x 6= 0. 2. Noter que si la suite finie x 1 , . . . , x n est libre, alors les vecteurs x i sont deux à deux distincts, c’est à dire si i 6= j alors x i 6= x j . En revanche, la réciproque est fausse. 4.0.2 Proposition. Soit E un espace vectoriel sur K et soit x 1 , . . . , x n une suite finie de vecteurs de E. Les conditions suivantes sont équivalentes : 1. La suite x 1 , . . . , x n est liée. 2. Il existe i ∈ {1, . . . , n} tel que x i soit combinaison linéaire de x 1 , . . . , x i−1 , x i+1 , . . . , x n . Démonstration. 1 =⇒ 2 : supposons que l’on ait une relation λ1 x 1 + · · · + λn x n = 0 avec λi 6= 0 pour un certain i ∈ {1, . . . , n}. Alors on a : λi−1 λi+1 λn λ1 x1 + · · · + − x i−1 + − x i+1 + · · · + − xn xi = − λi λi λi λi donc x i est combinaison linéaire de x 1 , . . . , x i−1 , x i+1 , . . . , x n . 2 =⇒ 1 : par hypothèse on a : x i = α1 x 1 + · · · + αi−1 x i−1 + αi+1 x i+1 + · · · + αn x n et par conséquent : α1 x 1 + · · · + αi−1 x i−1 + (−1)x i + αi+1 x i+1 + · · · + αn x n = 0 La suite x 1 , . . . , x n est donc liée. 4.0.3 Proposition. Soit E un espace vectoriel sur K et soit x 1 , . . . , x n , x n+1 une suite finie de vecteurs de E. On suppose que la suite x 1 , . . . , x n est libre. Alors la suite x 1 , . . . , x n , x n+1 est libre si et seulement si x n+1 n’est pas combinaison linéaire de x 1 , . . . , x n . Démonstration. Si la suite x 1 , . . . , x n , x n+1 est libre, x n+1 n’est pas combinaison linéaire de x 1 , . . . , x n . Réciproquement, soient λ1 , . . . , λn , λn+1 ∈ K tels que λ1 x 1 + · · · + λn x n + λn+1 x n+1 = 0 ; on doit montrer que λ1 = 0, . . . , λn = 0, λn+1 = 0. Si l’on avait λn+1 6= 0, on aurait : λ1 λn x n+1 = − x1 + · · · + − xn λn+1 λn+1 ce qui est contraire à l’hypothèse. On a donc λn+1 = 0. Ceci implique λ1 x 1 + · · · + λn x n = 0 et comme x 1 , . . . , x n est libre, on a λ1 = 0, . . . , λn = 0. CHAPITRE I. ESPACES VECTORIELS 12 4.0.4 Définition. Soit E un espace vectoriel sur K et soit e1 , . . . , en une suite finie de vecteurs de E. On dit que cette suite finie est une base de E si elle est à la fois libre et génératrice de E. Exemple. Considérons l’espace vectoriel Kn sur K usuel (voir I.2). Posons : e1 = (1, 0, . . . , 0) e2 = (0, 1, 0, . . . , 0) .. . en = (0, . . . , 0, 1) Alors la suite e1 , . . . , en est une base de Kn appelée la base canonique de Kn . 4.0.5 Proposition. Soit E un espace vectoriel sur K. Supposons que la suite finie e1 , . . . , en de vecteurs de E soit une base de E. Alors tout vecteur x de E s’écrit, et de manière unique, sous la forme x = λ1 e1 + · · · + λn en avec λ1 , . . . , λn ∈ K. Démonstration. Comme la suite e1 , . . . , en engendre par définition, Pn E, x s’écrit, P n de cette manière. Supposons que l’on ait x = i=1 λi x i et x = i=1 µi x i avec λi , µi ∈ K et i = 1, . . . , n. On a : n X i=1 λi ei = n X i=1 µi ei ⇐⇒ n X λi − µi e1 = 0 i=1 Comme la suite e1 , . . . , en est libre, on a λi − µi = 0, c’est à dire λi = µi , pour tout i = 1, . . . , n. 4.0.6 Définition. Notations de 4.0.5. Alors les λ1 , . . . , λn sont appelés les composantes, ou encore les coordonnées de x par rapport à la base e1 , . . . , en de E. 4.0.7 Définition. Soit E un espace vectoriel sur K. On dit que E est de dimension finie s’il existe une partie finie A de E qui engendre E. Il est équivalent de dire qu’il existe une suite finie x 1 , . . . , x p de vecteurs de E qui engendre E. 4.0.8 Proposition. Soit E un espace vectoriel de dimension finie sur K et soit G une partie génératrice de E. Alors il existe une partie génératrice finie H de E telle que H ⊂ G. Démonstration. Par hypothèse, il existe une partie génératrice finie A de E. Pour tout a ∈ A, soit Ga une partie finie S de G telle que a soit combinaison linéaire de vecteurs de Ga . Posons H = a∈A Ga . Alors H est une partie finie de G. Montrons que H engendre E. Soit F le sous-espace vectoriel de E engendré par H ; pour montrer que F = E, il suffit de montrer que A ⊂ F. Soit a ∈ A ; a est une combinaison linéaire (évidemment finie) de vecteurs de Ga , donc une combinaison linéaire de vecteurs de H, donc un élément de F. CHAPITRE I. ESPACES VECTORIELS 13 4.0.9 Théorème (Base incomplète). Soit E un espace vectoriel de dimension finie sur K et soit G une partie génératrice de E. Soit x 1 , . . . , x p une suite finie libre de vecteurs de E. Alors il existe des vecteurs x p+1 , . . . , x n appartenant à G tels que la suite finie x 1 , . . . , x p , x p+1 , . . . , x n soit une base de E. Démonstration. Soit H une partie génératrice finie de E telle que H ⊂ G (voir 4.0.8). Soit S l’ensemble des suites finies libres de vecteurs de E de la forme x 1 , . . . , x p , . . . , a p+1 , . . . , am où a p+1 , . . . , am appartiennent à H. L’ensemble S est fini car H est fini et car on ne trouve jamais deux fois le même vecteur dans une suite finie libre de vecteurs de E. Choisissons dans S un élément x 1 , . . . , x p , x p+1 , . . . , x n tel que n soit aussi grand que possible. Montrons que le sous-espace vectoriel F de E engendré par la suite x 1 , . . . , x p , x p+1 , . . . , x n est égal à E. Il suffit de montrer que H ⊂ F. Soit x ∈ H ; la suite x 1 , . . . , x p , x p+1 , . . . , x n est libre, et la suite x 1 , . . . , x p , x p+1 , . . . , x n , x est liée. Par conséquent, d’après 4.0.3, x est une combinaison linéaire de la suite finie x 1 , . . . , x p , x p+1 , . . . , x n . Autrement dit, x ∈ F. Remarque. Le théorème 4.0.9 est le plus souvent appliqué en prenant G = E. 4.0.10 Corollaire. Tout espace vectoriel de dimension finie admet une base e1 , . . . , en . On convient qu’un espace vectoriel réduit à {0} admet ; comme base. 4.0.11 Lemme. Soit E un espace vectoriel sur K. Soit x 1 , . . . , x p une suite finie de vecteurs de E, et soient y1 , . . . , y p+1 des combinaisons linéaires de x 1 , . . . , x p . Alors les y1 , . . . , y p+1 sont linéairement dépendants. Démonstration. Admis ; se démontre par récurrence sur p. 4.0.12 Théorème. Soit E un espace vectoriel de dimension finie sur K. Si x 1 , . . . , x p et y1 , . . . , yq sont deux bases de E, alors p = q. Démonstration. Supposons que l’on ait p < q. Il résulte alors du lemme 4.0.11 que la suite y1 , . . . , y p , y p+1 est liée et donc, a fortiori, que la suite y1 , . . . , yq est liée, ce qui est absurde par hypothèse. On a donc q ¶ p. Par symétrie, on a aussi p ¶ q, et donc p = x. 4.0.13 Définition. Soit E un espace vectoriel de dimension finie sur K. Le nombre de termes d’une base quelconque de E est appelé la dimension de E. Ce nombre est noté dimK E (ou dim E). Remarque. Soit E un espace vectoriel de dimension finie sur K. La dimension de E est supérieure ou égale à 1, sauf si E est réduit à {0}. La dimension d’un espace réduit à un point est par convention 0. CHAPITRE I. ESPACES VECTORIELS 14 4.0.14 Théorème. Soit E un espace vectoriel de dimension finie n sur K. Soit x 1 , . . . , x p une suite (finie de longueur p) de vecteurs de E. Alors : 1. Si la suite x 1 , . . . , x p est libre, on a p ¶ n. Plus précisément, on peut compléter x 1 , . . . , x p en une base x 1 , . . . , x p , x p+1 , . . . , x n de E. 2. Si la suite x 1 , . . . , x p engendre E, on a p ¾ n. Plus précisément, on peut extraire de la suite x 1 , . . . , x p une base de E. Démonstration. Résulte de 4.0.9. 4.0.15 Théorème. Soit E un espace vectoriel de dimension finie n sur K. Soit x 1 , . . . , x p une suite de vecteurs de E. Les conditions suivantes sont équivalentes : 1. La suite x 1 , . . . , x p est une base de E. 2. La suite x 1 , . . . , x p est libre et p = n. 3. La suite x 1 , . . . , x p engendre E et p = n. Démonstration. Résulte de 4.0.9 et 4.0.12. Exemple. Considérons Kn muni de sa structure usuelle d’espace vectoriel sur K (voir I.2). Alors Kn est un espace vectoriel de dimension finie n sur K (voir I.4). 4.0.16 Théorème. Soit E un espace vectoriel de dimension finie n sur K et soit F un sous-espace vectoriel de E. Alors F est un sous-espace vectoriel de dimension finie, et l’on a : dimK F ¶ dimK E Pour que F = E, il faut et il suffit que dimK F = dimK E. Démonstration. Admis ; utilise principalement 4.0.14. Exercice. Soit E un espace vectoriel sur K de dimension finie. Soient F et G deux sous-espaces vectoriels de E tels que F ⊂ G. Montrer que les conditions suivantes sont équivalentes : 1. F = G 2. dim F = dim G C’est une conséquence de 4.0.16 en considérant l’espace G à la place de l’espace E. CHAPITRE I. ESPACES VECTORIELS I.5 15 Rang d’une suite finie de vecteurs 5.0.1 Définition. Soit E un espace vectoriel sur K et soit x 1 , . . . , x p une suite finie de vecteurs de E. Le rang de cette suite estla dimension du sous-espace vectoriel de E qu’elle engendre. On le note rang x 1 , . . . , x p . Notons que le rang de x 1 , . . . , x p ne peut pas dépasser p ni dim E quand E est de dimension finie. 5.1 Méthode du pivot de Gauss Nous allons indiquer, à partir d’un exemple, une méthode qui permet de déterminer le rang de x 1 , . . . , x p quand E est de dimension finie et que l’on connait les coordonnées de x 1 , . . . , x p par rapport à une base de E. C’est la méthode du pivot de Gauss, basée sur les deux propositions suivantes : 5.1.1 Proposition. Soit E un espace vectoriel sur K. On ne modifie pas le sousespace vectoriel de E engendré par une suite finie de vecteurs de E quand on fait subir à cette suite l’une des transformations suivantes : 1. Changement de l’ordre de ses termes. 2. Multiplication de l’un quelconque de ses termes par un scalaire non nul. 3. Addition à l’un de ses termes d’un multiple d’un autre (au sens strict) terme. 5.1.2 Proposition. Soit E un espace vectoriel de dimension finie n sur K et soit E = e1 , . . . , en une base de E. Soit x 1 , . . . , x p une suite finie de longueur p de vecteurs de E. On suppose : – que la première coordonnée de x 1 par rapport à E n’est pas nulle, – que la première coordonnée de x 2 par rapport à E est nulle et que la deuxième n’est pas nulle, – . . ., – que les p − 1 premières coordonnées de x p par rapport à E sont nulles et la pième n’est pas nulle. Dans ces conditions, la suite x 1 , . . . , x p est libre et donc son rang est p. Exemple. Soit E un espace vectoriel de dimension 3 sur R. Soit E = e1 , e2 , e3 une base de E. Considérons la suite S = x 1 , x 2 , x 3 , x 4 de vecteurs de E, avec les coordonnées suivantes pour chaque x i suivant E : x1 x2 x3 x4 2 −1 4 −4 3 2 −3 17 5 −3 8 −10 CHAPITRE I. ESPACES VECTORIELS 16 Ainsi, x 1 = 2e1 + 3e2 + 5e3 . On se propose de déterminer le rang de S , qui est au plus égal de suites de vecteurs D’aprèsla proposition 5.1.1, les à dim E = 3. 000 00 00 000 0 00 0 00 0 0 0 0 E : S = x 1 , x 2 , x 3 , x 4 , S = x 1 , x 2 , x 3 , x 4 , S = x 1 , x 2 , x 3 , x 4 ont le même rang que S , car elles engendrent le même sous-espace vectoriel de E. x 1 x 20 = x 1 + 2x 2 x 30 = 2x 1 − x 3 x 40 = 2x 1 + x 4 2 0 0 0 3 7 9 23 5 −1 2 0 x1 2 3 5 x 20 x 300 = 9x 20 − 7x 30 x 400 = 23x 20 − 7x 40 0 0 0 7 0 0 −1 −23 −23 x1 2 3 5 x 20 x 300 x 4000 = 0 0 7 0 −1 −23 x 30 − x 400 0 0 0 Remarques. Notations de 5.1. 1. Les suites S , S 0 , S 00 , S 000 engendrent en fait le même sous-espace vectoriel F de E (voir 5.1.1) et la suite x 1 , x 20 , x 300 en est une base. Ici F = E. 2. Les suites x 1 , x 2 , x 3 et x 1 , x 20 , x 300 engendrent le même sous-espace vectoriel F de E. La suite x 1 , x 2 , x 3 est donc une base de F. L’égalité x 4000 = 0 implique x 4 = 2x 1 +4x 2 −x 3 ; elle permet donc d’obtenir les coordonnées de x 4 par rapport à la base x 1 , x 2 , x 3 de F. I.6 Espaces vectoriels quotients Dans tout I.6, E est un espace vectoriel sur K et F est un sous-espace vectoriel de E. 6.0.1 Proposition. La relation R entre éléments x, y de E, définie par xR y si et seulement si x − y ∈ F, est une relation d’équivalence sur E. Pour tout x ∈ E, la classe d’équivalence de x suivant R est x + F = x + y/ y ∈ F . Démonstration. Si x ∈ E, on a x − x = 0E et 0E ∈ F donc xR x, c’est à dire que R est refléxive. Si x, y ∈ E et si xR y, alors x − y ∈ F donc −(x − y) ∈ F, c’est à dire y − x ∈ F, soit yR x ; R est donc symétrique. Si x, y, z ∈ E et si xR y et si yRz, alors x − y ∈ F et y − z ∈ F donc (x − y) + ( y − z) ∈ F, c’est à dire x − z ∈ F et donc Si x ∈ E, la classe d’équivalence de x xRz ; R est transitive. suivant R est y ∈ E/ y − x ∈ F , c’est à dire x + F. CHAPITRE I. ESPACES VECTORIELS 6.1 17 Notation et définition L’ensemble quotient RE est encore noté EF et est appelé le quotient de E par F. L’application ϕ : E 7→ EF , qui à tout x ∈ E associe sa classe d’équivalence suivant R (c’est à dire x + F), est appelée la surjection canonique de E sur EF . Pour tout x ∈ E, ϕ(x) est encore noté x. Notons que ϕ(x) est souvent appelé la classe d’équivalence de x modulo F. 6.2 Proposition et définition Munissons E F de la loi interne notée + définie par x + y = x + y pour x, y ∈ E et de la loi externe de domaine d’opérateurs K définie par λx = λx pour λ ∈ K et x ∈ E. L’ensemble quotient EF est ainsi muni d’une structure d’espace vectoriel sur K. Cet espace vectoriel est appelé l’espace vectoriel quotient de E par F. Notons que 0E/F = 0E et −x = −x pour x ∈ E. Démonstration. Notons tout d’abord que ces deux lois sont bien définies ; en effet, supposons que x 1 = x 2 et y1 = y2 avec x 1 , x 2 , y1 , y2 ∈ E ; alors : x 1 + y1 − x 2 + y2 = x 1 − x 2 + y1 − y2 x 1 + y1 = x 2 + y2 car Comme x1 = x 2 , on ax 1 − x 2 ∈ F, et comme y1 = y2 , on a y1 − y2 ∈ F, et donc x 1 − x 2 + y1 + y2 ∈ F car F est un sous-espace vectoriel de E. De même, si λ ∈ K et si x 1 = x 2 pour x 1 , x 2 ∈ E, alors x 1 − x 2 ∈ F, donc λ x 1 − x 2 ∈ F, ainsi λx 1 − λx 2 ∈ F, c’est à dire λx 1 = λx 2 . On vérifie aisément que EF est un espace vectoriel sur K pour ces deux lois. 6.2.1 Proposition. Supposons E de dimension finie n. Soit e1 , . . . , e p une base de F ; e1 , . . . , e p est une suite libre dans l’espace F, donc une suite libre dans l’espace E ; on la complète en une base e1 , . . . , e p , e p+1 , . . . , en de E (voir 4.0.9 et 4.0.16). Alors, e p+1 , . . . , en est une base de EF . En particulier, EF est de dimension finie, et l’on a : E dim E = dim F + dim F Démonstration. 1. Soit x ∈ E. On a : x = λ1 e1 + · · · + λ p e p + λ p+1 e p+1 + · · · + λn en (λi ∈ K) On a e1 = · · · = e p = 0E/F car e1 , . . . , e p ∈ F ; on a donc : x = λ1 e1 + · · · + λ p e p + λ p+1 e p+1 + · · · + λn en = λ p+1 e p+1 + · · · + λn en Par conséquent e p+1 , . . . , en engendre EF . CHAPITRE I. ESPACES VECTORIELS 18 2. Montrons que e p+1 , . . . , en est une suite libre de EF . Soit λ p+1 , . . . , λn ∈ K tels que λ p+1 e p+1 , . . . , λn en = 0E . On doit montrer que λ p+1 = · · · = λn = 0. On a : λ p+1 e p+1 + · · · + λn en = 0E Donc λ p+1 e p+1 + · · · + λn en ∈ F. Puisque e1 , . . . , e p est une base de F, il existe λ1 , . . . , λ p ∈ K tels que : λ p+1 e p+1 + · · · + λn en = λ1 e1 + · · · + λ p e p On a donc : −λ1 e1 + · · · + −λ p e p + λ p+1 e p+1 + · · · + λn en = 0E Comme e1 , . . . , e p , e p+1 , . . . , en est une base de E, on a λ p+1 = 0, . . . , λn = 0. 3. Il en résulte que EF est de dimension finie. Enfin on a : dim E = n = p + (n − p) = dim F + dim I.7 E F Applications linéaires 7.0.1 Définitions. Soient E et F deux espaces vectoriels sur K. 1. On appelle application linéaire de E dans F tout homomorphisme de E dans F, c’est à dire toute application f de E dans F telle que : ∀x, y ∈ E f (x + y) = f (x) + f ( y) ∀λ ∈ K, ∀x ∈ E f (λx) = λ f (x) 2. Une application linéaire de E dans E est appelée un endomorphisme de E, ou encore un opérateur linéaire sur E. 3. Si f : E 7→ F est linéaire bijective, on dit que f est un isomorphisme de E sur F. Il est immédiat que f −1 : F 7→ E est alors un isomorphisme de F sur E. 4. Un isomorphisme de E sur E est appelé un automorphisme de E. Exemples. Soient E un espace vectoriel sur K et F un sous-espace vectoriel de E. Alors : 1. L’application identique i : F 7→ E définie par i(x) = x pour tout x ∈ F est linéaire. 2. La surjection canonique ϕ : E 7→ EF est une application linéaire par définition même des lois sur EF . CHAPITRE I. ESPACES VECTORIELS 7.1 19 Espaces isomorphes Soient E et F des espaces vectoriels sur K. S’il existe un isomorphisme de E sur F, on dit que E est isomorphe à F, ou encore que E et F sont isomorphes. Ils ont alors les « mêmes » propriétés. 7.1.1 Proposition. Soient E, F, G des espaces vectoriels sur K. Soient f : E 7→ F et g : F 7→ G des applications linéaires. Alors g ◦ f : E 7→ G est linéaire. Démonstration. Soient x, y ∈ E et λ ∈ K. Alors : g◦f x + y = g f x + y = g f (x) + f ( y) = g f (x) + g f ( y) = g ◦ f (x) + g ◦ f ( y) De même : g ◦ f (λx) = g f (λx) = λg f (x) = λ g ◦ f (x) 7.1.2 Corollaire. Le composé de deux isomorphismes d’espaces vectoriels (s’il a un sens) est un isomorphisme d’espaces vectoriels. C’est également le cas des endomorphismes et des automorphismes. 7.1.3 Proposition. Soient E et F des espaces vectoriels sur K et f : E 7→ F une application linéaire. Alors : 1. f (0E ) = 0F et f (−x) = − f (x) pour tout x ∈ E. 2. Si A est un sous-espace vectoriel de E, alors f (A) est un sous-espace vectoriel de F. 3. Si B est un sous-espace vectoriel de F, alors f −1 (B) est un sous-espace vectoriel de E. 7.2 Notation et définition Soient E et F des vectoriels sur K et f : E 7→ F linéaire. Le sous-espace espaces vectoriel f −1 0F de E est appelé le noyau de F et noté Ker F. On a donc : Ker F = x ∈ E/ f (x) = 0F Le sous-espace vectoriel f (E) de F est appelé l’image de f ; on le note Im f . 7.2.1 Proposition. Soient E et F des espaces vectoriels sur K et f : E 7→ F une application linéaire. Alors : CHAPITRE I. ESPACES VECTORIELS 20 1. f est surjective si et seulement si Im f = F. 2. f est injective si et seulement si Ker f = 0E . Démonstration. 1. Évident. 2. Supposons f injective. Alors, si x ∈ Ker f , f (x) = 0F = f (0E ) et comme f est injective, x = 0E . On a donc Ker f = 0E (rappelons que 0E ∈ Ker f ). Inversement, supposons que Ker f = 0E . Soient x 1 , x 2 ∈ E tels que f (x 1 ) = f (x 2 ). On a f x 1 − x 2 = 0F donc x 1 − x 2 ∈ Ker f , c’est à dire x 1 − x 2 = 0E , et x 1 = x 2 . 7.3 Théorème et définition Soient E et F des espaces vectoriels sur K et f : E 7→ F linéaire. Soient ϕ : E 7→ E la surjection canonique et i : f (E) 7→ F l’application identique de f (E) Ker f dans F. Rappelons que ϕ et i sont linéaires. Alors : 1. Pour tous x 1 , x 2 ∈ E on a ϕ(x 1 ) = ϕ(x 2 ) si et seulement si f (x 1 ) = f (x 2 ). 2. L’application g : KerE f 7→ Im f définie par g(x) = f (x) a un sens et est un isomorphisme d’espaces vectoriels. 3. Le diagramme suivant est commutatif : f E ϕ E Ker f /F O i g / f (E) C’est à dire que f = i ◦ g ◦ ϕ. Cette décomposition est appellée la décomposition canonique. Démonstrations. 1. Soient x 1 , x 2 ∈ E. Alors : ϕ(x 1 ) = ϕ(x 2 ) ⇐⇒ x 1 = x 2 ⇐⇒ x 1 − x 2 ∈ Ker f ⇐⇒ f x 1 − x 2 = 0 ⇐⇒ f (x 1 ) − f (x 2 ) = 0 ⇐⇒ f (x 1 ) = f (x 2 ) CHAPITRE I. ESPACES VECTORIELS 21 2. D’après le 1, g est bien définie. Montrons que g est linéaire. Soient x 1 , x 2 ∈ E et λ ∈ K. On a : g x 1 + x 2 = g x 1 + x 2 = f x 1 + x 2 = f (x 1 ) + f (x 2 ) = g(x 1 ) + g(x 2 ) et g(λx 1 ) = g λx 1 = f (λx 1 ) = λ f (x 1 ) = λg(x 1 ) ; g est donc linéaire. g est injective car g(x) = 0 f (E) (avec x ∈ E) implique f (x) = 0F , donc x ∈ Ker f d’où x = 0, et 0 est l’élément neutre de KerE f . g est surjective car : Im g = g(x/x ∈ E = f (x)/x ∈ E = Im f 3. Soit x ∈ E. Alors : i ◦ g ◦ ϕ (x) = i ◦ g ϕ(x) = i ◦ g (x) = i g(x) = g(x) = f (x) 7.4 Proposition et définition Soient E et F des espaces vectoriels sur K et f : E 7→ F linéaire. Alors : 1. Si A est une partie génératrice de E, f (A) est une partie génératrice de Im f . 2. Si E est de dimension finie, Im f est de dimension finie. Le rang de f , noté rang f , est par définition dim Im f . Démonstrations. 1. Soit y ∈ Im f . Soit x ∈ E tel que y = f (x). Comme APengendre E, il n existe x 1 , . . . , x n ∈ A et λ1 , . . . , λn ∈ K tels que x = i=1 λi x i . On a alors : ! n n X X λi f (x i ) y = f (x) = f λi x i = i=1 i=1 Et comme f (x i ) ∈ f (A) pour i = 1, . . . , n, on voit que f (A) engendre Im f (voir 3.1.5). CHAPITRE I. ESPACES VECTORIELS 22 2. Supposons E de dimension finie. Soit A une partie génératrice finie de E. Alors f (A) est une partie finie de Im f et d’après le 1, f (A) engendre Im f . Par conséquent, Im f est de dimension finie. 7.4.1 Théorème. Soient E et F des espaces vectoriels sur K et f : E 7→ F linéaire. On suppose E de dimension finie n et on désigne par e1 , . . . , en une base de E telle que e1 , . . . , e p soit une base de Ker f (voir la démarche faite en 6.2.1). Alors f e p+1 , . . . , f en est une base de Im f . En particulier, on a : dim E = dim Ker f + rang f Démonstration. Considérons le diagramme : E f ϕ E Ker f /F O i g / Im f D’après 6.2.1, e p+1 , . . . , en est une base de KerE f . L’application g : KerE f 7→ Im f étant un isomorphisme, g e p+1 , . . . , g en est une base de Im f . Autrement dit, f e p+1 , . . . , f en est une base de Im f . Enfin on a : dim E = n = p + (n − p) = dim Ker f + dim Im f et par définition dim Im f = rang f . 7.4.2 Théorème. Soient E et F des espaces vectoriels de dimension finie sur K et soit f : E 7→ F linéaire. On suppose que dim E = dim F. Les conditions suivantes sont équivalentes : 1. f est injective. 2. f est surjective. 3. f est bijective. Démonstration. Admis. 7.4.3 Proposition. Soient E et F des espaces vectoriels sur K. On suppose que E est de dimension finie n, et on désigne par e1 , . . . , en une base de E. Soit b1 , . . . , bn une suite finie de longueur n de vecteurs de F. Alors il existe une et une seule application linéaire f : E 7→ F telle que f e1 = b1 , . . . , f en = bn . Pour que f soit injective, il faut et il suffit que b1 , . . . , bn soit libre. Pour que f soit surjective, il faut et il suffit que la suite b1 , . . . , bn engendre F. Pour que f soit bijective, il faut et il suffit que b1 , . . . , bn soit une base de F. CHAPITRE I. ESPACES VECTORIELS 23 Démonstration. Exercice. 7.4.4 Corollaire. 1. Pour que deux espaces vectoriels de dimensions finies sur K soient isomorphes, il faut et il suffit qu’ils aient la même dimension. 2. Si E est un espace vectoriel de dimension finie n sur K, alors E est isomorphe à Kn . I.8 Sous-espaces vectoriels supplémentaires E désigne un espace vectoriel sur K. 8.0.1 Définition. Soient F1 et F2 des sous-espaces vectoriels de E. Le sousespace vectoriel de E engendré par F1 ∪ F2 est : F1 + F2 = x 1 + x 2 /x 1 ∈ F1 et x 2 ∈ F2 (voir 3.1.6). On dit que F1 + F2 est la somme de F1 et F2 . 8.1 Proposition et définition Soient F1 et F2 des sous-espaces vectoriels de E. Les conditions suivantes sont équivalentes : 1. On a F1 + F2 = E et F1 ∩ F2 = 0E . 2. Tout vecteur x de E s’écrit de façon unique (à l’ordre près) sous la forme x = x 1 + x 2 avec x 1 ∈ F1 et x 2 ∈ F2 . 3. On a F1 +F2 = E et les hypothèses x 1 ∈ F1 , x 2 ∈ F2 , x 1 + x 2 = 0 impliquent x 1 = x 2 = 0. Démonstrations. 1 =⇒ 2 Soit x ∈ E. Supposons que x = x 1 + x 2 et x = y1 + y2 avec x 1 , y1 ∈ F1 et x 2 , y2 ∈ F2 . On a x 1 + x 2 = y1 + y2 donc x 1 − y1 = y2 − x 2 . Comme x 1 , y1 ∈ F1 , x 1 − y1 ∈ F1 ; de même y2 − x 2 ∈ F2 . On en déduit que x 1 − y1 , y2 − x 2 ∈ F1 ∩F2 , donc x 1 − y1 = 0 et y2 − x 2 = 0. Par conséquent x 1 = y1 et x 2 = y2 . 2 =⇒ 3 Soient x 1 ∈ F1 et x 2 ∈ F2 tels que x 1 + x 2 = 0. On a 0 + 0 = 0 avec 0 ∈ F1 , 0 ∈ F2 et 0 ∈ E ; la condition d’unicité du 2 implique x 1 = 0 et x 2 = 0. CHAPITRE I. ESPACES VECTORIELS 24 3 =⇒ 1 Soit x ∈ F1 ∩ F2 ; on doit montrer que x = 0. On a x ∈ F2 donc −x ∈ F2 et comme x + (−x) = 0 avec x ∈ F1 , −x ∈ F2 on a x = 0 d’après 3. 8.1.1 Définition. Lorsque l’une quelconque des conditions de 8.1 est remplie, on dit que F1 et F2 sont supplémentaires dans E, et l’on écrit E = F1 ⊕ F2 . On dit aussi que E est somme directe de F1 et de F2 . 8.2 Proposition et définition Soient F1 et F2 deux sous-espaces vectoriels supplémentaires de E. À tout vecteur x = x 1 + x 2 de E, avec x 1 ∈ F1 et x 2 ∈ F2 , faisons correspondre le vecteur x 1 de F1 . L’application p1 : E 7→ F1 ainsi définie est linéaire, surjective, et son noyau est F2 . La décomposition canonique de p1 fournit donc en particulier un isomorphisme de FE sur F1 . On dit que p1 est la projection de E sur F1 , parallè2 lement à F2 . On définit de même la projection p2 de E sur F2 , parallèlement à F1 . Démonstration. Soient x = x 1 + x 2 et y = y1 + y2 des vecteurs de E, avec x 1 , y1 ∈ F1 et x 2 , y2 ∈ F2 et soit λ ∈ K. On a : x + y = x 1 + x 2 + y1 + y2 = x 1 + y1 + x 2 + y2 Comme x 1 , y1 ∈ F1 , x 1 + y1 ∈ F1 ; de même x 2 + y2 ∈ F2 . Par définition de p1 , on a donc p1 (x + y) = x 1 + y1 . Par ailleurs, on a p1 (x) = x 1 et p1 ( y) = y1 , donc p1 (x + y) = p1 (x) + p1 ( y). De même, x = x 1 + x 2 donc λx = λ x 1 + x 2 = λx 1 = λx 2 . Comme λx 1 ∈ F1 et λx 2 ∈ F2 , on a par définition de p1 , p1 (λx) = λx 1 et x 1 = p1 (x) ; on a donc p1 (λx) = λp1 (x). p1 est donc linéaire. p1 est surjective, car si y ∈ F1 , alors y = y + 0 avec y ∈ F1 et 0 ∈ F2 et donc p1 ( y) = y. Montrons que Ker p1 = F2 . Si x ∈ E et si p1 (x) = 0, alors sachant que x = x 1 + x 2 avec x 1 ∈ F1 et x 2 ∈ F2 , on a x 1 = p1 (x) = 0 et donc x = x 2 ce qui montre que x est dans F2 . Donc Ker p1 ⊂ F2 . Réciproquement, si x ∈ F2 , alors x = 0 + x avec 0 ∈ F1 et x ∈ F2 , d’où p1 (x) = 0 et x ∈ Ker p1 . Donc F2 ⊂ Ker p1 . 8.2.1 Proposition. Supposons que E soit de dimension finie n sur K. 1. Soit e1 , . . . , en une base de E. Soit F1 le sous-espace vectoriel de E engendré par e1 , . . . , eq , et soit F2 le sous-espace vectoriel de E engendré par eq+1 , . . . , en . Alors F1 et F2 sont supplémentaires. CHAPITRE I. ESPACES VECTORIELS 25 2. Soient G1 et G2 deux sous-espaces vectoriels supplémentaires de E. Soit a1 , . . . , a r une base de G1 , et soit b1 , . . . , bs une base de G2 . Alors a1 , . . . , a r , b1 , . . . , bs est une base de E. On a donc : dim E = n = dim G1 + dim G2 3. Soit F un sous-espace vectoriel de E. Alors F possède au moins un sousespace supplémentaire dans E. Démonstration. Exercice. 8.3 Généralisation Soient F1 , . . . , F p des sous-espaces vectoriels de E. On dira que E est somme directe de F1 , . . . , F p si tout vecteur x de E s’écrit de manière unique x = x 1 + · · · + x p avec x 1 ∈ F1 , . . . , x p ∈ F p . On écrit alors E = F1 ⊕ · · · ⊕ F p . I.9 Espace vectoriel produit 9.1 Définition et proposition Soient E1 , . . . , E p des espaces vectoriels sur K. Munissons l’ensemble E1 × · · · × E p de la loi interne +, définie par : x 1 , . . . , x p + y1 , . . . , y p = x 1 + y1 , . . . , x p + y p et de la loi externe de domaine d’opérateurs K définie par : λ x 1 , . . . , x p = λx 1 , . . . , λx p Alors : 1. E1 × · · · × E p est ainsi muni d’une structure d’espace vectoriel sur K. On dit que c’est l’espace vectoriel produit de E1 , . . . , E p . 2. Pour tout i ∈ 1, . . . , p , la i e projection pi : E1 × · · · × E p 7→ Ei définie par pi x 1 , . . . , x p = x i est linéaire. 3. Pour tout i ∈ 1, . . . , p , soit Fi = 0, . . . , 0, x i , 0, . . . , 0 /x i ∈ Ei . Alors Fi est un sous-espace vectoriel de E1 × · · · × E p et l’on a E1 × · · · × E p = F1 ⊕ · · · ⊕ F p . Démonstration. Exercice. CHAPITRE I. ESPACES VECTORIELS 26 9.1.1 Proposition. Soit E un espace vectoriel sur K, et soient F1 , . . . , F p des sousespaces vectoriels de E. On suppose que E = F1 ⊕ · · · ⊕ F p . Alors l’application de F1 × · · · × F p dans E, qui à x 1 , . . . , x p associe x 1 + · · · + x p est un isomorphisme d’espaces vectoriels. Démonstration. Exercice. Problème. Soient E1 , . . . , E p des espaces vectoriels de dimension finie sur K. Montrer que E1 × · · · × E p est un espace vectoriel de dimension finie sur K, et que dim E1 × · · · × E p = dim E1 + · · · + dim E p . I.10 10.1 Espaces vectoriels d’applications linéaires Notation et définition Soient E et F des espaces vectoriels sur K. On note L (E, F) l’ensemble des applications linéaires de E dans F. Soient f , g ∈ L (E, F) et λ ∈ K. Alors l’application de E dans F, notée f + g, qui à tout x de E associe f (x) + g(x) est linéaire. De même, l’application de E dans F, qui à tout x de E associe λ f (x) est linéaire. Munissons L (E, F) de la loi interne, notée +, qui à tous ( f , g) ∈ L (E, F) × L (E, F) associe f + g, et de la loi externe de domaine d’opérateur K, qui à tout f ∈ L (E, F) et tout λ ∈ K associe λ f . On munit ainsi L (E, F) d’une structure d’espace vectoriel sur K. Notons que le zéro de L (E, F) est l’application nulle de E dans F, qui à tout x ∈ E associe 0F ; on la note simplement 0, ou 0L (E,F) . Notons aussi que l’opposé de f ∈ L (E, F) est l’application x → − f (x) : E 7→ F que l’on note − f . 10.2 Cas particuliers Remarques. 1. Soit E un espace vectoriel sur K. D’après 10.1, L (E, E), encore noté L (E), est canoniquement muni d’une structure d’espace vectoriel sur K. On peut munir L (E) d’une seconde loi interne, à savoir la composition des applications, notée ◦. L’ensemble L (E) muni de + et de ◦ est un anneau unitaire ; l’élément neutre pour ◦ est l’identité de E dans E, notée IdE . L’ensemble des éléments inversibles de l’anneau unitaire L (E) est un groupe pour la loi ◦. Ce groupe est appelé le groupe linéaire de E et il est noté GL(E). Notons que les éléments inversibles de L (E) ne sont autres que les automorphismes de E. CHAPITRE I. ESPACES VECTORIELS 27 2. Soit E un espace vectoriel sur K. L (E, K) est un espace vectoriel sur K pour les lois définies en 10.1 avec ici F = K. Cet espace vectoriel est noté E∗ et est appelé le dual de E. Les éléments de E∗ sont appelés des formes linéaires de E. Chapitre II Matrices II.1 Définition Soient n, p ∈ N∗ . On appelle matrice de type (n, p) à coefficients dans K tout tableau de la forme : a11 a12 . . . a1p a 21 a22 . . . a2p A = .. .. .. . . . an1 an2 . . . anp où les ai j sont dans K. La matrice A a n lignes et p colonnes. Les scalaires ai j sont appelés les coefficients de A. Le coefficient ai j est situé sur la i e ligne et sur la j e colonne. La matrice A se note brièvement ai j 1¶i¶n ou ai j . La suite 1¶ j¶p e ai1 , . . . , ai p est appelée la i ligne de A. La suite a1 j , . . . , an j est appelée la i e colonne de A. Chaque ligne (resp. colonne) de A peut s’identifier à un vecteur d’espace vectoriel K p (resp. Kn ) appelé vecteur ligne (resp. vecteur colonne) de A. Si K = R (resp. si K = C) la matrice A est dite réelle (resp. complexe). L’ensemble des matrices de type (n, p) à coefficients dans K est noté Mnp (K). On note Mn (K) l’ensemble Mnn (K). II.2 Matrices particulières Soient n, p ∈ N∗ et soit A = ai j une matrice de type (n, p) à coefficients dans K. 1. Si p = 1, on dit que A est une matrice colonne. 28 CHAPITRE II. MATRICES 29 2. Si n = 1, on dit que A est une matrice ligne. 3. Si tous les ai j sont nuls, on dit que A est la matrice de type (n, p) à coefficients nuls dans K. On la note 0 ou 0np . 4. Si n = p, lamatrice A est dite carrée d’ordre n. Dans ce cas, la suite a11 , . . . , ann est appelée la diagonale principale de A. 5. Si A est carrée et si tous les coefficients situés en dehors de la diagonale principale sont nuls, à savoir ai j = 0 dès que i 6= j, on dit alors que A est une matrice diagonale. 6. Si A est carrée et si tous les coefficients situés strictement au dessus de la diagonale principale sont nuls, à savoir ai j = 0 dès que j > i, on dit que A est triangulaire inférieure. De même, si tous les coefficients situés strictements en dessous de la diagonale principale sont nuls, c’est à dire si ai j = 0 dès que i > j, on dit que A est trangulaire supérieure. 7. Si A est carrée et si ai j = a ji pour tous i, j, on dit que A est une matrice carrée symétrique. 8. La matrice diagonale dont tous les coefficients situés sur la diagonale principale valent 1 est notée In ou I, et est appelée la matrice unité d’ordre n (à coefficients dans K). II.3 Opérations sur les matrices 3.0.1 Proposition. Soient n, p ∈ N∗ . Sur Mnp (K) définissons une addition de la façon suivante : si A = ai j et si B = bi j appartiennent à Mnp (K), on pose A + B = C avec C = ci j et ci j = ai j + bi j pour tous i ∈ {1, . . . , n} et j ∈ 1, . . . , p . Définissons également sur Mnp (K) une loi externe de domaine d’opérateurs K en associant à tout λ ∈ K et à tout A = ai j ∈ Mnp (K) l’élément λA = λai j de Mnp (K). On munit ainsi Mnp (K) d’une structure d’espace vectoriel sur K. L’élément nul de Mnp (K) est 0np . L’opposée de A = ai j , notée −A, est −ai j . 3.1 Matrices élémentaires Soient n, p ∈ N∗ . Pour tous i ∈ {1, . . . , n} et j ∈ 1, . . . , p la matrice élémentaire Ei j de Mnp (K) est par définition celle dont tous les coefficients sont nuls, excepté celui qui est sur la i e ligne et sur la j e colonne, qui lui vaut 1. Il est immédiat que les Ei j forment une base de Mnp (K). En particulier l’espace vectoriel Mnp (K) est de dimension finie np. CHAPITRE II. MATRICES 3.2 30 Transposition Soient A = ai j ∈ Mnp (K). La transposée de A, notée t A, est l’élément bi j de M pn (K) défini par bi j = a ji . Il est immédiat que l’application A → t A : Mnp (K) → M pn (K) est linéaire. Remarque. Si A ∈ Mnp (K), il peut être commode de noter Ai j le coefficient de A situé sur la i e ligne et sur la j e colonne. Exemple. Soient A, B ∈ Mnp (K). Alors on a t (A + B) = t A + t B. t (A + B) et t A + t B appartiennent à Mnp (K). Soient i ∈ 1, . . . , p et j ∈ {1, . . . , n}. Alors on a : t 3.3 (A + B) i j = (A + B) ji = A ji + B ji = ( t A)i j + ( t B)i j = t A + tB ij Produit de matrices Soient n, p, q ∈ N∗ . Soient A = ai j ∈ Mnp (K) et B = bkl ∈ Mqn (K). Le produit BA de B par A est par définition l’élément ci j de Mqp (K) tel que ci j = n X bik · ak j k=1 pour tous i ∈ 1, . . . , q et j ∈ 1, . . . , p . Cette définition a un sens car le nombre de colonnes de B est égal au nombre de lignes de A. 3.4 Matrices carrées Soit n ∈ N∗ . D’après 3.0.1, Mn (K) est canoniquement un espace vectoriel sur K. On peut munir Mn (K) d’une seconde loi interne, à savoir le produit de matrice. L’ensemble Mn (K) muni de l’addition et de la multiplication est un anneau unitaire ; l’élément neutre pour la multiplication est In . L’ensemble des éléments inversibles de cet anneau unitaire est un groupe pour la multiplication. Ce groupe est appelé le groupe linéaire d’ordre n sur K et il est noté GLn (K). Exercice. Vérifier en détail toutes les propriétés données dans II.3. II.4 Matrices et applications linéaires 4.0.1 Définition. Soient finie sur E et F deux espaces vectoriels de dimension K. Soit E = e1 , . . . , e p une base de E et soit F = f1 , . . . , f n une base de CHAPITRE II. MATRICES 31 F. Soit u ∈ L (E, F). On appelle matrice de u par rapport aux bases E et F l’élément de Mnp (K), noté MF E (u), dont la j e colonne est constituée par les coordonnées u(e j ) par rapport à F . Si E = F, on écrit ME (u) au lieu de ME E (u). 4.0.2 Théorème. Notations de 4.0.1. Alors l’application Φ : L (E, F) 7→ Mnp (K) définie par Φ(u) = MF E (u) est un isomorphisme d’espaces vectoriels (linéaire et bijective). Démonstration. Le fait que Φ soit bijective découle de 7.4.3. Montrons que Φ est linéaire. Soient u, v ∈ L (E, F) et λ ∈ K, on doit que Φ(u+ v) montrer = Φ(u) + Φ(v) et Φ(λu) = λΦ(u). On a MF E (u) = ai j et MF E (v) = bi j . Pour tout j ∈ 1, . . . , p on a : (u + v)(e j ) = u(e j ) + v(e j ) n n X X bi j f i ai j f i + = i=1 i=1 = n X ai j + bi j f i i=1 On a par conséquent MF E (u + v) = MF E (u) + MF E (v). De même M(λu) = λM(u). 4.0.3 Théorème. Soient E, F, G des espaces vectoriels de dimension finie sur K. Soient E = e1 , . . . , e p une base de E, F = f1 , . . . , f n une base de F et G = g1 , . . . , gq une base de G. Soient u ∈ L (E, F) et v ∈ L (F, G). Alors : MG E (v ◦ u) = MG F (v)MF E (u) Démonstration. Posons MF E (u) = ai j et MG F (v) = 1, . . . , p on a : (v ◦ u)(e j ) = v u(e j ) ! n X =v ak j f k k=1 = n X ak j v( f k ) k=1 = = n X ak j q X bik g i i=1 k=1 q X n X i=1 k=1 ! bi j ak j gi bkl . Pour tout j ∈ CHAPITRE II. MATRICES 32 ce qui établit 4.0.3. 4.1 Remarques utiles En utilisant 4.0.2 et 4.0.3, on peut obtenir des propriétés concernant les matrices en s’appuyant sur des propriétés qui concernent des applications linéaires, et inversement. Exemples. Soient E, F, G des espaces vectoriels sur K et soient u1 , u2 ∈ L (E, F) et v1 , v2 ∈ L (F, G). Il est immédiat que l’on a v ◦ (u1 + u2 ) = v1 ◦ u1 + v1 ◦ u2 et (v1 + v2 ) ◦ u1 = v1 ◦ u1 + v2 ◦ u1 . Il en résulte que si A1 , A2 ∈ Mnp (K) et si B1 , B2 ∈ Mqn (K), on a B1 (A1 +A2 ) = B1 A1 +B1 A2 et (B1 +B2 )A1 = B1 A1 +B2 A2 . Soient E, F, G, H des espaces vectoriels sur K et soient u ∈ L (E, F), v ∈ L (F, G), w ∈ L (G, H). Il est immédiat que (w ◦ v)◦u = w ◦(v ◦u). On en déduit que si A ∈ Mnp (K), B ∈ Mqn (K) et si C ∈ Mnq (K), on a (CB)A = C(BA). Exercice. Démontrer ceci directement avec les matrices en vérifiant : [(CB)A]i j = [C(BA)]i j Exemple. Soient E et F des espaces vectoriels sur K de dimension finie p et n. On a vu en 3.1 que Mnp (K) et de dimension finie np ; il en résulte que L (E, F) est de dimension finie np. 4.2 Notation matricielle d’une application linéaire Dans tout 4.2, E et F sont des espaces vectoriels de dimension finiesur K. On munit E d’une base E = e1 , . . . , e p et F d’une base F = f1 , . . . , f n . 4.3 Notation et définition Soit x ∈ E. On a x = Pp αi ei de manière unique. On pose : α .1 ME (x) = .. ∈ Mnp (K) αp i=1 On dit que ME (x) est la matrice de x par rapport à E . Deux vecteurs x 1 et x 2 de E sont égaux si et seulement si ME (x 1 ) = ME (x 2 ). 4.3.1 Proposition. Soit u ∈ L (E, F). Alors pour tout x ∈ E, on a : MF (u(x)) = MF E (u)ME (x) CHAPITRE II. MATRICES 33 Démonstration. Exercice. 4.3.2 Théorème. Soit E un espace vectoriel de dimension finie sur K et soit E = e1 , . . . , en une base de E. Alors l’application Φ : L (E) 7→ Mn (K) définie par : Φ(u) = ME (u) est un isomorphisme d’anneaux unitaires. En particulier, on a : Φ (GL(E)) = GLn (K) Démonstration. Conséquence de 4.0.2 et 4.0.3. II.5 Rang d’une matrice 5.0.1 Définition. Soit A ∈ Mnp (K). Posons A = ai j . Désignons par E un espace vectoriel finie sur K de dimension n et choisissons dans E une base E = e1 , . . . , en 1 . Pour tout j ∈ 1, . . . , p , posons : vj = n X ai j ei i=1 Si on a choisi (E, E ) égal à Kn avec sa base canonique, v j n’est autre que le j e vecteur colonne de la matrice A. On appelle rang de A, noté rang A ou rg A, le rang de la suite finie v1 , . . . , vp de vecteurs de E. Il résulte de 7.4.3 que cette définition ne dépend pas du couple (E, E ) choisi. 5.0.2 Proposition. Soient E et F des espaces vectoriels de dimension finie sur K, E = e1 , . . . , e p une base de E, et F = f1 , . . . , f n une base de F. Soit u ∈ L (E, F). Alors on a : rang u = rang MF E (u) Démonstration. Posons A = ai j = MF E (u). On a : rang u = dim Im u = rang u(e1 ), . . . , u(e p ) (voir 7.4) Pn Pour tout j ∈ 1, . . . , p soit v j = i=1 ai j f i . On a rang A = rang v1 , . . . , vp par définition de rang A. On a donc rang u = rang A car u(e1 ) = v1 , . . . , v(e p ) = vp par définition de MF E (u). 5.0.3 Proposition. Soit A ∈ Mnp (K). Alors on a : rang( t A) = rang A 1 En pratique, (E, E ) sera le plus souvent Kn muni de sa base canonique. CHAPITRE II. MATRICES II.6 6.1 34 Matrices carrées inversibles Définitions et rappels Soit A ∈ Mn (K). On dit que A est inversible s’il existe B ∈ Mn (K) tel que AB = In et BA = In (voir 3.4). S’il existe une telle matrice B, elle est unique ; en effet soient B1 , B2 ∈ Mn (K) tels que AB1 = B1 A = In et AB2 = B2 A = In ; on a: B1 = B1 In = B1 (AB2 ) = (B1 A)B2 = In B2 = B2 Cette matrice B est notée A−1 et est appelée l’inverse de A dans Mn (K). 6.1.1 Proposition. Soit E un espace vectoriel de dimension finie n sur K et soit E une base de E. Soit u ∈ L (E). Alors u est bijective si et seulement si ME (u) est inversible. De plus, si u est bijective, alors : −1 ME (u−1 ) = ME (u) Démonstration. Conséquence de 4.3.2. 6.1.2 Proposition. Soient A, B ∈ Mn (K). Les conditions suivantes sont équivalentes : 1. A est inversible et B est son inverse, c’est à dire AB = In et BA = In . 2. AB = In . Démonstration. Introduire un espace vectoriel E de dimension finie n sur K ; choisir une base E de E ; considérer les deux éléments u et v de L (E) tels que ME (u) = A et ME (v) = B. L’hypothèse 2 signifie que u ◦ v = IdE . Remarque. Si A ∈ Mn (K) et si A est inversible, alors A−1 est inversible et (A−1 )−1 = A. 6.1.3 Proposition. Soit A ∈ Mn (K). Alors A est inversible si et seulement si rang A = n. Démonstration. Soit E un espace vectoriel de dimension n sur K et soit E une base de E. Soit u l’unique élément de L (E) tel que ME (u) = A. D’après 7.4.2, u est bijective si et seulement si rang u = n. D’après 6.1.1, u est bijective si et seulement si A est inversible, et d’après 5.0.2, rang u = rang A. Par conséquent A est inversible si et seulement si rang A = n. CHAPITRE II. MATRICES II.7 35 Changement de base 7.0.1 Définition. Soit E un de dimension finie p sur K. Soient espace vectoriel 0 0 0 E = e1 , . . . , e p et E = e1 , . . . , e p deux bases de E. On appelle matrice de passage de la base E à la base E 0 la matrice de l’application linéaire : IdE : (E, E 0 ) 7→ (E, E ) On la note PE E 0 . La j e colonne de PE E 0 est donc constituée par les coordonnées de e0j par rapport à E . 7.0.2 Proposition. Notations de 7.0.1. Alors PE E 0 est un élément inversible de M p (K) et l’on a : −1 PE E 0 = PE 0 E Démonstration. En effet : I p = ME (IdE ) = ME E 0 (IdE )ME 0 E (IdE ) = PE E 0 PE 0 E Pour mieux comprendre cette ligne, considérer le diagramme : IdE IdE (E, E ) −→ (E, E 0 ) −→ (E, E ) 7.0.3 Proposition. Notations de 7.0.1. Soit x un vecteur de E. Alors on a : ME (x) = PE E 0 ME 0 (x) Démonstration. Conséquence de la proposition 2 de 4.2. 7.0.4 Proposition. Soient E et F des espaces vectoriels de dimension finie sur K. Soient E et E 0 des bases de E, et soient F et F 0 des bases de F. Soit u ∈ L (E, F). Alors on a : MF 0 E 0 (u) = PF 0 F MF E (u)PE E 0 M (u)PE E 0 = P−1 FF0 FE Démonstration. Il suffit de considérer le diagramme : IdE u IdF → (F, F ) −→ (F, F 0 ) (E, E 0 ) −→ (E, E ) − et d’appliquer 4.0.3. CHAPITRE II. MATRICES 36 7.0.5 Corollaire. Soit E un espace vectoriel de dimension finie sur K, et soient E et E 0 des bases de E. Soit u ∈ L (E). Alors on a : ME 0 (u) = PE 0 E ME (u)PE E 0 M (u)PE E 0 = P−1 EE0 E 7.0.6 Définitions. 1. Soient A, B ∈ Mnp (K). On dit que A et B sont équivalentes s’il existe R ∈ M p (K) et S ∈ Mn (K) inversibles et telles que B = SAR. 2. Soient A, B ∈ Mn (K). On dit que A et B sont semblables s’il existe P ∈ Mn (K) inversible et telle que B = P−1 AP. Chapitre III Déterminants III.1 Permutations d’un ensemble fini Rappel. Soit E = {1, . . . , n}. On appelle permutation de E toute bijection de E sur E. Une permutation ϕ de E peut se noter : 1 2 ... n ϕ= ϕ(1)ϕ(2) . . . ϕ(n) Il y a n! permutations de E. Pour la composition des applications, l’ensemble des permutations de E est un groupe appelé le groupe symétrique d’ordre n, et noté Sn . On appelle transposition de E toute permutation de E qui échange deux éléments distincts i et j de E en laissant tous les autres fixes. Une telle transposition est notée t i j . Notons que t i j = t ji = t i−1 . j 1.0.1 Théorème. Soit ϕ une permutation de E = {1, . . . , n}. Alors il existe k transpositions t 1 , . . . , t k de E telles que ϕ = t k ◦ t k−1 ◦ · · · ◦ t 1 . Une telle décomposition de ϕ n’est pas unique. Toutefois, pour une permutation donnée ϕ de E, k est toujours pair, ou k est toujours impair. Démonstration. Admis ; par récurrence. 1.0.2 Définitions. Soit ϕ une permutation de {1, . . . , n}. Soient t 1 , . . . , t k des transpositions de E telles que ϕ = t k ◦ · · · ◦ t 1 . Le nombre (−1)k , qui ne dépend que de ϕ, est appelé la signature de ϕ et est noté "(ϕ). Si "(ϕ) = 1, on dit que ϕ est paire, et si "(ϕ) = −1 on dit que ϕ est impaire. Toute transposition de E est ainsi impaire. 1.0.3 Proposition. Soient ϕ1 et ϕ2 deux permutations de E. Alors on a : " ϕ1 ◦ ϕ2 = "(ϕ1 )"(ϕ2 ) 37 CHAPITRE III. DÉTERMINANTS 38 Démonstration. Soient t 1 , . . . , t k et τ1 , . . . , τ` des transpositions de E telles que ϕ1 = t k ◦ · · · ◦ t 1 et ϕ2 = τ` ◦ · · · ◦ τ1 . On a : ϕ1 ◦ ϕ2 = t k ◦ · · · ◦ t 1 ◦ τ` ◦ · · · ◦ τ1 D’où : "(ϕ1 ◦ ϕ2 ) = (−1)k+` = (−1)k (−1)` = "(ϕ1 )"(ϕ2 ) Remarques. 1. Soient ϕ1 et ϕ2 des permutations de E. Si ϕ1 et ϕ2 sont toutes deux paires ou impaires, ϕ1 ◦ ϕ2 est paire. Si l’une est paire et l’autre impaire, ϕ1 ◦ ϕ2 est impaire. 2. Soit ϕ une permutation de E. On a ϕ ◦ ϕ −1 = IdE donc : "(ϕ ◦ ϕ −1 ) = "(ϕ)"(ϕ −1 ) = "(IdE ) = 1 ϕ et ϕ −1 ont donc la même parité. 3. Il découle de 1 et 2 que l’ensemble des permutations paires de E est un sous-groupe de Sn . On le note An et l’appelle le groupe alterné d’ordre n. 4. Soit t une transposition de E. Soit In l’ensemble des permutations impaires de E. Alors f : An 7→ In définie par f (ϕ) = ϕ ◦ t est bijective. D’autre part, si Ψ ∈ In alors Ψ ◦ t ∈ An et f (Ψ ◦ t) = Ψ ◦ t ◦ t = Ψ. Il y a donc n!2 permutations paires de E et n!2 permutations impaires de E. III.2 Formes multilinéaires 2.0.1 Définition. Soit E un espace vectoriel sur K et soit p ∈ N∗ . On appelle forme p-linéaire sur E toute application f de l’ensemble E p dans K et linéaire par rapport à chaque variable ; c’est à dire que si ai est fixé dans E pour tout i ∈ 1, . . . , p avec i 6= j où j est fixé entre 1 et p, l’application x → f a1 , . . . , a j−1 , x, a j+1 , . . . , a p : E → K est linéaire. Une forme p-linéaire f sur E est dite alternée si l’on a f x 1 , . . . , x p = 0 dès qu’il existe i, j ∈ 1, . . . , p tels que i 6= j et x i = x j . CHAPITRE III. DÉTERMINANTS 39 2.0.2 Proposition. Soit E un espace vectoriel sur K et soit f une forme p-linéaire alternée sur E. Alors : 1. Pour toute permutation ϕ de 1, . . . , p , on a : f x ϕ(1) , . . . , x ϕ(p) = "(ϕ) f (x 1 , . . . , x p ) pour tout x 1 , . . . , x p ∈ E p . 2. Si x 1 , . . . , x p est une suite liée de vecteurs de E, on a f (x 1 , . . . , x p ) = 0. 3. Soit x 1 , . . . , x p une suite de vecteurs de E. Alors f x 1 , . . . , x p n’est pas modifié quand on ajoute à l’un des x i une combinaison linéaire des x j d’indices j distincts de i. Démonstration. 1. Compte tenu de 1.0.1, on peut supposer que ϕ est une transposition t i j avec i < j. On a alors : f x 1 , . . . , x i−1 , x i + x j , x i+1 , . . . , x j−1 , x i + x j , x j+1 , . . . , x p = 0 On a donc : f x 1 , . . . , x i−1 , x i , x i+1 , . . . , x j−1 , x i + x j , x j+1 , . . . , x p +f x 1 , . . . , x i−1 , x j , x i+1 , . . . , x j−1 , x i + x j , x j+1 , . . . , x p = 0 f x 1 , . . . , x i−1 , x i , x i+1 , . . . , x j−1 , x i , x j+1 , . . . , x p +f x 1 , . . . , x i−1 , x i , x i+1 , . . . , x j−1 , x j , x j+1 , . . . , x p +f x 1 , . . . , x i−1 , x j , x i+1 , . . . , x j−1 , x i , x j+1 , . . . , x p +f x 1 , . . . , x i−1 , x j , x i+1 , . . . , x j−1 , x j , x j+1 , . . . , x p = 0 f x 1 , . . . , x i−1 , x j , x i+1 , . . . , x j−1 , x i , x j+1 , . . . , x p = −f x 1 , . . . , x i−1 , x i , x i+1 , . . . , x j−1 , x j , x j+1 , . . . , x p Et ainsi : D’où : Or "(t i j ) = −1. CHAPITRE III. DÉTERMINANTS 40 2. Comme la suite x 1 , . . . , x p est liée, l’un des x i est combinaison linéaire des x j d’indices j différents de i ; on peut supposer que i = 1. On a alors : x 1 = α2 x 2 + · · · + α p x p avec α j ∈ K et j = 2, . . . , p D’où : f p X x1, . . . , x p = f ! α j x j , x2, . . . , x p j=2 = p X αj f x j , . . . , x2, . . . , x p j=2 = p X j=2 III.3 αj0 = 0 ·· + 0 } | + ·{z p−1 fois Formes n-linéaires alternées sur un espace vectoriel de dimension finie n 3.0.1 Proposition. Soit E un espace vectoriel sur K de dimension finie n et soit E = e1 , . . . , en une base de E. Soit x 1 , . . . , x n une suite de n vecteurs de E. On a: n X ai j ei pour j = 1, . . . , n xj = i=1 Alors pour toute forme n-linéaire alternée f sur E, on a : ! X f x1, . . . , x n = "(ϕ)aϕ(1)1 . . . aϕ(n)n f e1 , . . . , en ϕ∈Sn En particulier, deux formes f et g sur E sont égales si et n-linéaires alternées seulement si f e1 , . . . , en = g e1 , . . . , en . Démonstration. On a : X f x1, . . . , x n = aϕ(1)1 . . . aϕ(n)n f eϕ(1) , . . . , eϕ(n) ϕ∈Sn CHAPITRE III. DÉTERMINANTS 41 La somme étant étendue à l’ensemble de toutes les applications ϕ de {1, . . . , n} dans {1, . . . , n}. Lorsque ϕ n’est pas bijective, ou de manière équivalente quand elle n’est pas injective, on a f eϕ(1) , . . . , eϕ(n) = 0. Par conséquent : X f x1, . . . , x n = aϕ(1)1 . . . aϕ(n)n f eϕ(1) , . . . , eϕ(n) ϕ∈Sn La proposition 2.0.2 permet de conclure. 3.0.2 Théorème. Soit E un espace vectoriel sur K de dimension finie n et soit E = e1 , . . . , en une base de E. Alors,il existe une et une seule forme n-linéaire alternée P f sur E telle que f e1 , . . . , en = 1. n Si x j = i=1 ai j ei pour j = 1, . . . , n sont n vecteurs de E, alors on a : X f x1, . . . , x n = "(ϕ)aϕ(1)1 . . . aϕ(n)n (1) ϕ∈Sn Démonstration. L’unicité résulte de 3.0.1. Un calcul élémentaire montre que l’application f : En 7→ K définie par la formule (1) est une forme n-linéaire alternée sur E telle que f e1 , . . . , en = 1. Remarque. Soit E un espace vectoriel sur K de dimension finie n et soit E = e1 , . . . , en une base de E. Il résulte de 3.0.1 qu’une forme n-linéaire alternée f sur E est identiquement nulle si et seulement si f e1 , . . . , en = 0. Notation. Soit E un espace vectoriel sur K de dimension finie n, et soit E = e1 , . . . , en une base de E. Soit f l’unique forme n-linéaire alternée sur E telle que f e1 , . . ., en = 1. Alors pour toute suite x 1 , . . . , x n de n vecteurs de E, f x 1 , . . . , x n est noté détE x 1 , . . . , x n et appelé le déterminant de la suite x 1 , . . . , x n par rapport à E . 3.0.3 Proposition. Reprenons les notations de 3.0.1. Alors : Pn 1. Si x j = i=1 ai j ei pour j = 1, . . . , n sont n vecteurs de E, on a : X détE x 1 , . . . , x n = "(ϕ)aϕ(1)1 . . . aϕ(n)n ϕ∈Sn 2. On a détE e1 , . . . , en = 1. 3. détE x 1 , . . . , x n dépend linéairement de chaque x i . 4. détE x 1 , . . . , x n = 0 dès qu’il existe i, j ∈ {1, . . . , n} avec i 6= j et x i = x j . 5. Si ϕ ∈ Sn , détE x ϕ(1) , . . . , x ϕ(n) = "(ϕ) détE x 1 , . . . , x n . 6. détE x 1 , . . . , x n n’est pas modifié quand on ajoute à l’un des x i une combinaison linéaire des x j d’indices j différents de i. CHAPITRE III. DÉTERMINANTS 42 7. Pour que la suite x 1 , . . . , x n soit libre, il faut et il suffit que détE x 1 , . . . , x n soit différent de 0. Démonstration. Les 6 premières propriétés ont déjà été signalées. Vérifions le 7. Si détE x 1 , . . . , x n 6= 0, la suite x 1 , . . . , x n est libre d’après le 2 de 2.0.2. Inversement, si la suite x 1 , . . . , x n est libre c’est une base de E, et d’après III.3 on a détE x 1 , . . . , x n 6= 0. En effet, la forme n-linéaire alternée qui à tout x 1 , . . . , x n ∈ En associe détE x 1 , . . . , x n n’est pas identiquement nulle. 3.0.4 Proposition. Soit E un espace vectoriel sur K de dimension finie n et soit E = e1 , . . . , en une base de E. Soit f une forme n-linéaire alternée sur E. Alors pour toute suite x 1 , . . . , x n de n vecteurs de E, on a : f x 1 , . . . , x n = f e1 , . . . , en détE x 1 , . . . , x n Démonstration. Soit g : En 7→ K définie par : g x 1 , . . . , x n = f e1 , . . . , en détE x 1 , . . . , x n g est une forme n-linéaire alternée sur E et elle coïncide avec f en e1 , . . . , en . D’après 3.0.1, on a f = g. Remarque. Soit E un espace vectoriel sur K de dimension finie n. Il est immédiat que l’ensemble des formes n-linéaires alternées sur E est un sous-espace vectoriel de F (En , K). D’après 3.0.4, ce sous-espace vectoriel est de dimension 1. III.4 4.1 Déterminant d’une matrice carrée Notations et définition Soit A ∈ Mn (K). On a : a ... .11 . A= . an1 . . . a1n .. . ann Les colonnes de A représentent des vecteurs x 1 , . . . , x n de K (voir III.1). Soit E la base canonique de Kn . On appelle déterminant de A, noté dét A, le scalaire détE (x 1 , . . . , x n ). Il résulte de 3.0.3 que l’on a : X dét A = "(ϕ)aϕ(1)1 . . . aϕ(n)n ϕ∈Sn CHAPITRE III. DÉTERMINANTS 43 Ce déterminant se note aussi : a 11 . . . .. . an1 . . . a1n .. . ann Exemples. 1. On a dét In = 1 et dét 0n = 0. 2. Considérons : a ... .11 A = .. an1 . . . a1n .. . ann élément de Mn (K). (a) Si n = 1, dét A = a11 . (b) Si n = 2, les éléments de S2 sont : 1 2 S1 = et 1 2 "(ϕ1 ) = 1 1 S2 = 2 dét A = a11 a22 − a21 a12 2 1 "(ϕ2 ) = −1 (c) Si n = 3 : 1 S1 = 1 2 3 2 3 "(ϕ1 ) = 1 1 S4 = 2 2 3 3 2 "(ϕ2 ) = −1 2 3 1 3 "(ϕ4 ) = −1 1 S2 = 1 1 S5 = 2 2 3 2 1 "(ϕ3 ) = −1 2 3 3 1 "(ϕ5 ) = 1 1 S3 = 3 1 S6 = 3 2 3 1 2 "(ϕ6 ) = 1 On a donc : dét A =a11 a22 a33 − a11 a32 a23 − a31 a22 a13 − a21 a12 a33 + a21 a32 a13 + a31 a12 a23 CHAPITRE III. DÉTERMINANTS 44 Remarque. Soit E un espace vectoriel sur K de dimension finie n, Pnet soit E une base de E. Soit x 1 , . . . , x n une suite de n vecteurs. On a x j = i=1 ai j ei pour j = 1, . . . , n et où ai j ∈ K. Il est immédiat que : détE (x 1 , . . . , x n ) = dét ai j a . . . a 1n 11 . .. = .. . an1 . . . ann X = "(ϕ)aϕ(1)1 . . . aϕ(n)n ϕ∈Sn 4.1.1 Proposition. Soit A ∈ Mn (K). Alors : 1. dét A dépend linéairement de chaque colonne de A. 2. Si l’une des colonnes de A est multiple d’une autre colonne, en particulier si l’une des colonnes est nulle, où s’il y a deux colonnes égales, on a dét A = 0. 3. Si l’on fait subir aux colonnes de A une permutation ϕ, dét A est multiplié par "(ϕ). En particulier, si l’on permute deux colonnes de A, dét A change de signe. 4. dét A ne change pas quand on ajoute à l’une des colonnes une combinaison linéaire des autres (au sens strict) colonnes. Démonstration. Conséquence de 3.0.3. 4.1.2 Proposition. Soit A ∈ Mn (K). Alors on a : dét t A = dét A Démonstration. On a A = ai j . X dét A = "(ϕ)aϕ(1)1 . . . aϕ(n)n ϕ∈Sn = X "(ϕ −1 )a1ϕ −1 (1) . . . anϕ −1 (n) ϕ∈Sn = dét t A On a utilisé le fait que "(ϕ) = "(ϕ −1 ) et que ϕ → ϕ −1 : Sn → Sn est bijective. 4.1.3 Corollaire. La proposition 4.1.1 reste vraie si l’on remplace partout le mot « colonne » par le mot « ligne ». CHAPITRE III. DÉTERMINANTS 45 4.1.4 Proposition. Soit A ∈ Mn (K). Les conditions suivantes sont équivalentes : 1. A est inversible. 2. La suite x 1 , . . . , x n des vecteurs colonnes de A est de rang n. Autrement dit rang A = n. 3. La suite x 1 , . . . , x n de vecteurs de Kn est libre. 4. détE (x 1 , . . . , x n ) 6= 0, où E est la base canonique de Kn . 5. dét A 6= 0. 4.1.5 Proposition. Soient A, B ∈ Mn (K). Alors : dét(AB) = (dét A)(dét B) Démonstration. Admis. 4.1.6 Corollaire. Soit A ∈ Mn (K). Si A est inversible, alors : dét(A−1 ) = (dét A)−1 Démonstration. On a AA−1 = In donc : dét(AA−1 ) = (dét A)(dét A−1 ) = dét In = 1 Remarque. Soient A ∈ Mn (K) et λ ∈ K. 1. Si on multiplie une colonne (ou une ligne) de A par λ, dét A est multiplié par λ. 2. On a dét(λA) = λn dét(A). Exemple. Considérons : 5 3 4 2 6 −5 = dét A −8 13 6 où A ∈ Mn (R) On a : 5 5 5 −1 4 3 4 4 4 2 = 2 −5 −5 + 2 11 −5 6 −5 −8 13 6 −8 7 6 −8 6 6 CHAPITRE III. DÉTERMINANTS 4.2 46 Notation et définition Soit A ∈ Mn (K). La matrice déduite de A en supprimant la i e ligne et j e colonne est notée Ai j . Le scalaire (−1)i+ j , déterminant de Ai j , est appelé le cofacteur d’indices i, j dans A. 4.2.1 Proposition. Soit A ∈ Mn (K). On a A = ai j . Pour tous i, j ∈ {1, . . . , n} notons Di j le cofacteur d’indices i, j dans A. Alors : 1. Pour tout i ∈ {1, . . . , n}, on a : dét A = ai1 Di1 + · · · + ain Din Cette égalité s’appelle le développement de dét A suivant la i e ligne. 2. Pour tout j ∈ {1, . . . , n} on a : dét A = a1 j D1 j + · · · + an j Dn j Cette égalité s’appelle le développement de dét A suivant la j e colonne. Démonstration. Démontrons le 2 (ce qui suffit d’après 4.1.2). On peut supposer que j = 1 (voir le 3 de 4.1.1). Soit E = e1 , . . . , en la base canonique de Kn et soit x 1 , . . . , x n la suite des vecteurs colonnes de A. On a : x1 = n X ai1 ei i=1 Donc : dét A = détE (x 1 , . . . , x n ) = détE n X ! ai1 ei , x 2 , . . . , x n i=1 = n X détE ai1 ei , x 2 , . . . , x n i=1 0 a12 . . . .. .. . . .. . n 0 X a a = i2 . . . i1 . i=1 .. 0 . .. .. . 0 a n2 . . . a1n .. . .. . ain .. . .. . a nn CHAPITRE III. DÉTERMINANTS 47 On voit aisément que le premier terme de cette somme est : X a11 "(ϕ)aϕ(2)2 . . . aϕ(n)n ϕ∈Sn c’est à dire a11 D11 ; on en déduit que le i e terme est égal à ai1 Di1 . 4.2.2 Définition. Soit A ∈ Mn (K). On appelle matrice extraite de A toute matrice obtenue à partir de A en enlevant certaines lignes et certaines colonnes. 4.2.3 Proposition. Soit A ∈ Mnp (K). Alors le rang r de A est égal au plus grand entier s tel que l’on puisse extraire de A une matrice carrée d’ordre s de déterminant non nul. Démonstration. Admis. III.5 Calcul de l’inverse d’une matrice carrée inversible 5.0.4 Définition. Soit A ∈ Mn (K). On appelle matrice des cofacteurs de A la matrice de Mn (K) dont le coefficient situé sur la i e ligne et sur la j e colonne est le cofacteur d’indices i, j dans A ; c’est à dire (−1)i+ j dét Ai j . 5.0.5 Proposition. Soit A ∈ Mn (K) et soit L la matrice des cofacteurs de A. Alors on a : A t L = t L A = (dét A) In Démonstration. Pour tous i, j ∈ {1, . . . , n} soit Di j le cofacteur de i, j dans A. Le coefficient de A ( t L) situé sur la i e ligne et sur la j e colonne est : ai1 D j1 + · · · + ain D jn (1) où ai j est le coefficient de A situé sur la i e ligne et sur la j e colonne. Il résulte de 4.2.1 que (1) est nul si i 6= j et égal à dét A si i = j. On a donc : A t L = (dét A) In On a de même : t L A = (dét A) In 5.0.6 Corollaire. Soit A ∈ Mn (K) inversible. Alors on a : A−1 = 1 dét A t L CHAPITRE III. DÉTERMINANTS III.6 48 Systèmes d’équations linéaires 6.0.7 Définition. On appelle système de n équations linéaires à p inconnues tout système de la forme : a x + a x + ··· + a x = b 12 2 1p p 1 11 1 a21 x 1 + a22 x 2 + · · · + a2p x p = b2 S = .. . an1 x 1 + an2 x 2 + · · · + anp x p = bn où les ai j et les bi sont des éléments donnés de K. Les inconnues x 1 , . . . , x p sont à chercher dans K. On appelle solution du système (S ) toute suite x 1 , . . . , x p d’éléments de K qui vérifie (S ). Résoudre (S ) consiste à trouver toutes ces solutions. Deux systèmes à p inconnues et à coefficients dans K sont dits équivalents s’ils ont les mêmes solutions. Les bi sont appelés les seconds membres de (S ) 1 . Si l’on a b1 = · · · = bn = 0, le système (S ) est dit homogène, ou sans second membre. Notons que (S ) admet alors la solution évidente x 1 = · · · = x p = 0, appelée solution nulle. Si les bi sont quelconques, le système obtenu à partir de (S ) en remplaçant les bi par 0 est appelé le système homogène, ou sans second membre, associé à (S ). 6.1 Notation matricielle Considérons à nouveau le système (S ) ci-dessus. Posons : a11 . . . a1p b1 x . . .1 . . .. , B = .. et X = .. A= . an1 . . . anp bn xp Alors il est immédiat que le système (S ) équivaut à l’équation matricielle : AX = B dans laquelle A et B sont connues et la matrice X inconnue. On dit que A est la matrice de (S ). 1 Ou encore : la suite b1 , . . . , bn est le second membre de (S ). (S 0 ) CHAPITRE III. DÉTERMINANTS 49 6.1.1 Proposition. 1. Les solutions de l’équation homogène AX = 0 associée à (S 0 ) constituent un sous-espace vectoriel N de M p1 (K). On connaît donc N dès lors qu’on en connaît une base. 2. Supposons que l’on connaisse une solution particulière X0 de (S 0 ). L’en semble des solutions de (S 0 ) est alors X0 + X1 /X1 ∈ N Démonstration. Le 1 est immédiat ; vérifions 2. Soit X ∈ M p1 (K). Alors : AX = B ⇐⇒ AX = AX0 ⇐⇒ A X − X0 = 0 ⇐⇒ X − X0 ∈ N ⇐⇒ X ∈ X0 + N 6.2 = X0 + X1 /X1 ∈ N Système de Cramer Notations de 6.0.7 et 6.1. Supposons que n = p et que la matrice A du système (S ) soit inversible. Le système (S ) est alors appelé un système de Cramer. Il admet une et une seule solution qui est : X = A−1 B Pour déterminer cette unique solution, on peut utiliser cette égalité, ou s’appuyer sur les formules suivantes dites de Cramer : b a . . . a 1n 1 12 .. .. . . bn an2 . . . ann , x1 = dét A a 11 b1 . . . a1n .. .. . . an1 bn . . . ann x2 = , dét A .. . a . . . a b 1,n−1 1 11 .. .. . . an1 . . . an,n−1 bn xn = dét A CHAPITRE III. DÉTERMINANTS 50 Établissons ces formules. On a : x t .1 L .. = A−1 B = B dét A xn où L est la matrice des cofacteurs de A. On a donc : xi = 1 dét A D1i b1 + · · · + Dni bn où Di j est le cofacteur d’indices i, j de A. On conclut en remarquant que D1i b1 + · · · + Dni bn est le développement suivant la i e colonne du déterminant de la b1 . matrice obtenue à partir de A en remplaçant la i e colonne par .. . bn 6.3 Systèmes linéaires quelconques On conserve les notations de 6.0.7 et 6.1. Le rang r de la matrice A du système (S ) est appelé le rang de (S ). Toutes les matrices carrées extraites de A dont l’ordre est strictement supérieur à r ont un déterminant nul. D’autre part il existe une matrice carrée extraite de A dont l’ordre est égal à r et dont le déterminant n’est pas nul (voir 4.2.3). Quitte à changer la numérotation des équations et des inconnues, on peut supposer que cette matrice est : a11 . . . a1r . .. .. M= . a r1 . . . a r r On dit alors que les r premières équations sont les équations principales (choisies) et que x 1 , . . . , x r sont les inconnues principales (choisies 2 ). 6.3.1 Proposition. Les conditions suivantes sont équivalentes : 1. Le système (S ) est compatible, ce qui signifie qu’il admet au moins une solution. 2 Ce choix n’est généralement pas unique. CHAPITRE III. DÉTERMINANTS 2. Pour tout i ∈ {r + 1, . . . , n}, on a : a11 . . . a1r . .. .. . a . . . a r1 rr a . . . a i1 ir 51 b1 .. . =0 b r b i Ces n − r déterminants sont appelés des déterminants caractéristiques de (S ). Démonstration. Admis. 6.3.2 Proposition. Supposons le système (S ) compatible. Alors les n − r dernières équations sont des conséquences automatiques des r premières. Pour résoudre (S ), il suffit donc de résoudre le système formé par les r premières équations. Pour résoudre ce système formé par les r premières équations, on résout le système de Cramer : a x + · · · + a x = −a 1r r 1,r+1 x r+1 − · · · − a1p x p + b1 11 1 .. . a r1 x 1 + · · · + a r r x r = −a r,r+1 x r+1 − · · · − a r p x p + b r Tout choix de valeurs pour x r+1 , . . . , x p dans K fournira une solution et une seule, et on les obtient toutes ainsi. Démonstration. Admis. Remarque. Soit A ∈ Mn (K). On a A = ai j . Supposons A inversible. Alors d’après 6.1.1, pour toute suite y1 , . . . , yn dans K, le système : a x + ··· + a x = y 1n n 1 11 1 .. . an1 x 1 + · · · + ann x n = yn a une et une seule solution. Sa résolution permet d’obtenir A−1 . On obtient en effet : x 1 = b11 y1 + · · · + b1n yn .. . x n = bn1 y1 + · · · + bnn yn et l’on a A−1 = bi j . Chapitre IV Réduction de matrices carrées IV.1 Valeurs propres, vecteurs propres, sous-espaces propres Dans tout IV.1, on désigne par E un espace vectoriel sur K. 1.0.1 Proposition. Soient F1 , . . . , F p des sous-espaces vectoriels de E et soit : ¦ © F = F1 + · · · + F p = x 1 + · · · + x p /x 1 ∈ F1 , . . . , x p ∈ F p On suppose que le sous-espace vectoriel F de E est somme directe de F1 , . . . , F p , ce que l’on écrit : F = F1 ⊕ · · · ⊕ F p et ce qui signifie que l’écriture de tout x de F sous la forme x = x 1 + · · · + x p avec x 1 ∈ F1 , . . . , x p ∈ F p est unique. Soient S1 = a1 , . . . , b1 une suite (finie) libre de vecteurs de F1 , . . ., S p = a p , . . . , b p une suite libre de vecteurs de F p . Alors : 1. La suite S = a1 , . . . , b1 , . . . , a p , . . . , b p de vecteurs de F est libre. 2. Si S1 est une base de F1 , . . ., si S p est une base de F p , alors S est une base de F. En particulier, si F1 , . . . , F p sont de dimensions finies, F est de dimension finie, et on a : dim F1 ⊕ · · · ⊕ F p = dim F1 + · · · + dim F p Démonstration. 1. Supposons que l’on ait : α1 a1 + · · · + β1 b2 + · · · + α p a p + · · · + β p b p = 0 52 CHAPITRE IV. RÉDUCTION DE MATRICES CARRÉES 53 avec αi , βi ∈ K. On veut montrer que les αi et les βi sont nuls. On a : 0E + · · · + 0E = 0E avec 0E ∈ F1 , . . . , 0E ∈ F p . Par conséquent, comme la somme de F1 , . . . , F p est directe, on a : α1 a1 + · · · + β1 b1 = 0 .. . αp ap + · · · + βp bp = 0 Comme S1 , . . . , S p sont libres, les αi et les βi sont tous nuls. 2. D’après 1, S est libre. Soit x ∈ F. On a : x = x1 + · · · + x p avec x 1 ∈ F1 , . . . , x p ∈ F p . Et on a : x 1 = α1 a1 + · · · + β1 b1 , . . . , x p = α p a p + · · · + β p b p car Si engendre Fi pour i = 1, . . . , p. Par conséquent : x = α1 a1 + · · · + β1 b1 + · · · + α p a p + · · · + β p b p 1.1 Notation et définition Soit u ∈ L (E). Pour tout λ ∈ K on pose : Eλ = Ker u − λ IdE = {x ∈ E/u(x) = λx} Si le sous-espace vectoriel Eλ de E n’est pas réduit à 0E , on dit que λ est une valeur propre de u, que Eλ est le sous-espace propre de u associé à λ, et que les vecteurs de Eλ autres que 0 sont les vecteurs propres de u associés à λ. 1.1.1 Proposition. Soit u ∈ L (E). Soient λ1 , . . . , λ p des scalaires deux à deux distincts, et soit F = Eλ1 + · · · + Eλp . Alors : F = Eλ1 ⊕ · · · ⊕ Eλp CHAPITRE IV. RÉDUCTION DE MATRICES CARRÉES 54 Démonstration. On raisonne par récurrence sur p. Si p = 1, c’est évident. Supposons la propriété vraie jusqu’à p−1 (p ¾ 2) ; montrons qu’elle est alors vraie pour p. Soit x ∈ F ; supposons que l’on ait : x = x 1 + · · · + x p = x 10 + · · · + x p0 avec x i , x i0 ∈ Eλi pour i = 1, . . . , p ; montrons que x i = x i0 pour i = 1, . . . , p, ce qui établira 1.1.1. On a : u(x) = p X u(x i ) = p X u(x i0 ) i=1 i=1 et donc : p X λi x i = i=1 p X λi x i0 (1) λ p x i0 (2) i=1 On a d’autre part : p X i=1 λp x i = p X i=1 La soustraction membre à membre de (1) et (2) donne : p−1 p−1 X X λi − λ p x i0 λi − λ p x i = i=1 i=1 Par application de l’hypothèse de récurrence, on a : λi − λ p x i = λi − λ p x i0 pour i = 1, . . . , p − 1 ; comme λi − λ p 6= 0, on obtient que : 0 x 1 = x 10 , . . . , x p−1 = x p−1 En utilisant l’égalité x 1 + · · · + x p = x 10 + · · · + x p0 , on obtient x p = x p0 . IV.2 Endomorphismes diagonalisables Dans tout IV.2 on désigne par E un espace vectoriel sur K de dimension finie n. CHAPITRE IV. RÉDUCTION DE MATRICES CARRÉES 55 2.0.2 Proposition. Soit u ∈ L (E). Alors u admet au plus n valeurs propres distinctes deux à deux. Démonstration. Soient λ1 , . .. , λ p des valeurs propres de u distinctes deux à deux. Pour tout i ∈ 1, . . . , p , on a : dim Eλi ¾ 1 car Eλi 6= {0} Par conséquent, on a : n = dim E ¾ dim Eλ1 ⊕ · · · ⊕ Eλp = dim Eλ1 + · · · + dim Eλp ¾ p (voir 1.0.1 et 1.1.1). 2.0.3 Définition. Soit u ∈ L (E). Désignons par λ1 , . . . , λ p les valeurs propres de u (sans répétition). On dit que u est diagonalisable si l’on a : Eλ1 ⊕ · · · ⊕ Eλp = E Supposons u diagonalisable ; diagonaliser u consiste alors en ceci : 1. On détermine une base Fi = ai , . . . , bi de Eλi ceci pour i = 1, . . . , p, et l’on écrit la matrice D de u par rapport à la base : F = a1 , . . . , b1 , . . . , a p , . . . , b p de E. On obtient : λ1 0 .. . MF (u) = D = .. . 0 0 ... .. .. . . .. . λ1 .. . λp .. . ... 0 .. . .. .. . . .. . 0 0 λp ... ... C’est une matrice diagonale ; chaque λi est écrit un nombre de fois égal à dim Eλi pour i = 1, . . . , p. 2. Si u est connue au moyen de sa matrice A par rapport à une base E de E, on détermine la matrice de passage P de E à F , et l’on écrit que D = P−1 AP. CHAPITRE IV. RÉDUCTION DE MATRICES CARRÉES 2.1 56 Cas particulier important Soit u ∈ L (E), supposons que u admette n valeurs propres distinctes λ1 , . . . , λn . Alors u est diagonalisable et dim Eλi = 1 pour i = 1, . . . , n. En effet, on a : n = dim E ¾ dim Eλ1 ⊕ · · · ⊕ Eλn ¾ n 2.1.1 Proposition. Soit u ∈ L (E). Désignons par E une base de E, et par A la matrice de u par rapport à E . Alors la dimension du sous-espace propre Eλ associé à une valeur propre λ de u est égale à n − r, où r est le rang de la matrice A − λIn . Démonstration. Par définition, Eλ = Ker u − λ IdE . On a donc : dim Eλ = n − rang u − λ IdE = n − rang ME u − λ IdE = n − rang ME (u) − λME (IdE ) = n − rang A − λIn Remarque. Soit u ∈ L (E). On voit facilement que u est diagonalisable si et seulement s’il existe une base F de E telle que MF (u) soit diagonale. Supposons que MF (u) soit diagonale ; alors ses élément diagonaux sont les valeurs propres λ1 , . . . , λ p de u, chaque λi apparaissant un nombre de fois égal à la dimension de Eλi , et F est une concaténation de bases de Eλ1 , . . . , Eλp . IV.3 Polynômes caractéristiques Dans tout IV.3, on désigne par E un espace vectoriel sur K de dimension finie n, et par u un élément de L (E). 3.0.1 Définition. Soit E une base de E, et soit A = ME (u). Soit X une indéterminée. Le polynôme : Pu (X) = dét A − XIn est appelé le polynôme caractéristique de u. C’est un polynôme de degré n à coefficients dans K ; le coefficient de Xn est (−1)n . Cette définition ne dépend pas de la base de E choisie. En effet, si F est une autre base de E et si B = MF (u), on a : B = P−1 AP CHAPITRE IV. RÉDUCTION DE MATRICES CARRÉES 57 avec P = PE F , donc : B − XIn = P−1 AP − XIn = P−1 A − XIn P Donc : dét B − XIn = dét P−1 (A − XIn )P = dét P−1 dét(A − XIn ) (dét P) = dét P−1 (dét P) dét(A − XIn ) = dét(P−1 P) dét(A − XIn ) = dét(In ) dét(A − XIn ) = dét(A − XIn ) 3.0.2 Proposition. Soit λ ∈ K. Pour que λ soit une valeur propre de u, il faut et il suffit que λ soit une racine de Pu (x) ; c’est à dire que Pu (λ) = 0. Démonstration. Notations de 3.0.1. Alors : λ valeur propre de u ⇐⇒ Ker(u − λ IdE ) 6= {0} ⇐⇒ u − λ IdE n’est pas injective ⇐⇒ u − λ IdE n’est pas bijective ⇐⇒ A − λIn n’est pas inversible ⇐⇒ dét(A − λIn ) = 0 ⇐⇒ Pu (λ) = 0 Remarque. On retrouve en corollaire de 3.0.2 que u possède au plus n racines deux à deux distinctes. 3.0.3 Définition. Soient λ1 , . . . , λ p les valeurs propres de u (sans répétition). Le polynôme Pu (x) s’écrit de façon unique : n p n Pu (X) = X − λ1 1 . . . X − λ p Q(X) où Q(X) est un polynôme à coefficients dans K qui n’a pas de racine dans K. Ondit que ni est l’ordre de multiplicité de λi . On peut montrer que pour tout i ∈ 1, . . . , p , on a : 1 ¶ dim Eλi ¶ ni CHAPITRE IV. RÉDUCTION DE MATRICES CARRÉES 58 3.0.4 Théorème. Notations de 3.0.3. Alors u est diagonalisable si et seulement si les deux conditions suivantes sont vérifiées : 1. On a : Q(x) = (−1)n ⇐⇒ n1 + · · · + n p = n 2. Pour tout i ∈ 1, . . . , p , on a : dim Eλi = ni Démonstration. Supposons ces deux conditions vérifiées. On a alors : dim Eλ1 ⊕ · · · ⊕ Eλp = dim Eλ1 + · · · + dim Eλp = n1 + · · · + n p = n = dim E On a donc : Eλ1 ⊕ · · · ⊕ Eλp = E Autrement dit, u est diagonalisable. Inversement, supposons u diagonalisable. Il existe alors une base F de E telle que : λ1 0 . . . ... 0 .. 0 ... ... . .. . . . λ1 . . .. MF (u) = . . . . .. λ p .. .. .. . . 0 . 0 ... . . . 0 λp En répétant λi un nombre de fois égal à dim Eλi = ri pour tout i = 1, . . . , p. Il en résulte que : Pu (X) = dét MF (u) − XIn = (−1)n (X − λ1 ) r1 . . . (X − λ p ) rp L’unicité de la décomposition de Pu (X) signalée en 3.0.3 implique Q(X) = (−1)n et r1 = n1 , . . . , r p = n p . Remarque. Lorsque K = C, la condition 1 de 3.0.4 est toujours vérifiée. CHAPITRE IV. RÉDUCTION DE MATRICES CARRÉES IV.4 59 Cas des matrices Soit A ∈ Mn (K). Soit E la base canonique de Kn et soit u l’unique endomorphisme de Kn tel que ME (u) = A. Les valeurs propres, les vecteurs propres et les sous-espaces propres de A sont, par définition, les valeurs propres, les vecteurs propres et les sous-espaces propres de u. On appelle polynôme caractéristique de A, noté PA (X), le polynôme caractéristique Pu (X) de u ; on a donc : PA (X) = dét(A − XIn ) On dit que A est diagonalisable si u est diagonalisable ; si A est diagonalisable, la diagonaliser consiste, par définition, à diagonaliser u. IV.5 5.1 Applications de la diagonalisation Élévation à la puissance k d’une matrice carrée Soit k ∈ N. Pour élever à la puissance k une matrice diagonale, il suffit, comme on le vérifie aisément, d’élever tous ses coefficients à la puissance k. Ceci est faux pour une matrice carrée quelconque. Soit maintenant A ∈ Mn (K) une matrice diagonalisable. Pour élever A à la puissance k, il suffit de considérer un élément inversible P de Mn (K) tel que P−1 AP soit une matrice diagonale D, et de remarquer que l’on a : Ak = PDP−1 . . . PDP−1 {z } | k fois = PD P−1 P D P−1 P . . . P−1 P DP−1 = PDIn DIn . . . In DP−1 = PDk P−1 CHAPITRE IV. RÉDUCTION DE MATRICES CARRÉES 5.2 60 Résolution de systèmes différentiels linéaires Considérons le système différentiel réel linéaire à coefficients constants suivant : y 0 = a y + · · · + a y + b (x) 11 1 1n n 1 1 0 y2 = a21 y1 + · · · + a2n yn + b2 (x) (S ) = .. . 0 y = an1 y1 + · · · + ann yn + bn (x) n Les ai j sont des réels connus, les bi (x) sont des fonctions réelles connues, définies et continues dans un intervalle J de R. Les yi sont des fonctions réelles inconnues, définies et dérivables dans J. Soit A = ai j la matrice du système (S ). Posons : y1 (x) y10 (x) b1 (x) . . . . . . 0 Y(x) = . , Y (x) = . et B(x) = . yn (x) yn0 (x) bn (x) pour x ∈ J. Le système (S ) peut s’écrire sous la forme matricielle : Y0 (x) = AY(x) + B(x) (x ∈ J) Supposons que A soit un élément diagonalisable de Mn (R). Pour résoudre (S ), c’est à dire déterminer toutes les suites y1 , . . . , yn qui vérifient (S ), on peut procéder ainsi : On choisit une matrice inversible P dans Mn (R) telle que P−1 AP soit une matrice diagonale D, avec D qui s’écrit : d11 0 .. D= . 0 dnn Le système (S ) équivaut alors à : Y0 = (PDP−1 )Y + B P−1 Y0 = D(P−1 Y) + P−1 B (P−1 Y)0 = D(P−1 Y) + P−1 B CHAPITRE IV. RÉDUCTION DE MATRICES CARRÉES Posons : z .1 −1 P Y = Z = .. zn et 61 P−1 B = C Le système (S ) équivaut alors à : Z0 = DZ + C ou encore à : z 0 (x) = d z (x) + c (x) 11 1 1 1 . .. 0 zn (x) = dnn zn (x) + cn (x) On résout ces n équations différentielles d’ordre 1, ce qui fournit Z. On achève la résolution de (S ) en utilisant l’égalité Y = PZ. Notons que si B = 0, il est inutile de calculer P−1 . Remarque. Ce qui a été dit en 5.2 reste vrai si on considère un système différentiel complexe au lieu d’un système différentiel réel ; c’est à dire si ai j ∈ C, si les yi inconnues et les bi (x) sont à valeurs dans C, et si A est supposée diagonalisable dans Mn (C). IV.6 Endomorphismes trigonalisables 6.0.1 Proposition. Le déterminant d’une matrice triangulaire est égal au produit de ses coefficients diagonaux. Démonstration. On peut supposer que la matrice est triangulaire supérieure ; elle s’écrit donc : a11 . . . a1n .. .. An = . . 0 ann On raisonne alors par sur n. récurrence Ou bien : on a A = ai j et : X dét A = "(ϕ)aϕ(1)1 . . . aϕ(n)n ϕ∈Sn Remarquer que si ϕ ∈ Sn n’est pas l’identité, alors il existe i, j ∈ {1, . . . , n} tels que ϕ(i) > i et ϕ( j) < j. En effet, dans le cas contraire, on a ϕ(i) ¶ i pour CHAPITRE IV. RÉDUCTION DE MATRICES CARRÉES 62 tout i ∈ {1, . . . , n} ; on a donc ϕ(1) ¶ 1 ce qui implique ϕ(1) = 1 ; et ϕ(2) ¶ 2, qui implique ϕ(2) = 2 car ϕ est bijective ; etc. Par conséquent ϕ est l’identité de {1, . . . , n} dans {1, . . . , n}, ce qui est contraire à l’hypothèse. Si A est triangulaire et si ϕ ∈ Sn n’est pas l’identité, alors "(ϕ)aϕ(1)1 . . . aϕ(n)n est nul, et par conséquent on a : dét A = a11 . . . ann 6.1 Proposition et définition Soit E un espace vectoriel sur K de dimension finie n, et soit u ∈ L (E). Les conditions suivantes sont équivalentes : 1. Il existe une base E de E telle que ME (u) soit triangulaire supérieure. 2. Il existe une base F de E telle que MF (u) soit triangulaire inférieure. Lorsque ces conditions sont vérifiées, on dit que u est trigonalisable. Démonstration. Exercice. 6.1.1 Théorème. Soit E un espace vectoriel sur K de dimension finie n. Soit u un endomorphisme de E et soient λ1 , . . . , λ p les valeurs propres de u (sans répétition). Désignons par ni l’ordre de multiplicité de λi pour i = 1, . . . , p. Le polynôme caractéristique Pu (X) de u s’écrit : Pu (X) = (X − λ1 )n1 . . . (X − λ p )np Q(X) où Q(X) est un polynôme à coefficients dans K qui n’a pas de racines dans K. Les conditions suivantes sont équivalentes : 1. Q(X) = (−1)n ⇐⇒ n1 + · · · + n p = n. 2. u est trigonalisable. Si ces conditions sont vérifiées, et si E est une base de E telle que ME (u) soit triangulaire, la diagonale principale de ME (u) est ainsi constituée : on y trouve ni fois λi pour i = 1, . . . , p. Démonstration. Admis. Remarque. Lorsque K = C, la condition 1 de 6.1.1 est toujours vérifiée, et donc la condition 2 aussi. CHAPITRE IV. RÉDUCTION DE MATRICES CARRÉES IV.7 63 Théorème de Cayley-Hamilton 7.0.1 Théorème. Soit E un espace vectoriel sur K de dimension finie n et soit u ∈ L (E). Posons : n X Pu (X) = ak Xk k=0 le polynôme caractéristique de u. Alors on a : n X ak uk = 0 k=0 ce qui s’écrit Pu (u) = 0. uk désigne | u ◦ u ◦{z· · · ◦ u } si k ¾ 1 et IdE si k = 0. k fois Démonstration. Admis. 7.0.2 Corollaire. Soit A ∈ Mn (K). Posons : PA (X) = n X ak Xk k=0 le polynôme caractéristique de A. Alors on a : n X ak Ak = 0 k=0 ce qui s’écrit PA (A) = 0. 0 Ak = A | ×A× {z· · · × A } si k ¾ 1, et A = In . k fois Remarque. Soit A ∈ Mn (K) inversible. On a donc dét A 6= 0, c’est à dire a0 6= 0. D’après 7.0.2, on a : an An + an−1 An−1 + · · · + a1 A + a0 In = 0 Donc : In = Ainsi : A−1 = 1 −an An − an−1 An−1 − · · · − a1 A a0 1 −an An−1 − an−1 An−2 − · · · − a2 A − a1 In a0