Algèbre linéaire Algèbre linéaire Principaux résultats vus en première année Compléments sur les applications linéaires L2 – MAT231 – Chapitre 4 – Algèbre linéaire Matrice associée à une application linéaire Université Joseph Fourier – 2007-2008 Effets d’un changement de base Réduction des endomorphismes (première approche) Déterminant Polynôme caractéristique d’un endomorphisme 2/44 1/44 Algèbre linéaire Algèbre linéaire Principaux résultats vus en première année Principaux résultats vus en première année Principaux résultats vus en première année, I Principaux résultats de première année, II Les résultats qui figurent dans les chapitres I Dimension finie I Espaces vectoriels I Calcul matriciel I Systèmes linéaires I Un résumé des principaux résultats vus en première année (voir également la Feuille d’exercices no 7) et I Les transparents du cours sont disponibles sur des notes de cours de première année, voir http://www-fourier.ujf-grenoble.fr/~pberard http://ljk.imag.fr/membres/Bernard.Ycart/mel/ sont supposés connus. 3/44 Algèbre linéaire 4/44 Algèbre linéaire Principaux résultats vus en première année Compléments sur les applications linéaires Chapitre 4, Algèbre linéaire Compléments sur les applications linéaires Notations. Soient E et F deux K espaces vectoriels. Dans tout ce chapitre, K désigne un corps commutatif de caractéristique 0. On peut supposer qu’il s’agit de R ou de C. I On note LK (E , F ) (ou, plus simplement, L(E , F ) s’il n’y a pas d’ambiguïté sur le corps de base), l’ensemble des applications linéaires de E dans F . I On note LK (E ) l’ensemble des applications linéaires de E dans lui-même (endomorphismes de E ). I On note E ∗ l’ensemble L(E , K) des applications linéaires de E dans K (formes linéaires sur E ). L’ensemble E ∗ s’appelle le dual de E . 5/44 Algèbre linéaire 6/44 Algèbre linéaire Compléments sur les applications linéaires Compléments sur les applications linéaires Proposition Les ensembles LK (E , F ), LK (E ) et E ∗ , munis des opérations (u, v ) 7→ u + v , (λ, v ) 7→ λv , Plus précisément, soient E = {e1 , . . . en } une base de E et F = {f1 , . . . fm } une base de F . définie par (u + v )(x ) := u(x ) + v (x ), définie par (λv )(x ) := λv (x ), • On définit les applications linéaires Eij , pour 1 ≤ i ≤ m et 1 ≤ j ≤ n, par sont des espaces vectoriels sur K. De plus, si G est un espace vectoriel sur K, la composition des applications, (u, v ) 7→ v ◦ u, définit une application de LK (E , F ) × LK (F , G) dans LK (E , G) et une application de LK (E ) × LK (E ) dans LK (E ). Eij : E → F , par Eij (ej ) = fi et Eij (ek ) = 0 si k 6= j. Alors, la famille {Eij | 1 ≤ i ≤ m, 1 ≤ j ≤ n} est une base de LK (E , F ). • On définit les formes linéaires ej∗ , pour 1 ≤ j ≤ n, par Proposition Si E et F sont des espaces vectoriels de dimension finie sur K, n := dim(E ) et m := dim(F ), alors les espaces vectoriels LK (E , F ), LK (E ) et E ∗ sont également de dimension finie sur K et on a ej∗ : E → K, Alors, la famille {ei∗ par ej∗ (ej ) = 1 et ej∗ (ek ) = 0 si k 6= i. | 1 ≤ i ≤ n} est une base de E ∗ , appelée base duale de la base E. dim(LK (E , F )) = n × m, dim(LK (E )) = n2 , dim(E ∗ ) = n. 7/44 8/44 Algèbre linéaire Algèbre linéaire Compléments sur les applications linéaires Compléments sur les applications linéaires Transposée d’une application linéaire Bi-dual d’un espace vectoriel Définition Proposition et Définition Étant donnés des espaces vectoriels E et F et u une application linéaire de E dans F , on définit une application linéaire de F ∗ dans E ∗ , notée t u et appelée transposée de l’application u, par t u(ϕ) := ϕ ◦ u Soit E un espace vectoriel de dimension finie n. On note E ∗∗ l’espace dual de l’espace E ∗ . Cet espace vectoriel est appelé le bi-dual de E . Si E := {e1 , . . . , en } est une base de E , on note E ∗ := {e1∗ , . . . , en∗ } la base duale de E et on note E ∗∗ := {e1∗∗ , . . . , en∗∗ } la base duale de E ∗ . pour toute forme linéaire ϕ ∈ F ∗ . Proposition et Définition Soit E un espace vectoriel de dimension finie n. L’application c : E → E ∗∗ définie par On a, t (u + v ) = t u + t v et t (λu) = λt u c(x )(ϕ) := ϕ(x ) pour tous x ∈ E , ϕ ∈ E ∗ pour tous u, v ∈ L(E , F ) et λ ∈ K. De plus, si u ∈ L(E , F ) et v ∈ L(F , G), alors t est un isomorphisme linéaire de E sur E ∗∗ . On l’appelle l’isomorphisme canonique de E avec son bi-dual E ∗∗ . (v ◦ u) = t u ◦ t v . Étant donnée une base E de E et E ∗∗ la base associée de E ∗∗ , on a c(ej ) = ej∗∗ . 10/44 9/44 Algèbre linéaire Algèbre linéaire Matrice associée à une application linéaire Matrice associée à une application linéaire Matrice associée à une application linéaire • Soient E et F deux espaces vectoriels, de dimensions respectives n et m, munis respectivement des bases E = {e1 , . . . , en } et F = {f1 , . . . , fm }. On définit l’application Notations I I On désigne par Mm,n (K) l’ensemble des matrices à m lignes et n colonnes et à coefficients dans K. C’est un K-espace vectoriel de dimension mn dont une base est donnée par la famille {Mij | 1 ≤ i ≤ m, 1 ≤ j ≤ n} des matrices élémentaires où Mij est la matrice dont tous les coefficients sont nuls sauf le coefficient de la i-ième ligne, j-ième colonne qui vaut 1. On désigne par Mn (K) l’ensemble des matrices carrées à n lignes et n colonnes. On rappelle que c’est à la fois un K-espace vectoriel et un anneau (non commutatif) pour la multiplication des matrices. E MF : LK (E , F ) → Mm,n (K) E MF :u 7→ E MF (u) E (u) est la matrice dont les colonnes sont les coordonnées des vecteurs où MF u(ej ), 1 ≤ j ≤ n, dans la base F , E (u) = m c’est-à-dire MF ij 1≤i≤m,1≤j≤n u(ej ) = m X où les coefficients mij sont définis par mij fi pour tout j, 1 ≤ j ≤ n. i=1 • Avec les notations précédentes, on a E MF (Eij ) = Mij . 11/44 Algèbre linéaire 12/44 Algèbre linéaire Matrice associée à une application linéaire Matrice associée à une application linéaire Suite du théorème Théorème E est une application linéaire bijective Avec les notations précédentes, l’application MF (un isomorphisme linéaire) de LK (E , F ) dans Mm,n (K). Soit x ∈ E un vecteur qui s’écrit x = x1 e1 + · · · + xn en dans la base E ; on note XE le vecteur colonne des coordonnées de x dans la base E. Le vecteur u(x ) s’écrit u(x ) = y1 f1 + . . . + ym fm dans la base F ; on note YF le vecteur colonne des coordonnées de u(x ) dans la base F . On peut alors écrire y1 x1 . . E E .. = MF (u) .. , càd YF = MF (u)XE . ym xn Si u : E → F est une application linéaire entre deux espaces vectoriels de dimension finie, et si t u : F ∗ → E ∗ est sa transposée, alors ∗ E (u) . MEF∗ (t u) = t MF Soient E , F et G trois K-espaces vectoriels de dimension finie et E, F et G des bases de E , F et G respectivement. Soient u : E → F et v : F → G des applications linéaires. Alors E MGE (v ◦ u) = MGF (v ) MF (u) où le produit dans le second membre est le produit des matrices. En particulier, MEE est un isomorphisme de l’anneau LK (E ) des endomorphismes de E dans l’anneau Mn (K) des matrices carrées d’ordre n = dim(E ). 13/44 Algèbre linéaire 14/44 Algèbre linéaire Effets d’un changement de base Effets d’un changement de base Changements de bases Changements de bases et matrices d’applications linéaires Définition 0 On appelle matrice de passage de la base E à la base E 0 et on note PEE la matrice 0 0 PEE := MEE (iE ), c’est-à-dire la matrice de l’application identité iE , 0 (E , E ) → (E , E) , x 7→ x Proposition Soient E et F deux espaces vectoriels de dimension finie et soit u ∈ L(E , F ) une application linéaire. On se donne deux bases E et E 0 de l’espace vectoriel E et deux bases F et F 0 de l’espace vectoriel F . Alors 0 de E dans lui-même. Les colonnes de la matrice PEE sont les coordonnées des vecteurs de la base E 0 dans la base E. Proposition 0 0 E E MF (u) = MF (u)PEE 0 et E F E MF 0 (u) = PF 0 MF (u). Corollaire 0 La matrice PEE est inversible et (PEE )−1 = PEE0 . Proposition Soit x ∈ E un vecteur dont les coordonnées dans la base E sont données par le vecteur colonne XE et dont les coordonnées dans la base E 0 sont données par le vecteur 0 colonne XE 0 . Alors, XE = PEE XE 0 et XE 0 = PEE0 XE . 15/44 Soit E un K-espace vectoriel de dimension finie n et u ∈ L(E ) un endomorphisme de E . Si E et E 0 sont deux bases de E , il existe une matrice P ∈ Mn (K), inversible, telle que 0 MEE0 (u) = P −1 MEE P. 16/44 Algèbre linéaire Algèbre linéaire Effets d’un changement de base Réduction des endomorphismes (première approche) Réduction des endomorphismes (première approche Les diagrammes i u i u E F (E , E 0 ) −−−− −→ (E , E) −−−−−→ (F , F ) et (E , E) −−−−−→ (F , F ) −−−− −→ (F , F 0 ) traduisent les égalités 0 E E MF (u) = MF (u)PEE 0 et E F E MF 0 (u) = PF 0 MF (u). Rationale. Étant donné un endomorphisme u d’un espace vectoriel de dimension finie E sur un corps K, il s’agit de trouver une base de E dans laquelle la matrice de l’endomorphisme soit la plus simple possible, c’est-à-dire une matrice diagonale ou une matrice triangulaire supérieure (ou inférieure), formes qui permettent de résoudre simplement des systèmes linéaires ou des équations différentielles linéaires par exemple. Le diagramme commutatif u (E , E 0 ) −−−−−→ (E , E 0 ) 0 M E0 (u) E 0 iE yP E E E PE 0 x i E 0 −1 y E (PE ) u (E , E) −−−−−→ (E , E) E (u) ME traduit les égalités u = iE ◦ u ◦ iE et 0 0 0 MEE0 (u) = (PEE )−1 MEE (u)PEE . 17/44 Algèbre linéaire 18/44 Algèbre linéaire Réduction des endomorphismes (première approche) Réduction des endomorphismes (première approche) Valeurs propres – Vecteurs propres Définition Si λ est valeur propre de u, le sous-espace vectoriel Eλ := Ker(u − λiE ) de E s’appelle l’espace propre de u associé à la valeur propre λ (il est, par définition, non réduit à {0}). Soit E un K-espace vectoriel de dimension n. Définition Soit u ∈ L(E ). Le scalaire λ ∈ K est appelé valeur propre de l’endomorphisme u s’il existe un vecteur x ∈ E tel que x 6= 0 et u(x ) = λx . Le vecteur x est dit vecteur propre de u associé à la valeur propre λ. Remarques I Le scalaire λ ∈ K est valeur propre de u si et seulement si Ker(u − λiE ) 6= {0}. I Le vecteur x est vecteur propre de u associé à la valeur propre λ si et seulement si x ∈ Ker(u − λiE ) \ {0}. Proposition Soit u ∈ L(E ). Si λ1 , . . . , λp sont des valeurs propres de u, deux à deux distinctes, alors les espaces propres associés, Eλ1 , . . . , Eλp , sont en somme directe, c’est-à-dire, pour tout j, 1 ≤ j ≤ p, \ Eλj Eλ1 + · · · + Eλj−1 + Eλj+1 + · · · + Eλp = {0}. Corollaire Si u ∈ L(E ) et si dim(E ) = n alors u possède au plus n valeurs propres distinctes dans K. 19/44 Algèbre linéaire 20/44 Algèbre linéaire Réduction des endomorphismes (première approche) Réduction des endomorphismes (première approche) Endomorphismes diagonalisables Endomorphismes trigonalisables Théorème et Définition Théorème et Définition Soit E un K-espace vectoriel de dimension n et soit u ∈ L(E ) un endomorphisme de E , de matrice M dans une base B. Les trois assertions suivantes sont équivalentes. Soit E un K-espace vectoriel de dimension n et soit u ∈ L(E ) un endomorphisme de E , de matrice M dans une base B. Les deux assertions suivantes sont équivalentes. 1. Il existe une base E = {e1 , . . . , en } de E telle que les sous-espaces vectoriels 1. Il existe une base de E formée de vecteurs propres de u. V1 := Vect(e1 ), V2 := Vect(e1 , e2 ), . . . , Vn := Vect(e1 , . . . , en ) 2. Les espaces propres Eλ1 , . . . , Eλp de u correspondant à des valeurs propres distinctes vérifient E = Eλ1 ⊕ · · · ⊕ Eλp . soient stables par u, c’est-à-dire u(Vj ) ⊂ Vj pour 1 ≤ j ≤ n. 3. Il existe une base E de E telle que la matrice MEE (u) de u dans cette base soit diagonale. 2. Il existe une base E de E telle que la matrice MEE (u) de u dans cette base soit triangulaire supérieure, c’est-à-dire de la forme Dans ce cas, on dit que l’endomorphisme u (resp. la matrice M) est diagonalisable. a11 0 . .. 0 Corollaire Soit E un K-espace vectoriel de dimension n et soit u un endomorphisme de E qui adment n valeurs propres distinctes dans K. Alors l’endomorphisme u est diagonalisable. a12 a22 . .. 0 ··· ··· ··· a1n a2n . . .. ann Dans ce cas, on dit que l’endomorphisme u (resp. la matrice) est trigonalisable. Les coefficients diagonaux de la matrice MEE (u) sont valeurs propres de u dans K. 22/44 21/44 Algèbre linéaire Algèbre linéaire Réduction des endomorphismes (première approche) Déterminant Groupe des permutations Notations Hypothèse (T) On dira que le corps K possède la propriété (T) si, pour tout K-espace vectoriel E , de dimension finie, tout endomorphisme u de E possède au moins une valeur propre, c’est-à-dire qu’il existe au moins un élément λ ∈ K tel que Ker(u − λiE ) 6= {0}. I On désigne par Sn le groupe des permutations, c’est-à-dire le groupe des bijections de N•n dans lui-même. Notons que le groupe Sn a n! éléments. I On peut expliciter une permutation σ ∈ Sn par un tableau 1 2 ··· n σ= . σ(1) σ(2) · · · σ(n) I On note σ ◦ τ ou στ la composition des deux permutations σ et τ ; on note ι la permutation identité. I On appelle transposition une permutation τ qui échange deux indices et qui laisse les autres inchangés. Ainsi, une permutation τ est de la forme τ = τij où Théorème Soit K un corps possédant la propriété (T), et soit E un espace vectoriel de dimension finie sur K. Alors, tout endomorphisme u de E est trigonalisable. Remarque. On montrera ultérieurement que C possède la propriété (T). Le corps R ne possède pas la propriété (T). Pour n ∈ N• , on désigne par N•n l’ensemble {1, 2, . . . , n}. I τij (i) = j, τij (j) = i, et τij (k) = k, pour k 6= i, k 6= j. Pour une permutation τ , on a τ 2 = τ . 23/44 24/44 Algèbre linéaire Algèbre linéaire Déterminant Déterminant Structure du groupe des permutations Signature d’une permutation Définition Soit σ ∈ Sn . Le nombre (σ) défini par Q Théorème (σ) = Pour n ≥ 2, l’ensemble des transpositions de Sn engendre Sn , c’est-à-dire, toute permutation peut s’écrire comme produit de transpositions. 1≤i<j≤n (σ(i) Q 1≤i<j≤n (i − σ(j)) − j) s’appelle la signature de la permutation σ. Remarque. La décomposition d’une permutation en produit de transpositions n’est pas unique en général. Remarquons également que pour n ≥ 3, le groupe S3 n’est pas commutatif. Théorème Pour σ ∈ Sn , la signature (σ) est égale (−1)N où N est le nombre d’éléments de l’ensemble {(i, j) ∈ N•n × N•n | i < j et σ(i) > σ(j)} (c’est-à-dire le nombre d’inversions de σ). La signature est un homomorphisme surjectif du groupe Sn sur le groupe multiplicatif Γ = {−1, 1}. 25/44 Algèbre linéaire 26/44 Algèbre linéaire Déterminant Déterminant Formes multi-linéaires Soit E un K-espace vectoriel de dimension finie n. Définition Soit ϕ une application de E × · · · × E (p exemplaires de E ) dans K. {z } | Définition Les permutations telles que (σ) = 1 forment un sous-groupe de Sn appelé le groupe alterné et noté An . Les éléments de An sont appelés permutations paires ; les élements de Sn \ An sont appelés permutations impaires. p I On dit que l’application ϕ est une forme p-linéaire sur E si, pour tout j tel que 1 ≤ j ≤ p, et pour tous vecteurs y1 , . . . , yp ∈ E , les applications partielles x 7→ ϕ(y1 , . . . , yj−1 , x , yj+1 , . . . yp ) Attention. Les permutations impaires ne forment pas un sous-groupe. sont des formes linéaires de E dans K. Si p = 2, on dira que ϕ est bilinéaire. On notera Lp (E , K) l’ensemble des formes p-linéaires sur E . I Étant donnés ϕ ∈ Lp (E , K) une forme p-linéaire sur E et σ ∈ Sp une permutation, on définit une forme p-linéaire sur E , notée σ ∗ ϕ, par la formule σ ∗ ϕ(x1 , . . . , xp ) := ϕ(xσ(1) , . . . , xσ(p) ). 27/44 Algèbre linéaire 28/44 Algèbre linéaire Déterminant Déterminant Formes symétriques et anti-symétriques Exemples Définition I On dit qu’une forme p-linéaire, ϕ ∈ Lp (E , K), est symétrique si • Pour p = 1, on retrouve les formes linéaires. • Dans R2 , l’application (x1 , y1 ), (x2 , y2 ) 7→ x1 x2 + y1 y2 définit une application bilinéaire symétrique. • Dans R2 , l’application (x1 , y1 ), (x2 , y2 ) 7→ x1 y2 − x2 y1 définit une application bilinéaire anti-symétrique. • Si ϕ1 , . . . , ϕp sont des formes linéaires sur E , l’application (x1 , . . . , xp ) 7→ ϕ1 (x1 ) · · · ϕp (xp ) définit une application p-linéaire que l’on note ϕ 1 · · · ϕp . σ ∗ ϕ = ϕ pour tout σ ∈ Sp . On désigne par Sp (E , K) l’ensemble des formes p-linéaires symétriques sur E . I On dit qu’une forme p-linéaire, ϕ ∈ Lp (E , K), est anti-symétrique si σ ∗ ϕ = (σ)ϕ pour tout σ ∈ Sp . On désigne par Ap (E , K) l’ensemble des formes p-linéaires anti-symétriques sur E . I On dit qu’une forme p-linéaire, ϕ ∈ Lp (E , K), est alternée si ϕ(x1 , . . . , xp ) = 0 chaque fois qu’il existe deux indices distincts i et j tels que xi = xj . 29/44 Algèbre linéaire 30/44 Algèbre linéaire Déterminant Déterminant Symétrisation et anti-symétrisation Théorème Soit E un K-espace vectoriel et soit p ∈ N• . 1. Les ensembles Lp (E , K), Sp (E , K) et Ap (E , K), munis des opérations naturelles, sont des espaces vectoriels sur K. 2. Pour qu’une p-forme linéaire ϕ sur E soit symétrique, il faut et il suffit que τ ∗ ϕ = ϕ pour toute transposition τ ∈ Sp . 3. Pour qu’une p-forme linéaire ϕ sur E soit anti-symétrique, il faut et il suffit que τ ∗ ϕ = −ϕ pour toute transposition τ ∈ Sp . 4. Si K est R ou C, alors une p-forme linéaire ϕ sur E est alternée si et seulement si elle est anti-symétrique. Proposition et Définition Soit E un K-espace vectoriel de dimension finie et soit ϕ ∈ Lp (E , K) une forme p-linéaire sur E . Alors X X S(ϕ) := σ ∗ ϕ et A(ϕ) := (σ)σ ∗ ϕ σ∈Sp σ∈Sp sont des formes p-linéaires sur E . De plus, 1. la forme S(ϕ) est symétrique, on dit que c’est la symétrisée de ϕ ; 2. la forme A(ϕ) est anti-symétrique, on dit que c’est l’anti-symétrisée de ϕ. Remarques • Si E est de dimension finie n, on peut montrer que Lp (E , K) est de dimension finie. • Si ϕ ∈ Lp (E , K) alors ϕ(x1 , . . . , xp ) = 0 si l’un des xj est nul. 31/44 32/44 Algèbre linéaire Algèbre linéaire Déterminant Déterminant Déterminant associé à une base d’un espace vectoriel Théorème fondamental Soit E un K-espace vectoriel de dimension finie n et soit E = {e1 , . . . , en } une base de E . On désigne par E ∗ = {e1∗ , . . . , en∗ } la base duale de E ∗ . Proposition et Définition Théorème et Définition Soit E un K-espace vectoriel de dimension n et soit p ∈ N• . Soit E = {e1 , . . . , en } une base de E et soit E ∗ = {e1∗ , . . . , en∗ } la base duale. Alors, 1. Si p > n, on a Ap (E , K) = {0}. L’application E n → K, (x1 , . . . , xn ) 7→ n Y 2. L’espace vectoriel An (E , K) est de dimension 1 et admet pour base DetE . Si ϕ ∈ An (E , K), on a ϕ = ϕ(e1 , . . . , en ) DetE . ej∗ (xj ) j=1 est une forme n-linéaire sur E . Son anti-symétrisée est notée DetE et appelée le déterminant associé à la base E. Il vérifie De plus, DetE est le seul élément de An (E , K) qui prend la valeur 1 sur le n-uplet {e1 , . . . , en }. 3. Soit X := {x1 , . . . , xn } ∈ E n un système de n vecteurs. On dit que DetE (X ) := DetE (x1 , . . . , xn ) est le déterminant du système X dans la base E. On a, n n X Y X Y ∗ DetE (X ) = (σ) ej∗ (xσ(j) ) = (σ) eσ(j) (xj ). DetE (e1 , . . . , en ) = 1. Il en résulte en particulier que An (E , K) 6= {0}. Exemples • Dimension 2 • Dimension 3 σ∈Sn σ∈Sn j=1 j=1 33/44 Algèbre linéaire 34/44 Algèbre linéaire Déterminant Déterminant Déterminant d’un endomorphisme Théorème et Définition Soit E un K-espace vectoriel de dimension finie n > 0 et soit u un endomorphisme de E . Il existe un unique scalaire, appelé déterminant de u, et noté Det(u), tel que pour tout ϕ ∈ An (E , K), et tous x1 , . . . , xn ∈ E , on ait Proposition Soit E un espace vectoriel de dimension n. 1. Si E et F sont des bases de E alors DetE (F ) est inversible dans K et (DetE (F ))−1 = DetF (E). ϕ(u(x1 ), . . . , u(xn )) = Det(u)ϕ(x1 , . . . , xn ). 2. Soit E une base de E et soit F un système de n vecteurs. Alors, F est une base de E si et seulement si DetE (F ) 6= 0. (1) Ce scalaire est donné, dans une base E = {e1 , . . . , en } de E , par Det(u) = DetE (u(e1 ), . . . , u(en )). (2) Remarque. La formule (1) ci-dessus montre que le déterminant d’un endomorphisme ne dépend pas du choix d’une base particulière. La formule (2) donne elle un moyen de calculer le déterminant. 35/44 Algèbre linéaire 36/44 Algèbre linéaire Déterminant Déterminant Propriétés du déterminant d’un endomorphisme Déterminant d’une matrice carrée Définition Soit A = (aij ) ∈ Mn (K) une matrice carrée sur le corps K. On appelle déterminant de la matrice A, et on note Det(A) ou encore |aij |, le déterminant du système des vecteurs colonnes de A dans la base canonique de Kn . Théorème Soit E un espace vectoriel de dimension n > 0. Proposition 1. On a Det(iE ) = 1. Étant donnée une matrice carrée A = (aij ) ∈ Mn (K), on a 2. Pour λ ∈ K et u ∈ L(E ), on a Det(λu) = λn Det(u). 3. Pour u, v ∈ L(E ), on a Det(v ◦ u) = Det(v )Det(u) et Det(t u) = Det(u) où t u ∈ L(E ∗ ) est l’endomorphisme transposé de u. Det(A) = X (σ) σ∈Sn 4. Un endomorphisme u de E est inversible si et seulement si son déterminant Det(u) est non nul et alors Det(u −1 ) = (Det(u))−1 . n Y j=1 ajσ(j) = X σ∈Sn (σ) n Y aσ(j)j j=1 et, en particulier, Det(t A) = Det(A) où t A désigne la matrice transposée. Proposition Soit E un espace vectoriel de dimension finie et E une base de E . Si u ∈ L(E ) et si A := ME (u) est la matrice de u dans la base E, alors Det(u) = Det(A). 37/44 Algèbre linéaire 38/44 Algèbre linéaire Déterminant Déterminant Calcul des déterminants Proposition Soient A, B ∈ Mn (K) et λ ∈ K. Le déterminant d’une matrice carrée possède les propriétés suivantes. I Si on effectue une permutation σ sur les vecteurs colonnes de A et si on appelle C la matrice ainsi obtenue, on a Det(C ) = (σ)Det(A). I Le déterminant de A dépend linéairement de chacun des vecteurs colonnes de A. I Le déterminant de A ne change pas si on ajoute à l’un de ses vecteurs colonnes une combinaison linéaire des autres vecteurs colonnes. Il est nul si un des vecteurs colonnes est combinaison linéaire des autres vecteurs colonnes. I Comme Det(t A) = Det(A), les propriétés ci-dessus sont également valables pour les vecteurs lignes. I On a Det(In ) = 1 (où In désigne la matrice identité d’ordre n), Det(λA) = λn Det(A) et Det(AB) = Det(A)Det(B). I Si A est une matrice 1 × 1 identifiée à un scalaire α, on a Det(A) = α. I La matrice A est inversible si et seulement si Det(A) 6= 0 et alors Det(A−1 ) = (Det(A))−1 . Lemme Soient n, p, q ∈ N• avec n = p + q. Soient A ∈ Mp , B ∈ Mq et C ∈ Mp,q . On définit une matrice M ∈ Mn par A C M := . 0 B Alors, Det(M) = Det(A)Det(B). 39/44 40/44 Algèbre linéaire Algèbre linéaire Déterminant Déterminant Calcul des déterminants, suite Développement selon une ligne ou une colonne Proposition Soit M ∈ Mn une matrice de matrices, triangulaire supérieure, c’est à dire de la forme M11 0 M := . .. 0 M12 M22 .. . 0 ··· ··· ··· M1m M2m . .. Mmm Proposition et Définition Soit A := (aij ) une matrice carrée. On désigne par Âij la matrice obtenue à partir de A en supprimant la i-ième ligne et la j-ième colonne. Alors, pour 1 ≤ i, j ≤ n, où les Mii , 1 ≤ i ≤ m, sont des matrices carrées. Alors, Det(A) = n n X X (−1)k+j akj Det(Âkj ) = (−1)i+k aik Det(Âik ). k=1 Det(M) = Det(M11 ) · · · Det(Mmm ). k=1 La première (resp. seconde) égalité est appelée le développement du déterminant de A suivant la j-ième colonne (resp. suivant la i-ième ligne). En particulier, si a11 0 A := . .. 0 a12 a22 .. . 0 ··· ··· a1n a2n .. . ··· ann est une matrice triangulaire supérieure de taille n × n, alors Det(A) = a11 · · · ann . 41/44 Algèbre linéaire 42/44 Algèbre linéaire Déterminant Polynôme caractéristique d’un endomorphisme Déterminant et calcul de l’inverse d’une matrice Polynôme caractéristique d’un endomorphisme Définition Étant donnée une matrice A := (aij ), le nombre (−1)i+j Det(Âij ) s’appelle le co-facteur du coefficient aij . La transposée de la matrice des co-facteurs s’appelle la matrice complémentaire de la matrice A et se note Ã. Soit E un K-espace vectoriel de dimension finie et soit E une base de E . Soit u un endomorphisme de E . D’après les propriétés des déterminants, dire que λ ∈ K est une valeur propre de u équivaut à dire que Det(u − λiE ) = 0 ou, ce qui revient au même, que Det(A − λIn ) = 0, où A est la matrice de u dans la base E. Les formules X Det(A − λIn ) = Proposition (σ) σ∈Sn Soit A ∈ Mn une matrice et soit à sa matrice complémentaire. Alors, n n Y X Y (ajσ(j) − λδjσ(j) ) = (σ) (aσ(j)j − λδσ(j)j ) j=1 σ∈Sn j=1 permettent de définir un polynôme Aà = ÃA = Det(A)In . En particulier, si Det(A) 6= 0, la matrice A est inversible et son inverse est donnée par la formule A−1 = (Det(A))−1 Ã. 43/44 PA (X ) = X σ∈Sn (σ) n n Y X Y (ajσ(j) − X δjσ(j) ) = (σ) (aσ(j)j − X δσ(j)j ) j=1 σ∈Sn j=1 de degré n qui s’appelle le polynôme caractéristique de A. Les racines de ce polynôme sont exactement les valeurs propres de A (et donc de u). 44/44