Déterminants Dans tout le chapitre, K représente un corps commutatif. 1. Applications et formes multilinéaires Soient E1 , . . . , Ep et F des espaces vectoriels sur K et ϕ une application de E1 × . . . × Ep dans F. Définition 1 – Dire que ϕ est p-linéaire signifie que, pour tout i ∈ {1, . . . , p}, pour tout (x1 , . . . , xi−1 , xi+1 , . . . , xp ) ∈ E1 × . . . × Ei−1 × Ei+1 × . . . × Ep , l’application ϕi de Ei dans F définie, pour tout x ∈ Ei , par ϕi (x) = ϕ(x1 , . . . , xi−1 , x, xi+1 , . . . , xp ) est linéaire. Autrement dit, ϕ est linéaire par rapport à chacune de ses variables. Si p = 2, on dit que ϕ est bilinéaire. Si F = K, on dit que ϕ est une forme p-linéaire. Remarque - Si ϕ est une application p-linéaire, alors, pour tout i ∈ {1, . . . , p}, pour tout (x1 , . . . , xi−1 , xi+1 , . . . , xp ) ∈ E1 × . . . × Ei−1 × Ei+1 × . . . × Ep , on a ϕ(x1 , . . . , xi−1 , 0, xi+1 , . . . , xp ) = 0. Proposition 2 – L’ensemble des applications p-linéaires de E1 ×. . .×Ep dans F est canoniquement muni d’une structure de K-espace vectoriel noté Lp (E1 , . . . , Ep ; F ). Si E1 = . . . = Ep , on note cet espace Lp (E; F ). Théorème 3 – On suppose que F est une somme directe de n sous-espaces vectoriels Fi . Alors n Y Lp (E1 , . . . , Ep ; F ) est isomorphe à Lp (E1 , . . . , Ep ; Fi ). i=1 Démonstration : soit ϕ ∈ Lp (E1 , . . . , Ep ; F ) et soit pk la kème projection canonique de F sur Fk . Alors, pour tout k ∈ {1, . . . , n}, l’application pk ◦ ϕ est p-linéaire. On considère l’application δ : ϕ 7→ (p1 ◦ ϕ, . . . , pn ◦ ϕ). Il est clair que δ est linéaire. Montrons que δ est injective : soit ϕ ∈ Lp (E1 , . . . , Ep ; F ) telle que δ(ϕ) = 0. Alors, pour tout k ∈ {1, . . . , n}, pk ◦ϕ = 0. Donc, pour tout (x1 , . . . , xp ) ∈ E1 ×. . .×Ep , pk ◦ϕ(x1 , . . . , xp ) = 0. Comme ceci est vrai pour tout k, on en déduit que ϕ(x1 , . . . , xp ) = 0 (puisque toutes ses projections sur des sous-espaces de F en somme directe sont nulles). On a donc montré que δ est injective. n Y Montrons que δ est surjective. Soit (ϕ1 , . . . , ϕn ) ∈ Lp (E1 , . . . , Ep ; Fi ). On définit une i=1 application ϕ par ϕ = ϕ1 + · · · + ϕn . On a bien ϕ ∈ Lp (E1 , . . . , Ep ; F ). De plus, ϕ est p-linéaire et pk ◦ ϕ = ϕk pour tout k ∈ {1, . . . , n}. Donc δ est surjective. On a ainsi construit un isomorphisme entre les deux espaces considérés. Comme tout espace vectoriel de dimension finie peut être considéré comme une somme directe de sous-espaces vectoriels isomorphes à K, on n’étudiera que les formes p-linéaires, c’est-à-dire l’espace Lp (E1 , . . . , Ep ; K). Théorème 4 – dim Lp (E1 , . . . , Ep ; K) = p Y dim Ek . k=1 Démonstration : notons ni la dimension de l’espace Ei pour tout i ∈ {1, . . . , p}. Soit (eij )1≤j≤ri une base de Ei . Préparation à l’agrégation interne UFR maths, Université de Rennes I On va construire un isomorphisme entre Lp (E1 , . . . , Ep ; K) et Kn1 ×...×np . Soit ϕ ∈ Lp (E1 , . . . , Ep ; K) et (x1 , . . . , xp ) ∈ E1 × . . . × Ep . Écrivons chacun des xi dans la ni X base de Ei : xi = xiji eiji . On a alors ji =1 X np n1 X n n xjpp ejpp x1j1 e1j1 , . . . , ϕ(x1 , . . . , xp ) = ϕ jp =1 j1 =1 = X x1j1 × . . . × xpjp ϕ(e1j1 , . . . , epjp ) (j1 ,...,jp )∈Σ avec Σ = {(j1 , . . . , jp ) ; ∀i ∈ {1, . . . , p}, 1 ≤ ji ≤ ni }. Donc, à tout ϕ ∈ Lp (E1 , . . . , Ep ; K), on a associé les éléments de Kn1 ×...×np donnés par ϕ(e1j1 , . . . , epjp ) pour (j1 , . . . , jp ) ∈ Σ. Notons ψ cette application. Elle est bien linéaire par propriétés des fonctions Réciproquement, soit une famille d’élément mj1 ,...,jp avec (j1 , . . . , jp ) ∈ Σ. L’application ϕ de E1 × . . . × Ep dans K définie, pour tout P (x1 , . . . , xn ) ∈ E1 × . . . × Ep par ϕ(x1 , . . . , xp ) = (j1 ,...,jp )∈Σ x1j1 × . . . × xpjp mj1 ,...,jp est p-linéaire. Donc ψ est surjective. Il reste à montrer qu’elle est injective. Soit ϕ ∈ Lp (E1 , . . . , Ep ; K) telle que ψ(ϕ) = 0. Alors il est clair que ϕ = 0. 2. Formes p-linéaires alternées sur un espace vectoriel D’après le théorème 4, si E est de dimension finie n, alors dim Lp (E; K) = np . Définition 5 – Soit ϕ une forme p-linéaire sur E. Dire que ϕ est alternée signifie que, si pour tout (x1 , . . . , xp ) ∈ E p , s’il existe (i, j) ∈ {1, . . . , p}2 avec i 6= j et xi = xj , alors ϕ(x1 , . . . , xp ) = 0. Proposition 6 – L’ensemble des formes p-linéaires alternées est un K-espace vectoriel noté A p (E). On note Sp l’ensemble des permutations de {1, . . . , p}. Proposition 7 – Soit ϕ ∈ Lp (E). Si ϕ est alternée, alors, pour toute transposition σ ∈ Sp et pour tout (x1 , . . . , xp ) ∈ E p , on a ϕ(xσ(1) , . . . , xσ(p) ) = −ϕ(x1 , . . . , xp ). Démonstration : soit σ la transposition échangeant i et j. On a ϕ(x1 , . . . , xi + xj , . . . , xi + xj , . . . , xp ) = 0 car la forme est alternée = ϕ(x1 , . . . , xi , . . . , xj , . . . , xp ) + 0 + 0 + ϕ(x1 , . . . , xj , . . . , xi , . . . , xp ) par linéarité = ϕ(x1 , . . . , xi , . . . , xj , . . . , xp ) + ϕ(xσ(1) , . . . , xσ(i) , . . . , xσ(j) , . . . , xσ(p) ) D’où le résultat. Remarque - On montre facilement que la réciproque est vraie si K est un corps de caractéristique différente de 2. Corollaire 8 – Soit ϕ une forme p-linéaire alternée. Alors, pour toute permutation σ de Sp , pour tout (x1 , . . . , xp ) ∈ E p , ϕ(xσ(1) , . . . , xσ(p) ) = ε(σ)ϕ(x1 , . . . , xp ) où ε(σ) est la signature de σ. 3. Déterminant –2– Déterminants 3.1. Définition Nous allons d’abord étudier l’espace A n (E) dans le cas où n = dim E et montrer que cet ensemble est non vide. Soit (e1 , . . . , en ) une base de E. Soit (x1 , . . . , xn ) ∈ E n . On pose n X xi = xij ej . j=1 Définissons une application ∆ par En → K X ∆ : (x1 , . . . , xn ) 7→ ε(σ)x1σ(1) × . . . × xnσ(n) σ∈Sp L’application ∆ ainsi définie est bien n-linéaire. Vérifions qu’elle est alternée. Si K est un corps de caractéristique différente de 2, il suffit de vérifier que, pour toute transposition τ , si τ permute les indices i et j, on a ∆(x1 , . . . , xi , . . . , xj , . . . xn ) = −∆(x1 , . . . , xj , . . . , xi , . . . , xn ). Ce qui est clair par définition de ∆. Supposons maintenant que K soit un corps de caractéristique 2. Soit i 6= j et xi = xj . On a (on note Sn+ l’ensemble des permutations de signature égale à 1) : ∆(x1 , . . . , xi , . . . , xi , . . . , xn ) = X + σ∈Sn = X X x1σ(1) . . . xnσ(n) − x1σ(1) . . . xnσ(n) + σ∈Sn \Sn X x1σ(1) . . . xnσ(n) − + σ∈Sn x1σ◦τ (1) . . . xnσ◦τ (n) + σ∈Sn \Sn où τ = τij car xi = xj Or l’application σ 7→ σ ◦ τ est bijective de Sn \ Sp+ dans Sp+ donc ∆(x1 , . . . , xi , . . . , xi , . . . , xn ) = X x1σ(1) . . . xnσ(n) − + σ∈Sn X x1σ0 (1) . . . xnσ0 (n) = 0 + σ 0 ∈Sn Donc ∆ est alternée. Il reste à montrer que l’application ∆ n’est pas nulle. Or ∆(e1 , . . . , en ) = X ε(σ)δ1,σ(1) × . . . × δn,σ(n) = 1 σ∈Sn où δij représente le symbole de Kronecker. On a donc prouvé que A p (E) est non vide. Théorème 9 – Soit E un K un espace vectoriel de dimension n. − si p > n, alors A p (E) = {0} ; − si p = n, alors dim A p (E) = 1. p Démonstration : soient (e1 , . . . , en ) une base de E et (x1 , . . . , xp ) ∈ E . On pose xi = n X j=1 Soit ϕ ∈ A p (E). En utilisant la p-linéarité de ϕ, on a n n X X ϕ(x1 , . . . , xp ) = ϕ( x1j ej , . . . , xpj ej ) j=1 = j=1 X (i1 ,...,ip )∈{1,...,n}p –3– x1i1 . . . xpip ϕ(ei1 , . . . , eip ) xij ej . Préparation à l’agrégation interne UFR maths, Université de Rennes I Si p > n, alors deux termes parmi (i1 , . . . , ip ) sont égaux et comme la forme ϕ est alternée, ϕ(ei1 , . . . , eip ) = 0. Donc A p (E) = {0}. Si p = n, il existe une unique permutation σ qui associe (i1 , . . . , ip ) à (1, . . . , n). On a alors X ϕ(x1 , . . . , xp ) = ε(σ) ϕ(e1 , . . . , ep ). σ∈Sp On en déduit que dim A p (E) ≤ 1. Or cet espace est non vide donc il est de dimension 1. Définition 10 – Soit B = (e1 , . . . , en ) une base d’un K-espace vectoriel E de dimension n. Alors, d’après ce qui précède, il existe une unique forme n-linéaire alternée, note DétB telle que DétB (e1 , . . . , en ) = 1. Si (x1 , . . . , xn ) ∈ E n , DétB (x1 , . . . , xn ) s’appelle le déterminant du système de vecteurs (x1 , . . . , xn ) par rapport à la base B. X ε(σ)x1σ(1) × . . . × xnσ(n) On a DétB (x1 , . . . , xn ) = σ∈Sn avec xi = n X xij ej pour tout i ∈ {1, . . . , n}. j=1 3.2. Premières propriétés Proposition 11 – DétB (x1 , . . . , xn ) = 0 si et seulement si le système (x1 , . . . , xn ) est lié. Démonstration : si (x1 , . . . , xn ) est lié, alors l’un des vecteurs est combinaison linéaire des autres. On conclut ensuite en utilisant la p-linéarité du déterminant et le fait que ce soit une forme alternée. Supposons que (x1 , . . . , xn ) forme un système libre et montrons que DétB (x1 , . . . , xn ) 6= 0. On aura alors montré la réciproque par contraposée. Dans ce cas, B 0 = (x1 , . . . , xn ) est une base de E. Or A n (E) est un espace vectoriel de dimension 1. Donc il existe λ 6= 0 tel que DétB = λ DétB0 (λ 6= 0 car aucune des deux formes n’est nulle). On en déduit que DétB (x1 , . . . , xn ) = λ DétB0 (x1 , . . . , xn ) = λ 6= 0. Proposition 12 – Soient B = (e1 , . . . , en ) et B 0 = (e01 , . . . , e0n ) deux bases d’un K-espace vectoriel de dimension n. Pour tout (x1 , . . . , xn ) ∈ E n , on a DétB0 (x1 , . . . , xn ) = DétB0 (x1 , . . . , xn ) DétB (e01 , . . . , e0n ) Démonstration : d’après la dimension de A n (E), il existe λ ∈ K tel que DétB = λ DétB0 . On applique cette égalité à (e01 , . . . , e0n ) et on obtient le résultat. Corollaire 13 – Pour toute permutation σ ∈ Sn , on a DétB (xσ(1) , . . . , xσ(n) = ε(σ) DétB (x1 , . . . , xn ). NOTATION Soit B = (e1 , . . . , en ) une base de E. Pour tout xi ∈ E, on pose xi = n X xij ej j=1 et on écrit alors 1 x1 DétB (x1 , . . . , xn ) = ... x1 n . . . xn1 . .. . .. . . . xnn c’est-à-dire que l’on a écrit dans la kème colonne les coordonnées dans la base B du vecteur xk . Le déterminant dépend donc linéairement de chaque colonne. Il est nul dès que 2 des vecteurs sont proportionnels et il ne change pas si on ajoute à l’une des colonnes une combinaison linéaire des autres. –4– Déterminants 3.3. Déterminant d’un endomorphisme Théorème 14 – Soient E un K-espace vectoriel de dimension n et u ∈ L (E). Alors il existe un scalaire noté Dét u (et appelé déterminant de l’endomorphisme u) tel que ∀ϕ ∈ A n (E), ∀(x1 , . . . , xn ) ∈ E n , ϕ u(x1 ), . . . , u(xn ) = (Dét u) ϕ(x1 , . . . ; xn ). Démonstration : si ϕ = 0, la relation est vraie. Soit ϕ ∈ A n (E). Posons ϕu (x1 , . . . , xn ) = ϕ u(x1 ), . . . , u(xn ) . Comme u est linéaire et que ϕ est une forme n-linéaire et alternée, il est clair que ϕu est une forme n-linéaire alternée. Comme dim A n (E) = 1, il existe λ ∈ K tel que ϕu = λ ϕ. Montrons que λ est indépendant de ϕ. Soit ψ ∈ A n (E). Alors il existe k ∈ K tel que ψ = k ϕ. On a alors ψu (x1 , . . . , xn ) = ψ u(x1 ), . . . , u(xn ) = kϕ u(x1 ), . . . , u(xn ) = kϕu (x1 , . . . , xn ) = λ k ϕ(x1 , . . . , xn ) = λ ψ(x1 , . . . , xn ) On a donc ψu = λ ψ. Corollaire 15 – Soit u ∈ L (E) et B = (e1 , . . . , en ) une base de E. Alors on a Dét u = DétB u(e1 ), . . . , u(en ) . Démonstration : il suffit de prendre ϕ = DétB dans la définition de Dét u. Corollaire 16 – Dét(Idn ) = 1 et Dét(λ Idn ) = λn pour tout λ ∈ K. Proposition 17 – Soient u et v deux endomorphismes de E. Dét(u ◦ v) = Dét u × Dét v. Démonstration : soit ϕ ∈ A n (E). On a successivement ϕ u ◦ v(x1 ), . . . u ◦ v(xn ) = (Dét u)ϕ v(x1 ), . . . , v(xn ) = (Dét u)(Dét v)ϕ(x1 , . . . , xn ) On en déduit donc que Dét(u ◦ v) = Dét u × Dét v. L’application de (GL(E), ◦) dans (K∗ , ×) est un morphisme de groupes. Proposition 18 – Soit u ∈ L (E). u est bijectif si et seulement si Dét u 6= 0. Démonstration : si u est bijectif, il existe v ∈ L (E) tel que v ◦ u = IdE . On a donc Dét u Dét v = 1, d’où Dét u 6= 0. Supposons maintenant que u ne soit pas bijectif. Soit B = (e1 , . . . , en ) une base de E. u(e1 ), . . . , u(en ) est un système lié. Donc DétB u(e1 ), . . . , u(en ) = 0 = Dét u. 3.4. Déterminant d’une matrice Définition 19 – Soit A ∈ Mn (K). On note aij les coefficients de cette matrice. On appelle déterminant de la matrice A le scalaire X Dét A = ε(σ) aσ(1)1 × . . . × aσ(n)n . σ∈Sn Proposition 20 – Soient E un K-espace vectoriel de dimension n rapporté à une base B f ∈ L (E). On note A la matrice de l’endomorphisme f dans la base B. On a Dét f = Dét A. –5– Préparation à l’agrégation interne Démonstration : on a f (ej ) = n X UFR maths, Université de Rennes I aij ei . Donc Dét A = DétB f (e1 ), . . . , f (en ) = Dét f . i=1 Les résultats obtenus pour les endomorphismes deviennent alors Proposition 21 – 1 2 3 4 – – – – Dét In = 1 et Dét(λ In ) = λn Dét(AB) = Dét A Dét B A est inversible si et seulement si Dét A 6= 0. Dét(λ A) = λn Dét A Proposition 22 – Soit A ∈ Mn (K). Alors Dét(A) = Dét(t A). Démonstration : par définition de la transposée d’une matrice, X Dét(t A) = ε(σ) a1σ(1) . . . anσ(n) σ∈Sn = X ε(σ)a ...a ρ(1)σ ρ(1) ρ(n)σ ρ(n) σ∈Sn prenons pour chaque terme ρ = σ −1 X ε(σ)aσ−1 (1)1 . . . aσ−1 (n)n = σ −1 ∈Sn = X ε(σ 0−1 )aσ0 (1)1 . . . aσ0 (n)n σ 0 ∈Sn car σ 7→ σ −1 est bijective de Sn sur Sn X = ε(σ 0 )aσ0 (1)1 . . . aσ0 (n)n σ 0 ∈Sn car ε(σ) = ε(σ −1 ) = Dét A Conséquence : pour le calcul d’un déterminant, toute technique valable sur les colonnes est valable sur les lignes. 4. Développement d’un déterminant 4.1. Développement par blocs Soit 0 < p < n deux entiers naturels et M la matrice de Mn (K) de la forme A C M= avec A ∈ Mp (K), B ∈ Mn−p (K) et C ∈ Mp,n−p (K) 0 B Proposition 23 – Dét M = Dét A × Dét B Démonstration : on considère l’application δ définie par Mp (K) × Mn−p (K) → K δ: X (X, Y ) 7→ Dét 0 C Y Pour Y fixé, l’application X 7→ δ(X, Y ) est une forme p-linéaire alternée (des colonnes de X). Comme A p (K) est de dimension 1, il existe donc λ ∈ K tel que δ(X, Y ) = λ Dét X. En posant X = Ip , on obtient que λ = δ(Ip , Y ). –6– Déterminants Or l’application Y 7→ δ(Ip , Y ) est une forme (n − p)-alternée (par rapport aux colonnes de Y ). Donc il existe λ0 ∈ K tel que δ(Ip , Y ) = λ0 Dét Y . En posant Y = In−p , on obtient que λ0 = δ(Ip , In−p ). Finalement, on a δ(X, Y ) = (Dét X)(Dét Y )δ(Ip , In−p ). Ip C δ(Ip , In−p ) est le déteminant de la matrice . En faisant des combinaisons linéaires 0 In−p des p premières colonnes de cette matrice, on peut remplacer la matrice C par la matrice nulle donc δ(Ip , In−p ) = 1. La proposition se prolonge au calcul du déterminant d’une matrice triangulaire supérieure par blocs (si les blocs diagonaux sont des matrices carrées). 4.2. Mineurs Définition 24 – Soit A = (aij ) ∈ Mn (K). On appelle mineur relatif au coefficient aij et on note ∆ji le déterminant d’ordre n − 1 de la matrice obtenue à partir de A en enlevant la ième ligne et la jème colonne. Théorème 25 – Soit A = (aij ) ∈ Mn (K). On a : n X Dét A = (−1)k+j akj ∆jk (développement par rapport à la jème colonne) k=1 n X Dét A = (−1)k+i aik ∆ki (développement par rapport à la ième ligne) k=1 Démonstration : a11 .. . Dét A = ai1 . .. an1 ... a1j .. . ... aij .. . ... anj ... a1j a1n .. .. . . ain = (−1)j−1 aij . .. .. . anj ann a11 ai1 an1 a1n .. . . . . ain .. . . . . ann ... On a amené la jème colonne en première colonne sans changer l’ordre des autres en utilisant j − 1 transpositions. On va maintenant utiliser la linéarité par rapport à la première colonne : 0 . . n X . j−1 Dét A = (−1) aij i=1 .. . 0 a11 ... a1n .. . ai1 ain .. . an1 . . . ann aij a1j . . . n X 0 a11 . . . = (−1)j−1 (−1)i−1 .. . i=1 0 an1 . . . ajn a1n .. . ann La deuxième égalité est obtenue en utilisant i − 1 transpositions pour placer la ième ligne en première ligne sans changer l’ordre des autres. En utilisant le produit par blocs, on en déduit que n X Dét A = (−1)i+j aij ∆ji . i=1 –7– Préparation à l’agrégation interne UFR maths, Université de Rennes I Définition 26 – Soit A = (aij ) ∈ Mn (K). On appelle cofacteur de l’élément aij le scalaire (−1)i+j ∆ji . La matrice carrée d’ordre n dont le terme (i, j) est (−1)i+j ∆ji est appelée la matrice des cofacteurs ou comatrice de A et est notée comA. 5. Quelques utilisations du déterminant 5.1. Inverse d’une matrice Proposition 27 – Soit A une matrice carrée d’ordre n. Alors t (comA) A = A t (comA) = (Dét A)In . Démonstration : calculons le terme de la ligne i et de la colonne j : t (comA)A ij = = n X t comA a ik kj k=1 n X (−1)k+i akj ∆jk k=1 Si en développant le déterminant par rapport à la jème colonne, on trouve que t i = j, alors, (comA)A ii = Dét A. Si i 6= j, alors t (comA)A ij = 0. En effet, considérons la matrice A0 obtenue à partir de A en remplaçant la ième colonne par la jème colonne. On a donc Dét A0 = 0 et en développant par rapport à la ième colonne, on obtient également n X 0 Dét A = (−1)j akj ∆jk . k=1 Corollaire 28 – Si A est inversible, alors A−1 = 1 t comA. Dét A 5.2. Calcul du rang d’une matrice Définition 29 – Soit A ∈ Mn,p (K). On appelle matrice extraite de A toute matrice formée à partir de A en supprimant certaines lignes et certaines colonnes. On appelle déterminant extrait tout déterminant d’une matrice carrée extraite de A. Théorème 30 – Soit A ∈ Mn,p (K) de rang r. Tout déterminant extrait de A d’ordre strictement supérieur à r est nul et il existe un déterminant d’ordre r non nul. Réciproquement, si tout déterminant d’ordre supérieur à r de la matrice A est nul et s’il existe un déterminant d’ordre r non nul, alors la matrice A est de rang r. Démonstration : soit A ∈ Mn,p (K) une matrice de rang r. On note V1 , . . . , Vp les vecteurscolonnes de la matrice ; ce sont des éléments de Kn . Ce système est de rang r ; on peut donc en extraire un système de r vecteurs linéairement indépendants. Pour simplifier l’écriture, supposons que ce soit le système (V1 , . . . , Vr ). Notons A0 la matrice de Mp,r (K) dont les vecteurs-colonnes sont ces vecteurs V1 , . . . , Vr . Cette matrice est de rang r. Notons W1 , . . . , Wp les vecteurs-lignes de A0 . On peut extraire du système (W1 , . . . , Wp ) un système de r vecteurs linéairement indépendants. Supposons qu’il s’agisse de (W1 , . . . , Wr ). –8– Déterminants Notons A00 la matrice de Mr (K) dont les vecteurs-lignes sont les vecteurs W1 , . . . , Wr . On a Dét A00 6= 0 car (W1 , . . . , Wr ) est un système libre. On a donc construit un déterminant extrait de rang r non nul. Soit maintenant un déterminant ∆r+1 extrait de A d’ordre r+1. Notons V1 , . . . , Vr+1 les vecteurscolonnes de ce déterminant. Le système (V1 , . . . , Vr+1 ) est lié. Donc ∆r+1 = 0. Définition 31 – Soit A ∈ Mn,p (K) et soit ∆ un déterminant extrait de A. On appelle bordant de ∆ tout déterminant ∆0 d’ordre r + 1 extrait de A dont ∆ est un déterminant extrait. Théorème 32 – Soit A ∈ Mn,p (K) une matrice de rang strictement supérieur à r. Si ∆r est un déterminant extrait non nul d’ordre r, alors il existe un bordant de ∆r non nul. Démonstration : soit A ∈ Mn,p (K) une matrice de rang supérieur ou égal à r + 1. On suppose que ∆r est un déterminant non nul extrait de A. Notons Vi1 , . . . , Vir les vecteurs-colonnes de la matrice correspondant aux colonnes de ∆r (colonnes “prolongées” puisque les Vi ∈ Kn ). Ces vecteurs sont linéairement indépendants. Comme rang(A) ≥ r + 1, il existe un vecteur-colonne Vir+1 de la matrice A tel que le système (Vi1 , . . . , Vir , Vir+1 ) soit libre. On note A0 la matrice de Mn,r+1 (K) dont les vecteurs-colonnes sont Vi1 , . . . , Vir+1 . Soient W1 , . . . , Wn les vecteurs-lignes de Mr+1 (K). C’est un système de rang r + 1. (W1 , . . . , wr ) est un système libre car ∆r 6= 0. Il existe donc i ∈ {r + 1, . . . , n} tel que (W1 , . . . , Wr , Wi ) soit libre. On a ainsi construit un bordant de ∆r non nul. Théorème 33 – Soit A ∈ Mn,p (K). Pour A soit de rang r, il faut et il suffit que les deux conditions suivantes soient vérifiées 1) il existe un déterminant ∆r non nul d’ordre r extrait de A 2) tous les bordants de ∆r sont nuls. 5.3. Orientation des espaces vectoriels réels Définition 34 – Soit E un R-espace vectoriel de dimension n (avec n ≥ 1). Soient B et B 0 deux bases de E. On dit que B et B 0 sont de même sens (respectivement de sens contraire) si DétB (B 0 ) > 0 (respectivement DétB (B 0 ) < 0). Théorème 35 – La relation “ B est de même sens que B 0 ” est une relation d’équivalence sur l’ensemble des bases de E. Cette relation d’équivalence a exactement deux classes d’équivalence. Démonstration : la réflexivité et la symétrie sont évidentes. La transitivité est une conséquence de la proposition 12. Il y a au plus deux classes et si (e1 , . . . , en−1 , en ) est une base de E, (e1 , . . . , en−1 , −en ) est une base de E de sens contraire. Choisir une de ces classes d’équivalence, c’est, par définition, orienter l’espace E. Proposition 36 – Soit u ∈ GL(E). Si Dét u > 0, alors u transforme toute base de E en une base de même sens. On dit que u conserve l’orientation. Si Dét u < 0, u transforme toute base en une base de sens contraire, on dit que u change l’orientation de l’espace. Démonstration : il suffit d’écrire que DétB (u(e1 ), . . . , u(en )) = Dét u DétB (B) = Dét u. –9– DÉTERMINANTS 1. Applications et formes multilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Formes p-linéaires alternées sur un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . 3. Déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1. Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2. Premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3. Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4. Déterminant d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4. Développement d’un déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1. Développement par blocs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2. Mineurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5. Quelques utilisations du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1. Inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2. Calcul du rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3. Orientation des espaces vectoriels réels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . –i– 1 2 2 2 4 4 5 6 6 7 8 8 8 9