Fichier pdf

publicité
Déterminants
Dans tout le chapitre, K représente un corps commutatif.
1. Applications et formes multilinéaires
Soient E1 , . . . , Ep et F des espaces vectoriels sur K et ϕ une application de E1 × . . . × Ep dans
F.
Définition 1 – Dire que ϕ est p-linéaire signifie que, pour tout i ∈ {1, . . . , p}, pour tout
(x1 , . . . , xi−1 , xi+1 , . . . , xp ) ∈ E1 × . . . × Ei−1 × Ei+1 × . . . × Ep , l’application ϕi de Ei dans F
définie, pour tout x ∈ Ei , par ϕi (x) = ϕ(x1 , . . . , xi−1 , x, xi+1 , . . . , xp ) est linéaire.
Autrement dit, ϕ est linéaire par rapport à chacune de ses variables.
Si p = 2, on dit que ϕ est bilinéaire.
Si F = K, on dit que ϕ est une forme p-linéaire.
Remarque - Si ϕ est une application p-linéaire, alors, pour tout i ∈ {1, . . . , p}, pour tout
(x1 , . . . , xi−1 , xi+1 , . . . , xp ) ∈ E1 × . . . × Ei−1 × Ei+1 × . . . × Ep , on a
ϕ(x1 , . . . , xi−1 , 0, xi+1 , . . . , xp ) = 0.
Proposition 2 – L’ensemble des applications p-linéaires de E1 ×. . .×Ep dans F est canoniquement muni d’une structure de K-espace vectoriel noté Lp (E1 , . . . , Ep ; F ).
Si E1 = . . . = Ep , on note cet espace Lp (E; F ).
Théorème 3 – On suppose que F est une somme directe de n sous-espaces vectoriels Fi . Alors
n
Y
Lp (E1 , . . . , Ep ; F ) est isomorphe à
Lp (E1 , . . . , Ep ; Fi ).
i=1
Démonstration : soit ϕ ∈ Lp (E1 , . . . , Ep ; F ) et soit pk la kème projection canonique de F sur
Fk . Alors, pour tout k ∈ {1, . . . , n}, l’application pk ◦ ϕ est p-linéaire.
On considère l’application δ : ϕ 7→ (p1 ◦ ϕ, . . . , pn ◦ ϕ). Il est clair que δ est linéaire.
Montrons que δ est injective : soit ϕ ∈ Lp (E1 , . . . , Ep ; F ) telle que δ(ϕ) = 0. Alors, pour tout
k ∈ {1, . . . , n}, pk ◦ϕ = 0. Donc, pour tout (x1 , . . . , xp ) ∈ E1 ×. . .×Ep , pk ◦ϕ(x1 , . . . , xp ) = 0.
Comme ceci est vrai pour tout k, on en déduit que ϕ(x1 , . . . , xp ) = 0 (puisque toutes ses
projections sur des sous-espaces de F en somme directe sont nulles). On a donc montré que δ
est injective.
n
Y
Montrons que δ est surjective. Soit (ϕ1 , . . . , ϕn ) ∈
Lp (E1 , . . . , Ep ; Fi ). On définit une
i=1
application ϕ par ϕ = ϕ1 + · · · + ϕn . On a bien ϕ ∈ Lp (E1 , . . . , Ep ; F ). De plus, ϕ est
p-linéaire et pk ◦ ϕ = ϕk pour tout k ∈ {1, . . . , n}. Donc δ est surjective.
On a ainsi construit un isomorphisme entre les deux espaces considérés.
Comme tout espace vectoriel de dimension finie peut être considéré comme une somme directe
de sous-espaces vectoriels isomorphes à K, on n’étudiera que les formes p-linéaires, c’est-à-dire
l’espace Lp (E1 , . . . , Ep ; K).
Théorème 4 – dim Lp (E1 , . . . , Ep ; K) =
p
Y
dim Ek .
k=1
Démonstration : notons ni la dimension de l’espace Ei pour tout i ∈ {1, . . . , p}. Soit (eij )1≤j≤ri
une base de Ei .
Préparation à l’agrégation interne
UFR maths, Université de Rennes I
On va construire un isomorphisme entre Lp (E1 , . . . , Ep ; K) et Kn1 ×...×np .
Soit ϕ ∈ Lp (E1 , . . . , Ep ; K) et (x1 , . . . , xp ) ∈ E1 × . . . × Ep . Écrivons chacun des xi dans la
ni
X
base de Ei : xi =
xiji eiji . On a alors
ji =1
X
np
n1
X
n n
xjpp ejpp
x1j1 e1j1 , . . . ,
ϕ(x1 , . . . , xp ) = ϕ
jp =1
j1 =1
=
X
x1j1
× . . . × xpjp ϕ(e1j1 , . . . , epjp )
(j1 ,...,jp )∈Σ
avec Σ = {(j1 , . . . , jp ) ; ∀i ∈ {1, . . . , p}, 1 ≤ ji ≤ ni }. Donc, à tout ϕ ∈ Lp (E1 , . . . , Ep ; K), on
a associé les éléments de Kn1 ×...×np donnés par ϕ(e1j1 , . . . , epjp ) pour (j1 , . . . , jp ) ∈ Σ. Notons
ψ cette application. Elle est bien linéaire par propriétés des fonctions
Réciproquement, soit une famille d’élément mj1 ,...,jp avec (j1 , . . . , jp ) ∈ Σ. L’application ϕ de
E1 × . . . × Ep dans K définie, pour tout
P (x1 , . . . , xn ) ∈ E1 × . . . × Ep par
ϕ(x1 , . . . , xp ) = (j1 ,...,jp )∈Σ x1j1 × . . . × xpjp mj1 ,...,jp
est p-linéaire. Donc ψ est surjective.
Il reste à montrer qu’elle est injective. Soit ϕ ∈ Lp (E1 , . . . , Ep ; K) telle que ψ(ϕ) = 0. Alors il
est clair que ϕ = 0.
2. Formes p-linéaires alternées sur un espace vectoriel
D’après le théorème 4, si E est de dimension finie n, alors dim Lp (E; K) = np .
Définition 5 – Soit ϕ une forme p-linéaire sur E. Dire que ϕ est alternée signifie que, si pour tout
(x1 , . . . , xp ) ∈ E p , s’il existe (i, j) ∈ {1, . . . , p}2 avec i 6= j et xi = xj , alors ϕ(x1 , . . . , xp ) = 0.
Proposition 6 – L’ensemble des formes p-linéaires alternées est un K-espace vectoriel noté
A p (E).
On note Sp l’ensemble des permutations de {1, . . . , p}.
Proposition 7 – Soit ϕ ∈ Lp (E). Si ϕ est alternée, alors, pour toute transposition σ ∈ Sp et
pour tout (x1 , . . . , xp ) ∈ E p , on a ϕ(xσ(1) , . . . , xσ(p) ) = −ϕ(x1 , . . . , xp ).
Démonstration : soit σ la transposition échangeant i et j. On a
ϕ(x1 , . . . , xi + xj , . . . , xi + xj , . . . , xp ) = 0 car la forme est alternée
= ϕ(x1 , . . . , xi , . . . , xj , . . . , xp ) + 0 + 0 + ϕ(x1 , . . . , xj , . . . , xi , . . . , xp ) par linéarité
= ϕ(x1 , . . . , xi , . . . , xj , . . . , xp ) + ϕ(xσ(1) , . . . , xσ(i) , . . . , xσ(j) , . . . , xσ(p) )
D’où le résultat.
Remarque - On montre facilement que la réciproque est vraie si K est un corps de caractéristique
différente de 2.
Corollaire 8 – Soit ϕ une forme p-linéaire alternée. Alors, pour toute permutation σ de Sp ,
pour tout (x1 , . . . , xp ) ∈ E p ,
ϕ(xσ(1) , . . . , xσ(p) ) = ε(σ)ϕ(x1 , . . . , xp )
où ε(σ) est la signature de σ.
3. Déterminant
–2–
Déterminants
3.1. Définition
Nous allons d’abord étudier l’espace A n (E) dans le cas où n = dim E et montrer que cet
ensemble est non vide. Soit (e1 , . . . , en ) une base de E. Soit (x1 , . . . , xn ) ∈ E n . On pose
n
X
xi =
xij ej .
j=1
Définissons une application ∆ par

En → K
X

∆ :  (x1 , . . . , xn ) 7→
ε(σ)x1σ(1) × . . . × xnσ(n)
σ∈Sp
L’application ∆ ainsi définie est bien n-linéaire.
Vérifions qu’elle est alternée. Si K est un corps de caractéristique différente de 2, il suffit de
vérifier que, pour toute transposition τ , si τ permute les indices i et j, on a
∆(x1 , . . . , xi , . . . , xj , . . . xn ) = −∆(x1 , . . . , xj , . . . , xi , . . . , xn ).
Ce qui est clair par définition de ∆. Supposons maintenant que K soit un corps de caractéristique
2. Soit i 6= j et xi = xj . On a (on note Sn+ l’ensemble des permutations de signature égale à
1) :
∆(x1 , . . . , xi , . . . , xi , . . . , xn ) =
X
+
σ∈Sn
=
X
X
x1σ(1) . . . xnσ(n) −
x1σ(1) . . . xnσ(n)
+
σ∈Sn \Sn
X
x1σ(1) . . . xnσ(n) −
+
σ∈Sn
x1σ◦τ (1) . . . xnσ◦τ (n)
+
σ∈Sn \Sn
où τ = τij car xi = xj
Or l’application σ 7→ σ ◦ τ est bijective de Sn \ Sp+ dans Sp+ donc
∆(x1 , . . . , xi , . . . , xi , . . . , xn ) =
X
x1σ(1) . . . xnσ(n) −
+
σ∈Sn
X
x1σ0 (1) . . . xnσ0 (n) = 0
+
σ 0 ∈Sn
Donc ∆ est alternée.
Il reste à montrer que l’application ∆ n’est pas nulle. Or
∆(e1 , . . . , en ) =
X
ε(σ)δ1,σ(1) × . . . × δn,σ(n) = 1
σ∈Sn
où δij représente le symbole de Kronecker. On a donc prouvé que A p (E) est non vide.
Théorème 9 – Soit E un K un espace vectoriel de dimension n.
− si p > n, alors A p (E) = {0} ;
− si p = n, alors dim A p (E) = 1.
p
Démonstration : soient (e1 , . . . , en ) une base de E et (x1 , . . . , xp ) ∈ E . On pose xi =
n
X
j=1
Soit ϕ ∈ A p (E). En utilisant la p-linéarité de ϕ, on a
n
n
X
X
ϕ(x1 , . . . , xp ) = ϕ(
x1j ej , . . . ,
xpj ej )
j=1
=
j=1
X
(i1 ,...,ip )∈{1,...,n}p
–3–
x1i1 . . . xpip ϕ(ei1 , . . . , eip )
xij ej .
Préparation à l’agrégation interne
UFR maths, Université de Rennes I
Si p > n, alors deux termes parmi (i1 , . . . , ip ) sont égaux et comme la forme ϕ est alternée,
ϕ(ei1 , . . . , eip ) = 0. Donc A p (E) = {0}.
Si p = n, il existe une unique permutation σ qui associe (i1 , . . . , ip ) à (1, . . . , n). On a alors
X
ϕ(x1 , . . . , xp ) =
ε(σ) ϕ(e1 , . . . , ep ).
σ∈Sp
On en déduit que dim A p (E) ≤ 1. Or cet espace est non vide donc il est de dimension 1.
Définition 10 – Soit B = (e1 , . . . , en ) une base d’un K-espace vectoriel E de dimension n.
Alors, d’après ce qui précède, il existe une unique forme n-linéaire alternée, note DétB telle
que DétB (e1 , . . . , en ) = 1. Si (x1 , . . . , xn ) ∈ E n , DétB (x1 , . . . , xn ) s’appelle le déterminant du
système de vecteurs (x1 , . . . , xn ) par rapport à la base B.
X
ε(σ)x1σ(1) × . . . × xnσ(n)
On a DétB (x1 , . . . , xn ) =
σ∈Sn
avec xi =
n
X
xij ej pour tout i ∈ {1, . . . , n}.
j=1
3.2. Premières propriétés
Proposition 11 – DétB (x1 , . . . , xn ) = 0 si et seulement si le système (x1 , . . . , xn ) est lié.
Démonstration : si (x1 , . . . , xn ) est lié, alors l’un des vecteurs est combinaison linéaire des
autres. On conclut ensuite en utilisant la p-linéarité du déterminant et le fait que ce soit une
forme alternée.
Supposons que (x1 , . . . , xn ) forme un système libre et montrons que DétB (x1 , . . . , xn ) 6= 0. On
aura alors montré la réciproque par contraposée.
Dans ce cas, B 0 = (x1 , . . . , xn ) est une base de E. Or A n (E) est un espace vectoriel de
dimension 1. Donc il existe λ 6= 0 tel que DétB = λ DétB0 (λ 6= 0 car aucune des deux formes
n’est nulle). On en déduit que DétB (x1 , . . . , xn ) = λ DétB0 (x1 , . . . , xn ) = λ 6= 0.
Proposition 12 – Soient B = (e1 , . . . , en ) et B 0 = (e01 , . . . , e0n ) deux bases d’un K-espace
vectoriel de dimension n. Pour tout (x1 , . . . , xn ) ∈ E n , on a
DétB0 (x1 , . . . , xn ) = DétB0 (x1 , . . . , xn ) DétB (e01 , . . . , e0n )
Démonstration : d’après la dimension de A n (E), il existe λ ∈ K tel que DétB = λ DétB0 . On
applique cette égalité à (e01 , . . . , e0n ) et on obtient le résultat.
Corollaire 13 – Pour toute permutation σ ∈ Sn , on a
DétB (xσ(1) , . . . , xσ(n) = ε(σ) DétB (x1 , . . . , xn ).
NOTATION
Soit B = (e1 , . . . , en ) une base de E. Pour tout xi ∈ E, on pose
xi =
n
X
xij ej
j=1
et on écrit alors
1
x1
DétB (x1 , . . . , xn ) = ...
x1
n
. . . xn1 . ..
. .. . . . xnn c’est-à-dire que l’on a écrit dans la kème colonne les coordonnées dans la base B du vecteur xk .
Le déterminant dépend donc linéairement de chaque colonne. Il est nul dès que 2 des vecteurs
sont proportionnels et il ne change pas si on ajoute à l’une des colonnes une combinaison linéaire
des autres.
–4–
Déterminants
3.3. Déterminant d’un endomorphisme
Théorème 14 – Soient E un K-espace vectoriel de dimension n et u ∈ L (E). Alors il existe
un scalaire noté Dét u (et appelé déterminant de l’endomorphisme u) tel que
∀ϕ ∈ A n (E), ∀(x1 , . . . , xn ) ∈ E n , ϕ u(x1 ), . . . , u(xn ) = (Dét u) ϕ(x1 , . . . ; xn ).
Démonstration : si ϕ = 0, la relation est vraie. Soit ϕ ∈ A n (E). Posons ϕu (x1 , . . . , xn ) =
ϕ u(x1 ), . . . , u(xn ) . Comme u est linéaire et que ϕ est une forme n-linéaire et alternée, il est
clair que ϕu est une forme n-linéaire alternée.
Comme dim A n (E) = 1, il existe λ ∈ K tel que ϕu = λ ϕ.
Montrons que λ est indépendant de ϕ.
Soit ψ ∈ A n (E). Alors il existe k ∈ K tel que ψ = k ϕ. On a alors
ψu (x1 , . . . , xn ) = ψ
u(x1 ), . . . , u(xn ) = kϕ u(x1 ), . . . , u(xn )
= kϕu (x1 , . . . , xn ) = λ k ϕ(x1 , . . . , xn )
= λ ψ(x1 , . . . , xn )
On a donc ψu = λ ψ.
Corollaire 15 – Soit u ∈ L (E) et B = (e1 , . . . , en ) une base
de E.
Alors on a Dét u = DétB u(e1 ), . . . , u(en ) .
Démonstration : il suffit de prendre ϕ = DétB dans la définition de Dét u.
Corollaire 16 – Dét(Idn ) = 1 et Dét(λ Idn ) = λn pour tout λ ∈ K.
Proposition 17 – Soient u et v deux endomorphismes de E. Dét(u ◦ v) = Dét u × Dét v.
Démonstration : soit ϕ ∈ A n (E). On a successivement
ϕ u ◦ v(x1 ), . . . u ◦ v(xn ) = (Dét u)ϕ v(x1 ), . . . , v(xn )
= (Dét u)(Dét v)ϕ(x1 , . . . , xn )
On en déduit donc que Dét(u ◦ v) = Dét u × Dét v.
L’application de (GL(E), ◦) dans (K∗ , ×) est un morphisme de groupes.
Proposition 18 – Soit u ∈ L (E). u est bijectif si et seulement si Dét u 6= 0.
Démonstration : si u est bijectif, il existe v ∈ L (E) tel que v ◦ u = IdE . On a donc
Dét u Dét v = 1, d’où Dét u 6= 0.
Supposons maintenant
que u ne soit pas bijectif. Soit B = (e1 , . . . , en ) une base de E.
u(e1 ), . . . , u(en ) est un système lié. Donc DétB u(e1 ), . . . , u(en ) = 0 = Dét u.
3.4. Déterminant d’une matrice
Définition 19 – Soit A ∈ Mn (K). On note aij les coefficients de cette matrice. On appelle
déterminant de la matrice A le scalaire
X
Dét A =
ε(σ) aσ(1)1 × . . . × aσ(n)n .
σ∈Sn
Proposition 20 – Soient E un K-espace vectoriel de dimension n rapporté à une base B
f ∈ L (E). On note A la matrice de l’endomorphisme f dans la base B. On
a Dét f = Dét A.
–5–
Préparation à l’agrégation interne
Démonstration : on a f (ej ) =
n
X
UFR maths, Université de Rennes I
aij ei . Donc Dét A = DétB f (e1 ), . . . , f (en ) = Dét f .
i=1
Les résultats obtenus pour les endomorphismes deviennent alors
Proposition 21 – 1
2
3
4
–
–
–
–
Dét In = 1 et Dét(λ In ) = λn
Dét(AB) = Dét A Dét B
A est inversible si et seulement si Dét A 6= 0.
Dét(λ A) = λn Dét A
Proposition 22 – Soit A ∈ Mn (K). Alors Dét(A) = Dét(t A).
Démonstration : par définition de la transposée d’une matrice,
X
Dét(t A) =
ε(σ) a1σ(1) . . . anσ(n)
σ∈Sn
=
X
ε(σ)a
...a
ρ(1)σ ρ(1)
ρ(n)σ ρ(n)
σ∈Sn
prenons pour chaque terme ρ = σ −1
X
ε(σ)aσ−1 (1)1 . . . aσ−1 (n)n
=
σ −1 ∈Sn
=
X
ε(σ 0−1 )aσ0 (1)1 . . . aσ0 (n)n
σ 0 ∈Sn
car σ 7→ σ −1 est bijective de Sn sur Sn
X
=
ε(σ 0 )aσ0 (1)1 . . . aσ0 (n)n
σ 0 ∈Sn
car ε(σ) = ε(σ −1 )
= Dét A
Conséquence : pour le calcul d’un déterminant, toute technique valable sur les colonnes est
valable sur les lignes.
4. Développement d’un déterminant
4.1. Développement par blocs
Soit 0 < p < n deux entiers naturels et M la matrice de Mn (K) de la forme
A C
M=
avec A ∈ Mp (K), B ∈ Mn−p (K) et C ∈ Mp,n−p (K)
0 B
Proposition 23 – Dét M = Dét A × Dét B
Démonstration : on considère l’application δ définie par

Mp (K) × Mn−p (K) → K

δ: 
X
(X, Y ) 7→ Dét
0
C
Y
Pour Y fixé, l’application X 7→ δ(X, Y ) est une forme p-linéaire alternée (des colonnes de X).
Comme A p (K) est de dimension 1, il existe donc λ ∈ K tel que δ(X, Y ) = λ Dét X. En posant
X = Ip , on obtient que λ = δ(Ip , Y ).
–6–
Déterminants
Or l’application Y 7→ δ(Ip , Y ) est une forme (n − p)-alternée (par rapport aux colonnes de
Y ). Donc il existe λ0 ∈ K tel que δ(Ip , Y ) = λ0 Dét Y . En posant Y = In−p , on obtient que
λ0 = δ(Ip , In−p ).
Finalement, on a δ(X, Y ) = (Dét X)(Dét Y )δ(Ip , In−p ).
Ip
C
δ(Ip , In−p ) est le déteminant de la matrice
. En faisant des combinaisons linéaires
0 In−p
des p premières colonnes de cette matrice, on peut remplacer la matrice C par la matrice nulle
donc δ(Ip , In−p ) = 1.
La proposition se prolonge au calcul du déterminant d’une matrice triangulaire supérieure par
blocs (si les blocs diagonaux sont des matrices carrées).
4.2. Mineurs
Définition 24 – Soit A = (aij ) ∈ Mn (K). On appelle mineur relatif au coefficient aij et on
note ∆ji le déterminant d’ordre n − 1 de la matrice obtenue à partir de A en enlevant la ième
ligne et la jème colonne.
Théorème 25 – Soit A = (aij ) ∈ Mn (K). On a :
n
X
Dét A =
(−1)k+j akj ∆jk (développement par rapport à la jème colonne)
k=1
n
X
Dét A =
(−1)k+i aik ∆ki (développement par rapport à la ième ligne)
k=1
Démonstration :
a11
..
.
Dét A = ai1
.
..
an1
...
a1j
..
.
...
aij
..
.
...
anj
...
a1j
a1n ..
.. .
. ain = (−1)j−1 aij
.
.. ..
. anj
ann
a11
ai1
an1
a1n .. . . . . ain .. . . . . ann ...
On a amené la jème colonne en première colonne sans changer l’ordre des autres en utilisant
j − 1 transpositions. On va maintenant utiliser la linéarité par rapport à la première colonne :
0
.
.
n
X .
j−1
Dét A = (−1)
aij
i=1 ..
.
0
a11
...
a1n .. . ai1
ain .. . an1 . . . ann
aij a1j . . .
n
X
0 a11 . . .
= (−1)j−1
(−1)i−1 ..
.
i=1
0 an1 . . .
ajn a1n .. . ann
La deuxième égalité est obtenue en utilisant i − 1 transpositions pour placer la ième ligne en
première ligne sans changer l’ordre des autres. En utilisant le produit par blocs, on en déduit que
n
X
Dét A =
(−1)i+j aij ∆ji .
i=1
–7–
Préparation à l’agrégation interne
UFR maths, Université de Rennes I
Définition 26 – Soit A = (aij ) ∈ Mn (K). On appelle cofacteur de l’élément aij le scalaire
(−1)i+j ∆ji .
La matrice carrée d’ordre n dont le terme (i, j) est (−1)i+j ∆ji est appelée la matrice des
cofacteurs ou comatrice de A et est notée comA.
5. Quelques utilisations du déterminant
5.1. Inverse d’une matrice
Proposition 27 – Soit A une matrice carrée d’ordre n.
Alors t (comA) A = A t (comA) = (Dét A)In .
Démonstration : calculons le terme de la ligne i et de la colonne j :
t
(comA)A
ij
=
=
n
X
t
comA
a
ik kj
k=1
n
X
(−1)k+i akj ∆jk
k=1
Si
en développant le déterminant par rapport à la jème colonne, on trouve que
t i = j, alors,
(comA)A ii = Dét A.
Si i 6= j, alors t (comA)A ij = 0.
En effet, considérons la matrice A0 obtenue à partir de A en remplaçant la ième colonne par
la jème colonne. On a donc Dét A0 = 0 et en développant par rapport à la ième colonne, on
obtient également
n
X
0
Dét A =
(−1)j akj ∆jk .
k=1
Corollaire 28 – Si A est inversible, alors A−1 =
1 t
comA.
Dét A
5.2. Calcul du rang d’une matrice
Définition 29 – Soit A ∈ Mn,p (K). On appelle matrice extraite de A toute matrice formée à
partir de A en supprimant certaines lignes et certaines colonnes.
On appelle déterminant extrait tout déterminant d’une matrice carrée extraite de A.
Théorème 30 – Soit A ∈ Mn,p (K) de rang r. Tout déterminant extrait de A d’ordre
strictement supérieur à r est nul et il existe un déterminant d’ordre r non
nul.
Réciproquement, si tout déterminant d’ordre supérieur à r de la matrice A
est nul et s’il existe un déterminant d’ordre r non nul, alors la matrice A est
de rang r.
Démonstration : soit A ∈ Mn,p (K) une matrice de rang r. On note V1 , . . . , Vp les vecteurscolonnes de la matrice ; ce sont des éléments de Kn . Ce système est de rang r ; on peut donc en
extraire un système de r vecteurs linéairement indépendants. Pour simplifier l’écriture, supposons
que ce soit le système (V1 , . . . , Vr ).
Notons A0 la matrice de Mp,r (K) dont les vecteurs-colonnes sont ces vecteurs V1 , . . . , Vr . Cette
matrice est de rang r. Notons W1 , . . . , Wp les vecteurs-lignes de A0 . On peut extraire du système
(W1 , . . . , Wp ) un système de r vecteurs linéairement indépendants. Supposons qu’il s’agisse de
(W1 , . . . , Wr ).
–8–
Déterminants
Notons A00 la matrice de Mr (K) dont les vecteurs-lignes sont les vecteurs W1 , . . . , Wr . On a
Dét A00 6= 0 car (W1 , . . . , Wr ) est un système libre. On a donc construit un déterminant extrait
de rang r non nul.
Soit maintenant un déterminant ∆r+1 extrait de A d’ordre r+1. Notons V1 , . . . , Vr+1 les vecteurscolonnes de ce déterminant. Le système (V1 , . . . , Vr+1 ) est lié. Donc ∆r+1 = 0.
Définition 31 – Soit A ∈ Mn,p (K) et soit ∆ un déterminant extrait de A. On appelle bordant
de ∆ tout déterminant ∆0 d’ordre r + 1 extrait de A dont ∆ est un déterminant extrait.
Théorème 32 – Soit A ∈ Mn,p (K) une matrice de rang strictement supérieur à r. Si ∆r est
un déterminant extrait non nul d’ordre r, alors il existe un bordant de ∆r non
nul.
Démonstration : soit A ∈ Mn,p (K) une matrice de rang supérieur ou égal à r + 1. On suppose
que ∆r est un déterminant non nul extrait de A. Notons Vi1 , . . . , Vir les vecteurs-colonnes de
la matrice correspondant aux colonnes de ∆r (colonnes “prolongées” puisque les Vi ∈ Kn ). Ces
vecteurs sont linéairement indépendants. Comme rang(A) ≥ r + 1, il existe un vecteur-colonne
Vir+1 de la matrice A tel que le système (Vi1 , . . . , Vir , Vir+1 ) soit libre.
On note A0 la matrice de Mn,r+1 (K) dont les vecteurs-colonnes sont Vi1 , . . . , Vir+1 . Soient
W1 , . . . , Wn les vecteurs-lignes de Mr+1 (K). C’est un système de rang r + 1. (W1 , . . . , wr ) est
un système libre car ∆r 6= 0. Il existe donc i ∈ {r + 1, . . . , n} tel que (W1 , . . . , Wr , Wi ) soit
libre. On a ainsi construit un bordant de ∆r non nul.
Théorème 33 – Soit A ∈ Mn,p (K). Pour A soit de rang r, il faut et il suffit que les deux
conditions suivantes soient vérifiées
1) il existe un déterminant ∆r non nul d’ordre r extrait de A
2) tous les bordants de ∆r sont nuls.
5.3. Orientation des espaces vectoriels réels
Définition 34 – Soit E un R-espace vectoriel de dimension n (avec n ≥ 1). Soient B et B 0
deux bases de E. On dit que B et B 0 sont de même sens (respectivement de sens contraire) si
DétB (B 0 ) > 0 (respectivement DétB (B 0 ) < 0).
Théorème 35 – La relation “ B est de même sens que B 0 ” est une relation d’équivalence sur
l’ensemble des bases de E. Cette relation d’équivalence a exactement deux
classes d’équivalence.
Démonstration : la réflexivité et la symétrie sont évidentes. La transitivité est une conséquence
de la proposition 12. Il y a au plus deux classes et si (e1 , . . . , en−1 , en ) est une base de E,
(e1 , . . . , en−1 , −en ) est une base de E de sens contraire.
Choisir une de ces classes d’équivalence, c’est, par définition, orienter l’espace E.
Proposition 36 – Soit u ∈ GL(E). Si Dét u > 0, alors u transforme toute base de E en une
base de même sens. On dit que u conserve l’orientation. Si Dét u < 0, u
transforme toute base en une base de sens contraire, on dit que u change
l’orientation de l’espace.
Démonstration : il suffit d’écrire que DétB (u(e1 ), . . . , u(en )) = Dét u DétB (B) = Dét u.
–9–
DÉTERMINANTS
1. Applications et formes multilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2. Formes p-linéaires alternées sur un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . .
3. Déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1. Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2. Premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3. Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4. Déterminant d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4. Développement d’un déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1. Développement par blocs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2. Mineurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5. Quelques utilisations du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.1. Inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2. Calcul du rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3. Orientation des espaces vectoriels réels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
–i–
1
2
2
2
4
4
5
6
6
7
8
8
8
9
Téléchargement