113

publicité
15
Déterminants. Applications
1
On suppose connu le groupe symétrique Sp , où p est un entier naturel non nul. (voir le
chapitre 3).
K est un corps commutatif de caractéristique diérente de 2.
E est un K-espace vectoriel de dimension nie n ≥ 1.
L (E) est l'algèbre des endomorphismes de E, GL (E) est le groupe des automorphismes de
E.
Pour n, m entiers naturels non nuls, Mm,n (K) est l'espace des matrices à m lignes, n colonnes
et à coecients dans K.
Pour m = n, on note Mn (K) l'algèbre des matrices carrées d'ordre n à coecients dans K,
GLn (K) est le groupe des matrices inversibles dans Mn (K) .
On note Id [resp. In ] l'endomorphisme [resp. la matrice] identité.
15.1 Formes multilinéaires alternées
On connaît l'espace dual E ∗ = L (E, K) des formes linéaires sur E (voir le chapitre 12).
Sauf précision contraire, p est un entier naturel supérieur ou égal à 2.
Dénition 15.1 Une forme p-linéaire sur
tout k compris entre 1 et p et (xi )1≤i≤p
i̸=k
E est une application φ : E p → K telle que pour
xé dans E p−1 l'application partielle :
φi : x ∈ E 7→ φ (x1 , · · · , xk−1 , x, xk+1 , · · · , xp )
est une forme linéaire sur E.
On dit que φ est alternée si φ (x1 , · · · , xp ) = 0 pour tout (xi )1≤i≤p ∈ E p pour lequel il existe
j ̸= k compris entre 1 et p tels que xi = xj .
Pour tout entier p ≥ 1, on note Lp (E, K) l'ensemble des formes p-linéaires sur E (pour
p = 1, L1 (E, K) = E ∗ ).
Théorème 15.1 Pour tout entier p ≥ 1, Lp (E, K) est un K-espace vectoriel de dimension np .
Démonstration. Il est facile de vérier que Lp (E, K) est un K-espace vectoriel.
Soit B = (ei )1≤i≤n une base de E.
1. Version du 24/02/2013
367
Déterminants. Applications
368
Pour tout φ ∈ Lp (E, K) et tout (x1 , · · · , xp ) ∈ E p , en notant pour j compris entre 1 et p :
xj =
n
∑
xi,j ei
i=1
et en utilisant le caractère p-linéaire de φ, on a :
(
φ (x1 , · · · , xp ) = φ
p
∑
xi1 ,1 ei1 , x2 , · · · , xp
i1 =1
=
=
p
p
∑
∑
i1 =1
=
∑
=
p
∑
xi1 ,1 φ (ei1 , x2 · · · , xp )
i1 =1
xi1 ,1 xi2 ,2 φ (ei1 , ei2 , x3 · · · , xp )
i1 =1i2 =1
n
∑
···
)
n
∑
(
)
xi1 ,1 · · · xip ,p φ ei1 , · · · , eip
i1n =1
(
)
xi1 ,1 · · · xip ,p φ ei1 , · · · , eip
1≤i1 ,··· ,ip ≤n
( (
On vérie facilement que l'aplication Φ : φ ∈ Lp (E, K) 7→ φ ei1 , · · · , eip
est linéaire est injective. (
)
p
Pour tout vecteur α = αi1 ,··· ,ip 1≤i1 ,··· ,ip ≤n ∈ Kn , l'application :
φ : (x1 , · · · , xp ) 7→
∑
))
∈ Kn
1≤i1 ,··· ,ip ≤n
p
αi1 ,··· ,ip xi1 ,1 · · · xip ,p
1≤i1 ,··· ,ip ≤n
est p-linéaire, donc Φ est surjective et elle réalise un isomorphisme de Lp (E, K) sur Kn .
Il en résulte que dim (Lp (E, K)) = np .
Si φ ∈ Lp (E, K) est alternée, on a alors φ (x1 , · · · , xp ) = 0 pour toute famille liée (xi )1≤i≤p
de vecteurs de E.
Il en résulte que φ (x1 , · · · , xp ) est inchangé si on ajoute à l'un des vecteurs xk une combinaison linéaire des autres vecteurs xj (avec j ̸= k ).
p
Théorème 15.2 Une forme p-linéaire φ sur E est alternée si, et seulement si, φ
(
)
xσ(1) , · · · , xσ(p) =
ε (σ) φ (x1 , · · · , xp ) pour tout (x1 , · · · , xp ) ∈ E p et toute permutation σ ∈ Sp .
(
)
Démonstration. Il sut de montrer que φ xτ (1) , · · · , xτ (p) = −φ (x1 , · · · , xp ) pour toute
transposition τ, puisque Sp est engendré par les transpositions.
Supposons que φ ∈ Lp (E, K) soit alternée et soit τ = (j, k) une transposition avec 1 ≤ j <
k ≤ p. En écrivant que :
0 = φ (x1 , · · · , xj + xk , · · · , xj + xk , · · · , xp )
= φ (x1 , · · · , xj , · · · , xj , · · · , xp ) + φ (x1 , · · · , xp )
(
)
+ φ xτ (1) , · · · , xτ (p) + φ (x1 , · · · , xk , · · · , xk , · · · , xp )
(
)
= φ (x1 , · · · , xp ) + φ xτ (1) , · · · , xτ (p)
(
)
on déduit que φ xτ (1) , · · · , xτ (p) = −φ (x1 , · · · , xp ) .
Réciproquement, supposons cette condition vériée. Si xj = xk pour 1 ≤ j < k ≤ p, on a
alors, pour τ = (j, k) :
(
)
φ (x1 , · · · , xp ) = φ xτ (1) , · · · , xτ (p) = −φ (x1 , · · · , xp )
et φ (x1 , · · · , xp ) = 0 pour K de caractéristique diérente de 2.
Déterminants
369
15.2 Déterminants
L'espace E est de dimension n ≥ 1, B = (ei )1≤i≤n est une base de E et pour tout vecteur
x ∈ E, on note X = (xi )1≤i≤n le vecteur de K formé des composantes de x, ce qui signie que :
x=
n
∑
xi ei
i=1
Théorème 15.3 L'espace vectoriel An (E, K) des formes n-linéaires alternées est de dimension
1 engendré par l'application detB : E n → K dénie par :
∑
n
∏
ε (σ) xσ(i),i
σ∈Sn
i=1
detB (x1 , · · · , xn ) =
où xj =
n
∑
xij ei pour tout j compris entre 1 et n.
i=1
Démonstration. Vérions tout d'abord que l'application detB est n-linéaire alternée.
En désignant, pour tout j compris entre 1 et n, par :
πj : x =
n
∑
xi ei 7→ xj
i=1
la j -ème projection, on a :
detB (x1 , · · · , xn ) =
∑
n
∏
ε (σ) πσ(i) (xi )
i=1
σ∈Sn
Chaque application πσ(i) étant linéaire, l'application (x1 , · · · , xn ) 7→
n
∏
πσ(i) (xi ) est n-linéaire
i=1
et il en est de même de detB comme combinaison linéaire d'applications n-linéaires.
Pour tout permutation τ, en eectuant le changement d'indice k = τ (i) , on a :
(
)
detB xτ (1) , · · · , xτ (n) =
=
∑
ε (σ)
(
)
πσ(i) xτ (i)
σ∈Sn
i=1
∑
n
∏
ε (σ)
σ∈Sn
=
n
∏
∑
ε (σ)
σ∈Sn
πσ(τ −1 (k)) (xk )
k=1
n
∏
πσ◦τ −1 (k) (xk )
k=1
et en utilisant le fait que l'application σ ′ 7→ σ = σ ′ ◦ τ est une bijection de Sn sur lui même, on
en déduit que :
(
)
detB xτ (1) , · · · , xτ (n) =
∑
′
ε (σ ◦ τ )
σ ′ ∈Sn
= ε (τ )
∑
σ ′ ∈Sn
n
∏
πσ′ (k) (xk )
k=1
n
∏
′
ε (σ )
πσ′ (k) (xk )
k=1
= ε (τ ) detB (x1 , · · · , xn )
Déterminants. Applications
370
ce qui signie que detB est alternée.
Pour φ ∈ An (E, K) et (x1 , · · · , xn ) ∈ E n , on a :
∑
φ (x1 , · · · , xn ) =
n
∑∏
(
)
xi1 ,1 · · · xin ,n φ (ei1 , · · · , ein ) =
xγ(i),i φ eγ(1) , · · · , eγ(n)
1≤i1 ,··· ,in ≤n
γ∈Fn i=1
où Fn est l'ensemble des applications
de {1, · · · , n}
(
) dans {1, · · · , n} .
Comme φ est alternée, on a φ xγ(1) , · · · , xγ(n) = 0 pour γ non bijective et :
φ (x1 , · · · , xn ) =
n
∑∏
(
)
xσ(i),i φ eσ(1) , · · · , eσ(n)
σ∈Sn i=1
(
=
∑
n
∏
ε (σ) xσ(i),i
σ∈Sn
i=1
)
φ (e1 , · · · , en )
et φ = λ detB avec λ = φ (e1 , · · · , en ) ∈ K et detB ∈ An (E, K) \ {0} .
Donc An (E, K) est de dimension 1 engendré par detB .
La forme detB est l'unique forme n-linéaire alternée sur E telle que φ (e1 , · · · , en ) = 1.
Dénition 15.2 Avec les notations qui précèdent, on dit que detB (x1 , · · · , xn ) est le déterminant du n-uplet de vecteurs (xi )1≤i≤n dans la base B.
Pour toute forme n-linéaire alternée φ sur E, on a φ = λ detB avec λ = φ (e1 , · · · , en ) , donc :
φ (x1 , · · · , xn ) = φ (e1 , · · · , en ) detB (x1 , · · · , xn )
pour tout (xi )1≤i≤n ∈ E n .
On en déduit la formule de changement de base qui suit.
Théorème 15.4 Si B′ = (e′i )1≤i≤n est une autre base de E, on a alors pour pour tout (xi )1≤i≤n ∈
En :
detB′ (x1 , · · · , xn ) = detB′ (e1 , · · · , en ) detB (x1 , · · · , xn )
= detB′ (B) detB (x1 , · · · , xn )
(relation de Chasles).
On déduit du résultat précédent que :
detB′ (B) detB (B ′ ) = detB′ (B ′ ) = 1
Théorème 15.5 Soit
équivalentes :
(xi )1≤i≤n un n-uplet de vecteurs de E. Les assertions suivantes sont
1. la famille (xi )1≤i≤n est liée ;
2. pour toute base B de E, detB (x1 , · · · , xn ) = 0 ;
3. il existe une base B de E telle que detB (x1 , · · · , xn ) = 0.
Déterminants
371
Démonstration. (1) ⇒ (2) Si la famille (xi )1≤i≤n est liée, on a alors φ (x1 , · · · , xn ) = 0
pour toute forme n-linéaire alternée et c'est en particulier vrai pour detB , quelle que soit la
base B de E.
Réciproquement
(2) ⇒ (3) est évident.
(3) ⇒ (1) Supposons qu'il existe une base B de E telle que detB (x1 , · · · , xn ) = 0. Si la famille
B′ = (xi )1≤i≤n est libre, c'est alors une base de E et 1 = detB′ (B′ ) = detB′ (B) detB (B′ ) = 0, ce
qui est impossible.
Corollaire 15.1 Soit (xi )1≤i≤n un n-uplet de vecteurs de E. Cette famille est une base de E
si, et seulement si, il existe une base B de E telle que detB (x1 , · · · , xn ) ̸= 0.
Le résultat qui suit nous permet de dénir le déterminant d'un endomorphisme de E.
Théorème 15.6 Pour tout endomorphisme
u ∈ L (E) , il existe un scalaire λu tel que pour
toute forme φ ∈ An (E, K) \ {0} et tout (xi )1≤i≤n ∈ E n , on ait :
φ (u (x1 ) , · · · , u (xn )) = λu φ (x1 , · · · , xn )
En particulier, on a :
λu = detB (u (e1 ) , · · · , u (en ))
où B = (ei )1≤i≤n est une base quelconque de E.
Démonstration. Pour tout endomorphisme
φ ∈ An (E, K) \ {0} , l'application :
u ∈ L (E) et toute forme n-linéaire alternée
φu : (x1 , · · · , xn ) ∈ E n 7→ φ (u (x1 ) , · · · , u (xn ))
est aussi une forme n-linéaire alternée, en conséquence, il existe un scalaire λu tel que φu = λu φ
(dim (An (E, K)) = 1).
Si ψ ∈ An (E, K) \ {0} est une autre forme n-linéaire alternée non nulle, on a alors ψ = ρφ
et :
ψu = ρφu = ρλu φ = λu ψ
c'est-à-dire que le scalaire λu ne dépend pas de la forme n-linéaire alternée non nulle choisie.
En prenant φ = detB puis φ = detB′ , où B = (ei )1≤i≤n et B′ = (e′i )1≤i≤n sont deux bases de
E, on a :
detB (u (e1 ) , · · · , u (en )) = λu = detB′ (u (e′1 ) , · · · , u (e′n ))
Dénition 15.3 Avec les notations du théorème précédent, on dit que
de u et on le note det (u) .
λu est le déterminant
On a vu que det (u) be dépend que de u et pas du choix d'une base de E.
Si (xi )1≤i≤n ∈ E n et u ∈ L (E) est déni par u (ei ) = xi pour tout i compris entre 1 et n, on
a alors :
det (u) = detB (u (e1 ) , · · · , u (en )) = detB (x1 , · · · , xn )
où B = (ei )1≤i≤n est une base quelconque de E.
Déterminants. Applications
372
Théorème 15.7 On a det (Id) = 1.
Pour u, v dans L (E) et λ ∈ K, on a det (λu) = λn det (u) , det (u ◦ v) = det (v ◦ u) =
det (u) det (v) .
Un endomorphisme u ∈ L (E) est inversible si, et seulement si, det (u) ̸= 0 et dans ce cas, on
a det (u−1 ) =
1
.
det (u)
Démonstration. Pour toute base B = (ei )1≤i≤n de E, on a det (u) = detB (Id (e1 ) , · · · , Id (en )) =
detB (B) = 1.
Avec la n-linéarité de detB , on obtient :
det (λu) = detB (λu (e1 ) , · · · , λu (en )) = λn detB (u (e1 ) , · · · , u (en ))
= λn det (u)
Pour toute forme φ ∈ An (E, K) \ {0} et tout (xi )1≤i≤n ∈ E n , on a :
φ (u ◦ v (x1 ) , · · · , u ◦ v (xn )) = det (v ◦ u) φ (x1 , · · · , xn )
et aussi :
φ (u ◦ v (x1 ) , · · · , u ◦ v (xn )) = det (u) φ (v (x1 ) , · · · , v (xn ))
= det (u) det (v) φ (x1 , · · · , xn )
donc det (u ◦ v) = det (u) det (v) puisque φ ̸= 0. Comme det (u) det (v) = det (v) det (u) , on a
aussi det (u ◦ v) = det (v ◦ u) .
Si u ∈ GL (E) , on a alors 1 = det (Id) = det (u ◦ u−1 ) = det (u) det (u−1 ) et det (u) ̸= 0.
Si u ∈
/ GL (E) , la famille (u (e1 ) , · · · , u (en )) est alors liée et det (u) = detB (u (e1 ) , · · · , u (en )) =
0.
L'application det est un morphisme de groupes surjectif de GL (E) sur K∗ . Le noyau de ce
morphisme est le groupe spécial linéaire SL (E) qui est un sous-groupe distingué de GL (E) .
Si A = ((ai,j ))1≤i,j≤n est la matrice de u ∈ L (E) dans une base B = (ei )1≤i≤n de E, on a
alors :
n
u (ej ) =
∑
aij ei (1 ≤ i ≤ n)
i=1
et :
det (u) = detB (u (e1 ) , · · · , u (en )) =
∑
σ∈Sn
ε (σ)
n
∏
aσ(i),i
i=1
Dénition 15.4 Si A = ((ai,j ))1≤i,j≤n ∈ Mn (K) , le déterminant de A est le scalaire :
det (A) =
∑
σ∈Sn
ε (σ)
n
∏
aσ(i),i
(15.1)
i=1
Ce déterminant est le déterminant de la famille (Cj )1≤j≤n des vecteurs colonnes de A dans
la base canonique de Kn .
C'est aussi le déterminant de l'endomorphisme de Kn canoniquement associé à la matrice A.
Si u ∈ L (E) a pour matrice A ∈ Mn (K) dans une base B de E, on a alors det (u) = det (A) .
L'application det : Mn (K) → K est une fonction polynomiale homogène de degré n.
Méthodes de calcul d'un déterminant
Exercice 15.1 Montrer le polynôme
373
det (X) =
∑
ε (σ)
Xσ(i),i est irréductible dans l'an-
i=1
σ∈Sn
neau K [X11 , · · · Xi,j , · · · , Xnn ] .
n
∏
Solution 15.1 Voir Lelong-Ferrand, exercice du chapitre X, Maisonobe, Briançon, algèbre
commutative et page de Sandrine Caruso.
Théorème 15.8 On a det (In ) = 1.
Pour A, B dans Mn (K) et λ ∈ K, on a det (λA) = λn det (A) , det ( t A) = det (A) et
det (AB) = det (BA) = det (A) det (B) .
Une matrice A ∈ Mn (K) est inversible si, et seulement si, det (A) ̸= 0 et dans ce cas, on a
1
det (A−1 ) =
.
det (A)
Si A et B sont semblables, on a alors det (A) = det (B) .
Démonstration. Toutes les propriétés, exceptée celle sur la transposée se déduisent du
théorème 15.7.
Pour A = ((ai,j ))1≤i,j≤n ∈ Mn (K) , on a :
det (A) =
∑
σ∈Sn
ε (σ)
n
∏
aσ(i),i =
i=1
∑
n
∏
ε (σ) aσ(i),σ−1 (σ(i))
i=1
σ∈Sn
n
n
∑
∏
∑ (
( )
)∏
−1
ak,σ−1 (k) =
ε (τ ) ak,τ (k) = det t A
=
ε σ
σ∈Sn
τ ∈Sn
k=1
i=1
15.3 Méthodes de calcul d'un déterminant
Des propriétés des formes multilinéaires alternées, on déduit les propriétés suivantes du
déterminant, où A ∈ Mn (K) et Cj = (aij )1≤i≤n ∈ Kn est la colonne numéro j de A pour tout
j compris entre 1 et n.
(
)
En désignant, pour toute permutation σ ∈ Sn par Aσ la matrice Aσ = Cσ(1) , · · · , Cσ(p)
déduite de A en faisant agir σ sur ses colonnes, on a :
det (Aσ ) = ε (σ) det (A)
Si l'une des colonnes de A est combinaison linéaire des autres, on a alors det (A) = 0.
En particulier, det (A) = 0 si l'une des colonnes de A est nulle.
det (A) est linéaire par rapport à chacune des colonnes.
det (A) est inchangé si on ajoute à une de ses colonnes une combinaison linéaire des autres.
Les propriétés analogues sur les lignes de A sont vériées.
On s'intéresse d'abord au calcul du déterminant d'une matrice triangulaire par blocs.
(
α
Lemme 15.1 Pour toute matrice A = a011 B
et B ∈ Mn−1 (K) , on a det (A) = a11 det (B) .
)
∈ Mn (K) , où a11 ∈ K, α ∈ M1×(n−1) (K)
Déterminants. Applications
374
Démonstration. Si a11 = 0, on a alors det (A) = 0 = a11 det (B) .
Si a11 ̸= 0, on a alors :
det (A) = an11 det (A′ )
)
1
1
1 α′
où A =
avec α′ =
α et B ′ =
B.
′
0 B
a11
a11
En notant Cj′ la colonne j de A′ , pour 1 ≤ j ≤ n, les opérations qui consiste à remplacer Cj′
par Cj′ − αj C1′ pour j compris entre 2 et n, ne change pas la valeur de det (A′ ) , donc :
)
(
1 0
′
det (A ) = det
0 B′
)
(
1 0
′
est n−1-linéaire alternée avec φ (In−1 ) =
L'application φ : B ∈ Mn−1 (K) 7→ det
0 B′
det (In ) = 1, donc :
1
det (A′ ) = φ (B ′ ) = det (B ′ ) = n−1 det (B)
a11
(
′
et det (A) = a11 det (B) .
Lemme 15.2 Pour toute matrice triangulaire supérieure
n
∏
A = ((ai,j ))1≤i,j≤n , on a det (A) =
ai,i .
i=1
Démonstration. Se déduit par récurrence du lemme précédent.
Lemme 15.3 Pour toute matrice M =
(
et p + q = n, on a det (M ) = det (A) .
A B
0 Iq
)
∈ Mn (K) , où A ∈ Mp (K) , B ∈ Mp×q (K)
Solution 15.2 À B xé dans Mp×q (K) , l'application φ : A ∈ Mp (K) 7→ det
p-linéaire alternée avec :
(
φ (Ip ) = det
Ip B
0 Iq
(
A B
0 Iq
)
est
)
=1
On a donc, par dénition du déterminant,
( φ (A) =)det (A) pour toute matrice A ∈ Mp (K) .
Ip B
0 D
De manière analogue on montre que det
= det (D) .
(
)
A B
Lemme 15.4 Pour toute matrice M = 0 D ∈ Mn (K) , où A ∈ Mp (K) , B ∈ Mp×q (K) ,
D ∈ Mq (K) et p + q = n, on a det (M ) = det (A) det (D) .
Démonstration.
À (B, D) xé dans Mp×q (K) × Mq (K) , l'application φ : A ∈ Mp (K) 7→
(
)
det
A B
0 D
est p-linéaire alternée avec :
(
φ (Ip ) = det
donc det (M ) = φ (A) = det (A) det (D) .
Ip B
0 D
)
= det (D)
Méthodes de calcul d'un déterminant
375
Exercice (15.2 On )suppose que le corps K est inni.
Soit M =
A B
C D
∈ M2n (K), avec A, B, C, D dans Mn (K) telles que C et D commutent.
(
1. On suppose que D inversible et on pose T =
D
0
−C D−1
)
.
Calculer le produit de M T et en déduire un calcul que :
det (M ) = det (AD − BC)
2. On désigne par P le polynôme déni par
(
P (X) = det
A
B
C D − XIn
)
Montrer que le polynôme Q déni par Q (X) = det (D − XIn ) n'a qu'un nombre ni de
racines dans K.
En déduire que :
det (M ) = det (AD − BC)
3. Montrer que pour toutes matrices A, B dans Mn (R) on a det
(
A B
−B A
)
≥ 0.
Solution 15.3
1. En utilisant le fait que D et C commutent on a :
(
MT =
A B
C D
)(
et :
(
det
D
0
−C D−1
A B
C D
)
=
(
AD − BC BD−1
0
Iq
)
)
= det (AD − BC)
2. Q (X) = det (D − XIn ) est un polynôme de degré q, il n'a donc qu'un nombre ni de
racines dans K.
En conséquence la matrice D − XIn est inversible pour une innité de valeurs de X.
Pour ces valeurs on a :
(
P (X) = det
A
B
C D − XIn
)
= det (A (D − XIn ) − BC) = R (X)
Les polynômes P et R prenant la même valeur pour
de valeurs de X sont
( une innité
)
A B
donc identiques. En prenant X = 0 on obtient det
= det (AD − BC) .
C D
3. On a :
(
det
A B
−B A
)
)
(
= det A2 + B 2 = det ((A + iB) (A − iB))
= det (A + iB) det (A − iB) = |det (A + iB)|2 ≥ 0
Déterminants. Applications
376

Théorème 15.9


Pour toute matrice triangulaire par blocs A = 

A1 B12 · · ·
0
..
.
0
où les Ak sont des matrices carrées, on a :
det (A) =
p
∏
...
...
···
...
...
0
B1p
..
.
Bp−1,p−1
Ap



,

det (Ak )
k=1
Démonstration. Se déduit de ce qui précède par récurrence sur p.
Pour toute matrice A = ((ai,j ))1≤i,j≤n ∈ Mn (K) et tous i, j compris entre 1 et n, on note
Ai,j la matrice carrée d'ordre n − 1 déduite de A en supprimant la ligne i et la colonne j.
Le scalaire det (Ai,j ) est le mineur d'indice (i, j) et le scalaire (−1)i+j det (Ai,j ) est le cofacteur
d'indice (i, j) .
Théorème 15.10 Pour toute matrice A ∈ Mn (K) , on a :
det (A) =
n
∑
(−1)i+j ai,j det (Ai,j ) (1 ≤ j ≤ n)
i=1
(développement suivant la colonne j ) et
det (A) =
n
∑
(−1)i+j ai,j det (Ai,j ) (1 ≤ i ≤ n)
j=1
(développement suivant la ligne i).
Démonstration. Voir le théorème 13.12.
Dénition 15.5 La comatrice d'une matrice A ∈ Mn (K) est la matrice :
((
C (A) =
))
(−1)i+j det (Ai,j )
1≤i,j≤n
des cofacteurs de A.
Théorème 15.11 Pour toute matrice A ∈ Mn (K) , on a :
A · t C (A) = t C (A) · A = det (A) In
Pour det (A) ̸= 0, la matrice A est inversible d'inverse :
A−1 =
1
t
C (A)
det (A)
Démonstration. On notant
ci,j = (−1)i+j det (Ai,j ) le cofacteur d'indice (i, j) , le terme
d'indice (i, j) du produit A · t C (A) est :
di,j =
n
∑
k=1
ai,k cj,k
Exemples et applications
377
Pour i = j, on a :
di,i =
n
∑
(−1)i+k ai,k det (Ai,k ) = det (A)
k=1
et pour i ̸= j :
di,j =
n
∑
(−1)j+k ai,k det (Aj,k ) = 0
k=1
puisque c'est le développement du déterminant de la matrice ayant pour ligne k ̸= j, celle de
A et pour ligne j, la ligne i de A, donc elle deux lignes identiques.
On a donc A · t C (A) = det (A) In , l'autre égalité se vériant de manière analogue.
Exercice 15.3 Soit A ∈ Mn (K) . Montrer que :

 n si rg (A) = n
1 si rg (A) = n − 1
rg (C (A)) =

0 si rg (A) ≤ n − 2
Solution 15.4 Si rg (A) = n, la matrice A est inversible, donc aussi C (A) = det (A)
t
(A−1 ) .
Si rg (A) = n − 1, il existe au moins un déterminant d'ordre n − 1 extrait de A qui est non nul,
donc rg (C (A)) ≥ 1.
Comme t C (A) · A = det (A) In = 0, on a Im (A) ⊂ ker ( t C (A)) , donc rg (A) ≤ n − rg (C (A))
et rg (C (A)) ≤ n − rg (A) = 1, ce qui nous donne rg (C (A)) = 1.
Si rg (A) = n − 2, tous les mineurs de A sont nuls et C (A) = 0.
15.4 Exemples et applications
15.4.1 Rang d'une matrice, d'un endomorphisme
Dénition 15.6 Le rang de la matrice A ∈ Mm,n (K) est la dimension du sous-espace vectoriel
de Kn engendré par ses colonnes :
rg (A) = dim (Vect (C1 , · · · , Cn ))
Il est équivalent de dire que le rang de A est égal au nombre maximum de vecteurs colonnes
de A linéairement indépendants dans Kn .
Dénition 15.7 Soient
E, F deux espaces vectoriels de dimension nie et u une application
linéaire de E dans F. Le rang de u est la dimension de Im (u) . On le note rg (u) .
Théorème 15.12 (du rang) Soient E, F deux espaces vectoriels de dimension nie et u une
application linéaire de E dans F. On a :
dim (E) = dim (ker (u)) + rg (u)
Démonstration. Soit H un supplémentaire de ker (u) dans E et v la restriction de u à H,
c'est-à-dire l'application v dénie sur H par :
∀x ∈ H, v (x) = u (x)
Le noyau de cette application est :
ker (v) = H ∩ ker (u) = {0}
Déterminants. Applications
378
ce qui signie que v est injective de H dans F et réalise une bijection de H dans Im (v) .
En écrivant tout vecteur y de Im (u) sous la forme y = u (x) avec x ∈ E qui s'écrit x = x1 +x2
où x1 ∈ ker (u) et x2 ∈ H, on a y = u (x1 ) + u (x2 ) = v (x2 ) , c'est-à-dire que y est dans Im (v) .
On a donc Im (u) ⊂ Im (v) et comme Im (v) ⊂ Im (u) , on a en fait Im (v) = Im (u) et v réalise
un isomorphisme de H sur Im (u) . Il en résulte que :
rg (u) = dim (Im (u)) = dim (H) = dim (E) − dim (ker (u))
Théorème 15.13 Le rang d'une matrice
A ∈ Mm,n (K) est égal au rang de l'application linéaire u ∈ L (K , K ) canoniquement associé à la matrice A.
n
m
Démonstration. En désignant par B
= (ek )1≤k≤n une base de Kn et par B′ = (fk )1≤k≤m
une base de K , pour tout j compris entre 1 et n, la colonne numéro j de A est Cj = u (ej ) et :
m
rg (A) = rg (C1 , C2 , · · · , Cn ) = rg (u (e1 ) , u (e2 ) , · · · , u (en )) = rg (u)
Théorème 15.14 Si
u ∈ L (E, F ) a pour matrice A ∈ Mm,n (K) dans des bases de E et F,
alors le rang de u est égal au rang de A.
Démonstration. On utilise le théorème du rang.
Dire que x =
n
∑
xj ej est dans le noyau de u équivaut à dire que u (x) = 0, ce qui se traduit
j=1
par AX = 0, où X = (xj )1≤j≤n est le vecteur de Kn formé des composantes de x dans la base
B. En désignant par v l'application linéaire canoniquement associée à A, on a v (X) = AX = 0,
c'est-à-dire que X est dans le noyau de v. Réciproquement si X ∈ ker (v) , on a AX = 0, ce qui
équivaut à u (x) = 0, soit x ∈ ker (u) . L'application x 7→ X réalise donc un isomorphisme de
ker (u) sur ker (v) et dim (ker (u)) = dim (ker (v)) , ce qui équivaut à rg (u) = rg (v) en utilisant
le théorème du rang. Et donc rg (u) = rg (v) = rg (A) .
Dénition 15.8 On appelle matrice extraite de A = ((ai,j ))1≤i≤m ∈ Mm,n (K) , toute matrice
1≤j≤n
AI,J = ((ai,j ))(i,j)∈I×J , où I = {1 ≤ i1 < · · · < iq ≤ m} et J = {1 ≤ j1 < · · · < jp ≤ n} .
On appelle déterminant extrait de A (ou de det (A)), le déterminant d'une matrice carrée extraite de A.
Si δp est un déterminant extrait de A d'ordre p, on appelle bordant de δ tout déterminant δp+1
extrait d'ordre p + 1 de A tel que δp soit extrait de δp+1 .
Théorème 15.15 Une matrice
A ∈ Mm,n (K) est de rang r si, et seulement si, il existe un
déterminant extrait de A, δr d'ordre r et non nul tel que tous les bordants de δr sont nuls (si
r = min (n, m) , la deuxième condition n'est pas à prendre en compte).
Démonstration. Voir Lelong-Ferrand.
Corollaire 15.2 Le rang d'une matrice A ∈ Mm,n (K) est l'ordre du plus grand déterminant
extrait de A qui est non nul.
Exemples et applications
379
15.4.2 Systèmes de Cramer
On appelle système de Cramer tout système linéaire AX = b d'inconnue X ∈ Kn , où
A ∈ GLn (K) et b ∈ Kn .
Un tel système admet pour unique solution x = A−1 b.
En notant x = (xj )1≤j≤n ∈ K cette solution, on a b =
n
n
∑
xj Cj et en utilisant le caractère
j=1
multilinéaire alterné du déterminant, on a pour tout entier k compris entre 1 et n :
det (C1 , · · · , Ck−1 , b, Ck+1 , · · · , Cn ) =
n
∑
xj det (C1 , · · · , Ck−1 , Cj , Ck+1 , · · · , Cn )
j=1
= xk det (A)
donc :
xk =
det (C1 , · · · , Ck−1 , b, Ck+1 , · · · , Cn )
(1 ≤ k ≤ n)
det (A)
Ce sont les formules de Cramer.
En calculant un déterminant par la formule (15.1) , cela nécessite n! (n − 1) multiplications et
(n! − 1) additions, donc environ nn! opérations élémentaires. Comme il y a n + 1 déterminants
à calculer puis n divisions à faire pour les formules de Cramer, on aura un total d'environ n2 n!
opérations élémentaires à eectuer, ce qui peut être beaucoup trop important pour de grandes
valeurs de n.
Les formules de Cramer peuvent être utilisées pour déterminer l'ensemble des solutions d'un
système de n équations à m inconnues.
On suppose que la matrice A est non nulle et on note 1 ≤ r ≤ min (n, m) son rang.
Il existe des matrices carrées d'ordre r extraites de A de déterminant non nul (un tel déterminant est appelé déterminant principal de A) et toute matrice carrée extraite d'ordre plus
grand ou égal à r + 1 est de déterminant nul.
En eectuant au besoin des permutations de lignes ou de colonnes du système linéaire Ax = b,
on se ramène à une matrice A tel que la matrice Ar = ((aij ))1≤i,j≤r soit inversible. Le système
linéaire :
m
∑
aij xj = bi (1 ≤ i ≤ r)
j=1
est alors appelé système d'équations principales du système Ax = b.
Considérons d'abord le cas d'un système homogène Ax = 0.
Ce système étant de rang r, l'ensemble de ses solutions est un sous-espace vectoriel de Km
de dimension m − r et comme il contient l'ensemble S (A, 0) des solutions de Ax = 0, qui est
aussi de dimension m − r, ces deux espaces sont égaux.
Le système Ax = 0 est donc équivalent au système A′r x = 0, où Ar = ((aij ))1≤ij≤r . La
1≤j≤m
résolution de ce dernier système se faisant en utilisant les formules de Cramer pour le système
Ar xr = br , où xr ∈ Kr a pour composantes les inconnues principales x1 , · · · , xr et br ∈ Kr est
fonction des inconnues non principales xr+1 , · · · , xm .
Exemple 15.1 Considérons un système linéaire homogène de n équations à n + 1 inconnues,
Ax = 0 avec A = ((aij ))
1≤i≤n
1≤j≤n+1
∈ Mn,n+1 (K) de rang n, la matrice An = ((aij ))1≤i,j≤n étant
inversible. Ce système est équivalent au système :
n
∑
j=1
aij xj = −a1,n+1 xn+1 (1 ≤ i ≤ n)
Déterminants. Applications
380
où xn+1 est l'inconnue non principale. Sa solution est donnée par :
det (C1 , · · · , Ck−1 , bn , Ck+1 , · · · , Cn )
det (C1 , · · · , Ck−1 , Cn+1 , Ck+1 , · · · , Cn )
= xn+1
det (An )
det (An )
det (C1 , · · · , Ck−1 , Ck+1 , · · · , Cn , Cn+1 )
= (−1)n−k xn+1
(1 ≤ k ≤ n)
det (An )
(−1)n
=
xn+1 (−1)k det (C1 , · · · , Ck−1 , Ck+1 , · · · , Cn , Cn+1 ) (1 ≤ k ≤ n)
det (An )
xk =
où les Ck , pour k compris entre 1 et n + 1, sont les colonnes de la matrice A.
L'ensemble des solutions S (A, 0) est donc la droite vectorielle dirigée par le vecteur v =
(αk )1≤k≤n+1 , où :
αk = (−1)k det (C1 , · · · , Ck−1 , Ck+1 , · · · , Cn , Cn+1 ) (1 ≤ k ≤ n + 1)
Considérons, par exemple, le système :

 x+y+z−t=0
2x + y + z − 2t = 0

x − y + z − 3t = 0
Il équivaut au système d'inconnue principale t :

 x+y+z =t
2x + y + z = 2t

x − y + z = 3t
et de solution :
x = t, y = −t, z = t
Revenons au système Ax = b. Ce système aura des solutions si, et seulement si, b ∈ F =
Vect {C1 , · · · , Cm } , ce qui est encore équivalent à dire que F = Vect {C1 , · · · , Cm , b} et revient
à dire que :
rg (A, b) = rg (A) = r
et comme det (Ar ) ̸= 0, cela équivaut à dire que :
a1r b1 . . . .. .. . . = 0 (r + 1 ≤ k ≤ n)
arr br akr bk a11 · · ·
..
.
ar1
ak1
(ces déterminants extraits sont les bordants de la matrice Ar ).
Si le système est compatible, l'ensemble S (A, b) des solutions de Ax = b est alors un sousespace ane de Km de dimension m − r dirigé par S (A, 0) .
L'ensemble des solutions du système d'équations principales est aussi un sous-espace ane
de Km de dimension m − r et comme il contient S (A, b) , ces deux sous-espaces sont égaux.
En dénitive, quand il est compatible, le système Ax = b est équivalent au système d'équations principales A′r x = b, où Ar = ((aij ))1≤ij≤r . La résolution de ce dernier système se faisant
1≤j≤m
en utilisant les formules de Cramer pour le système Ar xr = cr , où xr ∈ Kr a pour composantes
les inconnues principales x1 , · · · , xr et cr ∈ Kr est fonction de b et des inconnues non principales
xr+1 , · · · , xm .
Nous avons donc montré le résultat suivant.
Exemples et applications
381
Théorème 15.16 (Rouché-Fontené) Soient A = ((aij )) 1≤i≤n
1≤j≤m
∈ Mn,m (K) de rang r ≥ 1 et
b ∈ Kn . On se donne une matrice Ar = ((aij ))(i,j)∈I×J ∈ GLr (K) extraite de A.
1. Le système Ax = b est compatible si, et seulement si, r = n ou r ≤ n − 1 et :
(
det
Ar
(bi )i∈I
(ak,j )j∈J
bk
)
= 0 (k ∈ {1, · · · , n} \ I)
2. Si le système Ax = b est compatible, il est alors équivalent au système d'équations principales A′r x = b, où Ar = ((aij )) i∈I et les inconnues principales (xj )j∈J s'obtienne
1≤j≤m
comme solutions du système de Cramer Ar xr = cr , où cr ∈ Kr est fonction de b et des
inconnues non principales (xj )j∈{1,··· ,m}\J .
15.4.3 Déterminants de Vandermonde
Soient n ≥ 2 un entier, α1 , α2 , · · · , αn des scalaires et :

1
1
···
1
 α1
α
·
·
·
α
2
n

V (α1 , · · · , αn ) =  ..
..
..
.
.
 .
.
.
..
n−1
n−1
n−1
α1
α2
· · · αn





la matrice de Vandermonde associée.
On note ∆ (α1 , · · · , αn ) , le déterminant de cette matrice.
On peut remarquer que ∆ (α1 , · · · , αn ) est aussi le déterminant de :

1 α1 · · · α1n−1
 1 α2 · · · αn−1
2

t
V (α1 , · · · , αn ) =  .. .. . .
..
 . .
.
.
n−1
1 αn · · · αn





Théorème 15.17 On a :
∆ (α1 , · · · , αn ) =
n
∏
(αj − αi )
1≤i<j≤n
et la matrice de Vandermonde V (α1 , · · · , αn ) est inversible si, et seulement si, les αi sont deux
à deux distincts.
Démonstration. Le calcul de ∆ (α1 , · · · , αn ) se fait par récurrence sur n ≥ 2.
Pour n = 2, on a :
1 1
∆ (α1 , α2 ) = α1 α2
= α2 − α1
Supposons le résultat acquis pour n − 1 ≥ 2.
Le déterminant étant une forme n-linéaire alternée, on a pour tout polynôme P ∈ Kn−1 [X]
de terme constant égal à 1 :
P (α1 ) P (α2 )
α1
α2
∆ (α1 , · · · , αn ) = .
..
.
.
.
n−1
n−1
α1
α2
···
···
P (αn )
αn
···
αnn−1
...
..
..
Déterminants. Applications
382
Prenant P (X) =
n
∏
(αk − X) , on en déduit que :
k=2
P (α1 )
0
···
0
α1
α
·
·
·
α
2
n
∆ (α1 , · · · , αn ) = .
.
.
.
.
.
.
.
.
..
.
.
n−1
n−1
n−1
α1
α2
· · · αn
(
)
n
∏
(αk − α1 ) ∆ (α2 , · · · , αn )
=
k=2
et avec l'hypothèse de récurrence :
∆ (α1 , · · · , αn ) =
=
n
∏
(αk − α1 )
n
∏
(αj − αi )
2≤i<j≤n
k=2
n
∏
(αj − αi )
1≤i<j≤n
On peut aussi procéder comme suit.
En retranchant, pour i = n, n−1, · · · , 2, à la ligne i de V (α1 , · · · , αn ) sa ligne i−1 multipliée
par α1 , on obtient :
∆ (α1 , · · · , αn ) = =
soit :
1
0
..
.
0
..
.
...
.
.
.
n−2
n−2
α2 (α2 − α1 ) · · · αn (αn − α1 ) 1
α2 − α1
···
···
1
αn − α1
..
..
..
...
.
.
.
n−2
n−2
n−2
α2 (α2 − α1 ) α3 (α3 − α1 ) · · · αn (αn − α1 ) α2 − α1
α2 (α2 − α1 )
α3 − α1
α3 (α3 − α1 )
···
···
αn − α1
αn (αn − α1 )
···
1
) 1
( n
α2 · · · αn
∏
∆ (α1 , · · · , αn ) =
(αk − α1 ) ..
..
...
.
.
k=2
n−2
α2
· · · αnn−2
( n
)
∏
=
(αk − α1 ) ∆ (α2 , · · · , αn )
k=2
Remarque 15.1 On peut montrer directement que
V (α1 , · · · , αn ) est inversible si, et seule-
ment si, les αi sont deux à deux distincts.
Il est équivalent de travailler avec la transposée A = t V (α1 , · · · , αn ) .
S'il existe i ̸= j tels que αi = αj , la matrice A a deux colonnes identiques, donc son déterminant
est nul.
Supposons que les αi sont deux à deux distincts. Il s'agit alors de montrer que X = 0 est
l'unique solution du système linéaire AX = 0. Ce système s'écrit :
n−1
∑
j=0
xj αij = 0 (0 ≤ i ≤ n − 1)
Exemples et applications
383
ce qui revient à dire que le polynôme P (t) =
n−1
∑
xj tj ∈ Kn−1 [t] a n racines distinctes et
j=0
nécessairement il est nul, ce qui équivaut à X = 0.
Exercice 15.4 Soient n ≥ 2 un entier, α1 , α2 , · · · , αn des scalaires et P1 , P2 , · · · , Pn des polynômes unitaires tels que deg (Pk ) = k − 1.
Montrer que :

P1 (α1 ) P1 (α2 )
 P2 (α1 ) P2 (α2 )

det 
..
..

.
.
Pn (α1 ) Pn (α2 )

P1 (αn )
P2 (αn ) 

 = ∆ (α1 , · · · , αn )
..
...

..
· · · Pn (αn )
···
···
Solution 15.5 En écrivant que :
Pk (X) = ak,0 + ak,1 X + · · · + X k−1
pour tout k compris entre 1 et n − 1, en eectuant les opérations élémentaires :
Lk 7→ Lk − ak,k−2 Lk−1 − · · · − ak,0 L1
pour k allant de n à 2 (dans cet ordre décroissant), on obtient :
det ((Pi (αj)))1≤i,j≤n = ∆ (α1 , · · · , αn )
Exercice 15.5 En utilisant un déterminant de Vandermonde, montrer que les vecteurs propres
x1 , · · · , xp non nuls d'une matrice A ∈ Mn (K) associés à des valeurs propres α1 , · · · , αp deux
à deux distinctes sont linéairement indépendants.
Solution 15.6 On a
pour 1 ≤ i ≤ p.
Si
p
∑
Axi = αi xi pour 1 ≤ i ≤ p et pour tout entier naturel j, Aj xi = αij xi
λi xi = 0, en appliquant Aj , pour j ∈ N, on a
i=1
on a
p
∑
p
∑
λi αij xi = 0. On notant xi = (xi,k )1≤k≤n ,
i=1
λi αij xi,k = 0 pour tout j ∈ N, donc chaque vecteur Xk = (λi xi,k )1≤i≤p est solution de
i=1
V (α1 , · · · , αp ) X = 0, ce qui donne Xk = 0 pour tout k compris entre 1 et n, soit λi xi,k = 0
pour tout i compris entre 1 et p et tout k compris entre 1 et n. On a donc, pour tout i compris
entre 1 et p, λi xi = 0 et λi = 0 puisque vi ̸= 0.
Exercice 15.6 On suppose que K est de caractéristique nulle.
Soient α0 , α1 , · · · , αn des scalaires deux à deux distincts.
Montrer que pour tout P ∈ Kn [X] de degré n, la famille de polynômes (P (X + αk ))0≤k≤n est
une base de Kn [X] .
Solution 15.7 Notons Pk (X) = P (X( + α)k ) pour 0 ≤ k ≤ n.
Comme P est de degré n, la famille P (j)
de Kn [x] (si P (X) =
n
∑
k=0
0≤j≤n
, qui est échelonnée en degrés, est une base
ak X k , la matrice de ce système dans la base canonique de Kn [x] est
Déterminants. Applications
384
alors triangulaire supérieure avec les
n!
an ̸= 0 pour éléments diagonaux).
(n − j)!
Avec la formule de TaylorLagrange, on a :
Pk (x) = P (x + αk ) =
n
∑
αj
k
j=0
j!
P (j) (x)
C'est à dire que la matrice du système (Pk )0≤k≤n dans la base
(
1 (j)
P
j!
)
est la matrice de
0≤j≤n
Vandermonde V (α0 , · · · , αn ) .
Dans le cas particulier où les αi sont deux à deux distincts cette matrice est inversible et en
conséquence (Pk )0≤k≤n est une base de Kn [x] .
Exercice 15.7 On désigne par E l'espace vectoriel des applications de R dans R.
Montrer, pour tous réels 0 < a1 < a2 < · · · < an , la famille :
L = {fak : x 7−→ sin (ak x) | 1 ≤ k ≤ n}
est libre dans E.
Solution 15.8 Soient 0 < a1 < a2 < · · · < an et λ1 , λ2 , · · · , λn des réels tels que :
∀x ∈ R,
n
∑
λk sin (ak x) = 0
k=1
Un développement limité en 0 nous donne
n
∑
λk a2p+1
= 0 pour tout entier p compris en 0 et
k
k=1
n − 1. C'estàdire que (λ1 a1 , λ2 a2 , · · · , λn an ) est solution d'un système de Vandermonde :
n
∑
λk xpk = 0 (0 ≤ p ≤ n − 1)
k=1
Les ak étant strictement positifs et deux à deux distincts, on en déduit que les λk sont tous nuls.
Ce qui prouve que le système L est libre dans E.
Les déterminants de Vandermonde peuvent être utilisés pour prouver l'existence et l'unicité
des polynômes d'interpolation de Lagrange.
Théorème 15.18 Soit (αi )0≤i≤n une famille de n + 1 scalaires deux à deux distincts.
Pour toute famille de scalaires (βi )0≤i≤n , il existe un unique polynôme P ∈ Kn [x] tel que
P (αi ) = βi pour tout i compris entre 0 et n.
Démonstration. L'application φ : Kn [X] → Kn+1 dénie par :
∀P ∈ Kn [x] , φ (P ) = (P (αi ))0≤i≤n
est linéaire et sa matrice dans les bases canoniques de Kn [X] et Kn+1 est :

1 α0 · · · α0n
 1 α1 · · · αn
1

 .. .. . .
..
 . .
. .
1 αn · · · αnn



 = t V (α0 , · · · , αn )

Son déterminant étant non nul, est un isomorphisme de Kn [X] sur Kn+1 , donc tout vecteur
(βi )0≤i≤n ∈ Kn+1 a un unique antécédent P ∈ Kn [X] .
Les déterminants de Vandermonde peuvent être utilisés pour prouver le théorème d'analyse
réelle qui suit.
Exemples et applications
385
Théorème 15.19 Si f est une fonction de classe C n+1 de R dans R, avec n ≥ 1, telle que f
et f (n+1) soient bornées sur R, alors toutes les dérivées f (k) , pour k compris entre 1 et n, sont
également bornées sur R.
Démonstration. Pour tout réel x et tout entier p compris entre 1 et n, la formule de Taylor
à l'ordre n sur l'intervalle [x, x + p] s'écrit :
f (n+1) (x + pθp ) n+1 ∑ f (k) (x) k
p
=
p
(n + 1)!
k!
k=1
n
f (x + p) − f (x) −
avec 0 < θp < 1, ce qui peut s'écrire matriciellement V (x) = AU (x) , où on a noté :




V (x) = 


..
.
f (n+1) (x + nθn ) n+1
f (x + n) − f (x) −
n
(n + 1)!
et :

1 1 ··· 1
 2 22 · · · 2n

A =  .. .. . .
.
 . .
. ..
n n 2 · · · nn
On a alors :

f (n+1) (x + θ1 )
f (x + 1) − f (x) −
(n + 1)!
det (A) = n! 1 1 ···
1 2 ···
2n−1
1 n ···
nn−1
..
.
..
.
...
1
..
.



,




f (1) (x)


1!


.


..
U (x) = 

 f (n) (x) 
n!





∏
(i − j) ̸= 0
= n!
1≤1<j≤n
c'est-à-dire que la matrice A est inversible.
On peut donc écrire que U (x) = A−1 V (x) et ∥U (x)∥∞ ≤ ∥A−1 ∥∞ ∥V (x)∥∞ , soit :
(k)
(n+1)
f (x) −1 f
(x
+
pθ
)
p
n+1
≤ A max f (x + p) − f (x) −
max p
∞ 1≤k≤n
1≤k≤n
k!
(n + 1)!
(
)
nn+1 f (n+1) ≤ A−1 ∞ 2 ∥f ∥∞ +
∞
(n + 1)!
le réel x étant quelconque. On a donc pour tout entier k compris entre 1 et n :
(
)
(k) nn+1 (n+1) f ≤ k! A−1 2 ∥f ∥∞ +
f
∞
∞
∞
(n + 1)!
15.4.4 Continuité et diérentiabilité du déterminant pour
K=R
On suppose que K = R.
L'application det : Mn (R) → R (resp. det : L (E) → R) étant polynomiale, elle est de classe
∞
C sur Mn (R) (resp. sur L (E)).
Déterminants. Applications
386
Théorème 15.20 Pour tout entier r compris entre 0 et n, l'ensemble :
Fr = {A ∈ Mn (R) | rg (MA ) ≤ r}
est un fermé de Mn (R) .
Démonstration. Pour r = n, Fr = Mn (R) est fermé.
Pour 0 ≤ r < n, une matrice A est dans Fr si et seulement si tous les déterminants extraits
d'ordre strictement supérieur à r sont nuls, ces déterminants étant en nombre ni et dénissant
des fonctions continues de A. En notant q le nombre de tous ces déterminants extraits, on
déduit alors que Fr est un fermé de Mn (R) comme image réciproque du fermé {0} de Rq par
une application continue.
Théorème 15.21 L'ensemble
Mn (C)].
GLn (R) [resp. GLn (C)]est un ouvert dense de Mn (R) [resp.
Démonstration. L'ensemble GLn (R) est un ouvert de Mn (R) en tant qu'image réciproque
de l'ouvert R∗ par l'application continue déterminant.
La fonction polynomiale z 7−→ det (A − zIn ) a au plus n racines dans R, il existe donc un
entier k0 tel que :
(
)
1
∀k > k0 , det A − In
k
̸= 0
1
k
et A = lim Ak avec les Ak = A − In inversibles pour tout k > k0 .
k→+∞
k>k0
Corollaire 15.3 Il existe une base de Mn (R) formée de matrices inversibles.
Démonstration. V = Vect (GLn (R)) est un sous espace vectoriel fermé de Mn (R) (on est
en dimension nie) qui contient GLn (R) , il contient donc son adhérence c'est-à-dire Mn (R) .
Donc V = Mn (R) et du système générateur GLn (R) on peut extraire une base.
Remarque 15.2 Ce résultat est encore valable sur un corps commutatif inni.
Exercice 15.8 Montrer que GLn (R) n'est pas connexe.
Solution 15.9 Si GLn (R) est connexe, alors son image par l'application continue déterminant
est un connexe de R (théorème des valeurs intermédiaires). Or cette image est R∗ non connexe
dans R. Donc GLn (R) n'est pas connexe.
−
On désigne respectivement par GL+
n (R) et.GLn (R) l'ensemble des matrices d'ordre n à
coecients réels de déterminant strictement positif et strictement négatif.
Corollaire 15.4 Les ensembles GL+n (R) et GL−n (R) sont des ouverts connexes par arcs et ce
sont les composantes connexes de GLn (R) .
Démonstration. Voir le corollaire 13.2.
Ce résultat permet de dénir une orientation sur un espace vectoriel réel E de dimension n.
Théorème 15.22 L'application X 7−→ X −1 est continue de GLn (R) dans GLn (R) .
Exemples et applications
387
Démonstration. L'application X 7−→ C (X) qui associe à une matrice X sa comatrice
C (X) est continue de Mn (R) dans Mn (R) car ses composantes sont des fonctions polynomiales
1 t
des coecients xij . On en déduit alors que l'application X 7−→ X −1 =
C (X) est
det (X)
continue de GLn (R) dans GLn (R) .
Remarque 15.3 La continuité de
(X, Y ) 7−→ XY et X 7−→ X −1 peut se traduire en disant
que la topologie de GLn (R) est compatible avec sa structure de groupe. On dit aussi que GLn (R)
est un groupe topologique.
Théorème 15.23 L'application det : Mn (R) → R est diérentiable sur Mn (R) avec :
d (det) (X) (H) =
n
∑
det (X1 , · · · , Xk−1 , Hk , Xk+1 , · · · , Xn )
(
)
(
)
= Tr H · t C (X) = Tr t C (X) · H
k=1
en désignant pour toute matrice X ∈ Mn (R) par Xk sa colonne numéro k et par C (X) sa
comatrice.
Démonstration. Voir les exercice 51.10 et 51.2.
En particulier, pour X = In , on a :
d (det) (In ) (H) = Tr (H)
Ce résultat pouvant être montré en calculant les dérivées partielles. Désignant par (Ei,j )1≤i,j≤n
la base canonique de Mn (R) , on a :
{
det (In + tEi,j ) =
donc :
et :
∂ det
(In ) =
∂Ei,j
{
0 si i ̸= j
1 + t si i = j
0 si i ̸= j
1 si i = j
n
∑ ∂ det
∑
d (det) (In ) (H) =
(In ) hi,j =
hi,i = Tr (H)
∂Ei,j
i=1
1≤i,j≤n
Exercice 15.9 En désignant par κA (t) = det (tIn − A) le polynôme caractéristique de A, montrer que son polynôme dérivé est donné par :
κA′ (t) = Tr (C (tIn − A))
Solution 15.10 On a :
κA′ (t) = d (det) (tIn − A) (In ) = Tr
(
t
)
C (tIn − A) · In = Tr (C (tIn − A))
Si I est un intervalle réel non réduit à un point et X : I → Mn (K) est une fonction dérivable,
alors la fonction f : t ∈ I 7→ det (X (t)) est dérivable comme composée avec :
′
′
f (t) = d (det) (X (t)) (X (t)) =
n
∑
det (X1 (t) , · · · , Xk−1 (t) , Xk′ (t) , Xk+1 (t) , · · · , Xn (t))
k=1
Les mineurs principaux d'une matrice A = ((aij ))1≤i,j≤n sont les déterminants des matrices
extraites Ak = ((aij ))1≤i,j≤k où k est compris entre 1 et n.
Déterminants. Applications
388
Théorème 15.24 Soit q une forme quadratique sur un espace vectoriel réel E de dimension n
et A = ((aij ))1≤i,j≤n sa matrice dans une base (ei )1≤i≤n de E. La forme q est dénie positive
si, et seulement si, tous les mineurs principaux de A sont strictement positifs.
Démonstration. Voir le théorème 24.7.
Corollaire 15.5 Soient E un espace vectoriel réel de dimension n et Q (E) l'ensemble des
formes quadratiques sur E.
L'ensemble Q++ (E) des formes quadratiques dénies positives sur E est un ouvert de Q (E) .
Démonstration. Voir le théorème 24.4.
15.4.5 Le résultant de deux polynômes
À tout couple :

n
∑


ak X k
 P (X) =
k=0
m
∑


bk X k
 Q (X) =
k=0
de polynômes dans K [X] de degrés respectifs n ≥ 1 et m ≥ 1, on associe l'application linéaire :
φ : Km−1 [X] × Kn−1 [X] → Kn+m−1 [X]
(U, V )
7→ U P + V Q
En prenant :
(
(
)
(
))
′
Bm,n
= (1, 0) , (X, 0) , · · · , X m−1 , 0 , (0, 1) , (0, X) , · · · , 0, X n−1
( )
pour base de Km−1 [X] × Kn−1 [X] et Bn+m = X k 0≤k≤m+n−1 pour base de Kn+m−1 [X] , la
matrice de φ dans ces bases est :


a0 0 · · · 0 b0 0 · · · 0

. 
 a1 a0 · · · 0 b1 b0 · · · .. 


.. ..

 ..
. b1 · · · 0 
 . a1 · · · .


..
.. ..
..

 a
.
.
.
.
0

 n


.
.
.
.
.
.
 0 an
. .
.
b0 


S (P, Q) = 
..

 0 0 · · · 0 bm .
b1 

.. 
 0 0 ··· a
0
b
. 


0
m

 .
.
.
.
..
.. 0
.. 
 ..
a
1


 ..
..
.. ..
..
.. 
 .
. ··· . .
. ··· . 
0 0 · · · an 0 0 · · · bm
(matrice de Sylvester de P et Q).
Dénition 15.9 Le résultant de P et Q, noté Res (P, Q) , est le déterminant de la matrice de
Sylvester S (P, Q) .
Pour P et Q constants non nuls, on pose Res (P, Q) = 1.
Pour P ou Q nul on pose Res (P, Q) = 0.
Exemples et applications
389
Dénition 15.10 Le discriminant de
dérivé de P.
Lemme 15.5 On a :
P est le résultant de P et P ′ , où P ′ est le polynôme
Res (Q, P ) = (−1)nm Res (P, Q)
Lemme 15.6 Les polynômes non constants P et Q ne sont pas premiers entre eux dans K [X]
si, et seulement si, il existe un couple (U, V ) de polynômes non nuls tel que :
{
UP + V Q = 0
deg (U ) < deg (Q) et deg (V ) < deg (P )
Démonstration. Si P et
Q non constants ne sont pas premiers entre eux dans K [X] , il
existe alors un polynôme irréductible P0 et deux polynômes non nuls Q1 , Q2 tels que :
P = P0 Q1 , Q = P0 Q2
En posant U = Q2 , V = −Q1 , on a U P + V Q = 0 avec deg (U ) = deg (Q) − deg (P0 ) < deg (Q)
et deg (V ) = deg (P ) − deg (P0 ) < deg (P ) .
Réciproquement, supposons qu'il existe deux polynômes non nuls U et V tels que U P = −V Q
avec deg (U ) < deg (Q) et deg (V ) < deg (P ) . Si P et Q sont premiers entre eux P divise alors
V (théorème de Gauss), ce qui est impossible du fait que deg (V ) < deg (P ) . P et Q ne sont
donc pas premiers entre eux.
Sur un corps algébriquement clos, le lemme précédent se traduit en disant que P et Q non
constants ont une racine commune dans K, si, et seulement si, il existe un couple (U, V ) de
polynômes non nuls tel que :
{
Théorème 15.25
UP + V Q = 0
deg (U ) < deg (Q) et deg (V ) < deg (P )
P et Q sont premiers entre eux dans K [X] si, et seulement si, Res (P, Q) ̸=
0.
Corollaire 15.6 Pour K algébriquement clos, les polynômes P et Q dans K [X] ont une racine
commune si, et seulement si, Res (P, Q) = 0.
Démonstration. En utilisant les notations qui précédent, on note :
U (X) =
m−1
∑
k
uk X , V (X) =
k=0
n−1
∑
vk X k
k=0
où n est le degré de P et m celui de Q. La condition U P + V Q = 0 avec U et V non nuls est
équivalente à :
m−1
∑
k=0
k
uk X P (X) +
n−1
∑
vk X k Q (X) = 0
k=0
avec les uk et vk non tous nuls, ce qui équivaut à dire que le système :
{
}
X k P (X) , X j Q (X) | 0 ≤ k ≤ m − 1, 0 ≤ j ≤ n − 1
est lié dans Cn+m−1 [X] , ce qui est encore équivalent à dire que le résultant de P et Q est nul.
En conclusion, P et Q ont une racine commune dans K si et seulement si res (P, Q) = 0.
Déterminants. Applications
390
Corollaire 15.7 Soient n, m deux entiers naturels non nuls. L'ensemble :
E = {(P, Q) ∈ Cn [X] × Cm [X] | pgcd (P, Q) = 1}
est un ouvert de Cn [X] × Cm [X] .
Remarque 15.4 Comme la condition pgcd (P, Q) = 1 dans C [X] équivaut à dire que P et Q
n'ont pas de racines communes dans C, le résultat précédent se traduit en disant que l'ensemble :
{(P, Q) ∈ Cn [X] × Cm [X] sans racines communes}
est un ouvert de Cn [X] × Cm [X] .
Prenant Q = P ′ pour P non constant, on en déduit que :
{P ∈ Cn [X] \ C n'ayant que des racines simples}
est un ouvert de Cn [X] .
Théorème 15.26 Soient P et Q deux polynômes unitaires scindés sur K, λ1 , · · · , λn les racines
distinctes ou confondues de P dans K et µ1 , · · · , µm celles de Q.
On a :
n
∏
Res (P, Q) =
(µj − λi ) = (−1)nm
∏
Q (λi )
i=1
1≤i≤n
1≤j≤m
15.4.6 Utilisation du déterminant en géométrie
→
→
On note P le plan ane euclidien et on le munit d'un repère orthonormé R = (O, −
e1 , −
e2 ) .
L'aire d'un triangle T = ABC est :
m (T ) =
(−→ −→)
1 det AB, AC 2
Les points A, B, C sont alignés si, et seulement si :
(−→ −→)
det AC, AB = 0
et on a l'équation de la droite (AB) :
(−→ −→)
(M ∈ (AB)) ⇔ det AC, AB = 0
La connaissance des composantes connexes de GLn (R) permet de dénir deux orientations
sur un espace vectoriel réel de dimension nie.
Dénition 15.11 On dit que deux bases
B et B′ d'un espace vectoriel réel E de dimension
nie dénissent la même orientation si la matrice de passage de B à B′ est dans GL+
n (R) .
On désigne par E un espace euclidien de dimension n ≥ 3 orienté par le choix d'une base
orthonormée B0 = (ei )1≤i≤n .
Si B est une autre base de E, alors pour tout n-uplet (x1 , x2 , · · · , xn ) de vecteurs de E, on
a:
detB0 (x1 , x2 , · · · , xn ) = detB0 (B) detB (x1 , x2 , · · · , xn )
donc le réel detB (x1 , x2 , · · · , xn ) est indépendante du choix d'une base orthonormée directe
B de E. On le note det (x1 , x2 , · · · , xn ) et on dit que c'est le produit mixte des vecteurs ordonnés
x1 , x2 , · · · , xn . On le note [x1 , x2 , · · · , xn ] .
Exemples et applications
391
Dénition 15.12 Le produit vectoriel des n − 1 vecteurs x1 , x2 , · · · , xn−1 de E est le vecteur
a déni par :
∀x ∈ E, det (x1 , x2 , · · · , xn−1 , x) = ⟨a | x⟩
On le note x1 ∧ x2 ∧ ... ∧ xn−1 .
Dans la base orthonormée B0 , en notant xj =
réels :
n
∑
xij ei pour tout j compris entre 1 et n, les
i=1
det (x1 , x2 , · · · , xn−1 , ei ) = ⟨x1 ∧ x2 ∧ ... ∧ xn−1 | ei ⟩
sont les composantes du vecteur x1 ∧ x2 ∧ ... ∧ xn−1 dans la base B0 . On a donc :
x1 ∧ x2 ∧ ... ∧ xn−1 =
n
∑
(−1)i+n δi ei
i=1
où δi est le déterminant de la matrice d'ordre n − 1 déduite de la matrice (X1 , X2 , · · · , Xn−1 ) en
supprimant de cette matrice la ligne numéro i (Xi étant le vecteur de Rn formé des composantes
de xi dans la base B0 ).
Théorème 15.27
Le produit vectoriel est une application (n − 1)-linéaire alternée de E n−1 dans E ;
le vecteur x1 ∧ x2 ∧ ... ∧ xn−1 est orthogonal à tous les vecteurs xi (1 ≤ i ≤ n − 1) ;
x1 ∧ x2 ∧ ... ∧ xn−1 = 0 si et seulement si la famille (x1 , x2 , ..., xn−1 ) est liée ;
si la famille (x1 , x2 , ..., xn−1 ) est libre, on a alors :
det (x1 , · · · , xn−1 , x1 ∧ ... ∧ xn−1 ) = ∥x1 ∧ ... ∧ xn−1 ∥2 > 0
et la famille (x1 , ..., xn−1 , x1 ∧ x2 ∧ ... ∧ xn−1 ) est une base directe de E ;
si la famille (x1 , ..., xn−1 ) est orthonormée, (x1 , · · · , xn−1 , x1 ∧ ... ∧ xn−1 ) est alors une base
orthonormée directe de E.
Démonstration. Voir le théorème 22.4.
Le produit vectoriel peut être utilisé pour donner une expression relativement simple de la
distance d'un point à un hyperplan.
Théorème 15.28 Si H est un hyperplan de E et (x1 , ..., xn−1 ) une base de H, alors la droite
D = H ⊥ est dirigée par le vecteur x1 ∧ ... ∧ xn−1 et pour tout vecteur x de E, la projection
orthogonale de x sur H est :
pH (x) = x −
⟨x1 ∧ ... ∧ xn−1 | x⟩
(x1 ∧ ... ∧ xn−1 )
∥x1 ∧ ... ∧ xn−1 ∥2
et la distance de x à H est donnée par :
d (x, H) =
|det (x1 , · · · , xn−1 , x)|
|⟨x1 ∧ ... ∧ xn−1 | x⟩|
=
∥x1 ∧ ... ∧ xn−1 ∥
∥x1 ∧ ... ∧ xn−1 ∥
Remarque 15.5 Le théorème précédent nous dit aussi qu'une équation de l'hyperplan H de
base (x1 , ..., xn−1 ) est donnée par :
x ∈ H ⇔ d (x, H) = 0 ⇔ ⟨x1 ∧ ... ∧ xn−1 | x⟩ = 0.
Remarque 15.6 En prenant pour (x1 , ..., xn−1 ) une base orthonormée de H, on a :
pH (x) = x − ⟨x1 ∧ ... ∧ xn−1 | x⟩ (x1 ∧ ... ∧ xn−1 )
et :
d (x, H) = |⟨x1 ∧ ... ∧ xn−1 | x⟩|
Déterminants. Applications
392
15.4.7 Déterminants de Gram
E désigne un espace préhilbertien.
Pour les démonstrations, voir les paragraphes 50.6 et 50.7.
Dénition 15.13 Soit n un entier naturel non nul. On appelle matrice de Gram d'une famille
(xi )1≤i≤n de vecteurs de E, la matrice :

⟨x1 | x1 ⟩ ⟨x1 | x2 ⟩
 ⟨x2 | x1 ⟩ ⟨x2 | x2 ⟩

G (x1 , · · · , xn ) = 
..
..

.
.
⟨xn | x1 ⟩ ⟨xn | x2 ⟩

⟨x1 | xn ⟩
⟨x2 | xn ⟩ 


..
...

.
· · · ⟨xn | xn ⟩
···
···
et le déterminant de cette matrice, noté g (x1 , · · · , xn ) , est appelé déterminant de Gram de la
famille (xi )1≤i≤n .
Théorème 15.29 Si n est un entier naturel non nul, alors pour toute famille (xi )1≤i≤n de
vecteurs de E, on a g (x1 , · · · , xn ) ≥ 0 et ce système est libre si, et seulement si, g (x1 , · · · , xn ) >
0.
Théorème 15.30 Soient F un sous-espace vectoriel de dimension nie de E et (xi )1≤i≤n une
base de F. Pour tout x dans E, on a :
√
d (x, F ) =
g (x1 , · · · , xn , x)
g (x1 , · · · , xn )
et la meilleure approximation de x par des éléments de F est le vecteur
n
∑
gj,x (x1 , · · · , xn )
y=
xj ,
g (x1 , · · · , xn )
j=1
où gj,x (x1 , · · · , xn ) est le déterminant de la
de la matrice de Gram G (x1 , · · · , xn )
 matrice déduite


en remplaçant sa colonne numéro j par 
⟨x1 | x⟩
..
.

.
⟨xn | x⟩
15.4.8 Déterminants de Cauchy, théorème de Müntz
Théorème 15.31 Si p est un entier naturel non nul, λ0 , λ1 , · · · , λp et x0 , x1 , · · · , xp sont des
scalaires tels que xj + λi ̸= 0 pour tous i, j compris entre 1 et p, on a alors :
((
det
1
xj + λi
∏
))
=
0≤i<j≤p
0≤i,j≤p
(xj − xi ) (λj − λi )
∏
(xj + λi )
0≤i,j≤p
(déterminant de Cauchy ).
On se place sur E = C ([0, 1]) muni du produit scalaire :
∫
1
(f, g) 7→ ⟨f | g⟩ =
f (x) g (x) dx
0
on note ∥·∥2 la norme déduite de ce produit scalaire et ∥·∥∞ la norme de la convergence uniforme
sur l'intervalle [0, 1] .
Pour tout entier naturel non nul n, on note en la fonction x 7→ xn .
Exemples et applications
393
Théorème 15.32 Soit {θn | n ∈ N} un système libre dans E. L'espace vectoriel F = Vect {θn | n ∈ N}
est dense dans (E, ∥·∥2 ) si, et seulement si, pour tout entier naturel p, on a :
lim
n→+∞
g (θ0 , · · · , θn , ep )
=0
g (θ0 , · · · , θn )
où g (x1 , · · · , xn ) , est le déterminant de Gram de la famille (xi )1≤i≤n .
On se donne une suite strictement croissante de réels positif :
0 ≤ λ0 < λ1 < · · · < λn < λn+1 < · · ·
et pour tout entier naturel n, on note θn la fonction dénie par :
∀x ∈ [0, 1] , θn (x) = xλn
Théorème 15.33 L'espace vectoriel
seulement si :
F = Vect {θn | n ∈ N} est dense dans (E, ∥·∥2 ) si, et
∀p ∈ N, lim
n→+∞
n
∏
i=0
λi − p
=0
λi + p + 1
De ce résultat on déduit le théorème de Müntz.
Théorème 15.34 (Müntz) L'espace vectoriel F
si, et seulement si :
= Vect {θn | n ∈ N} est dense dans (E, ∥·∥2 )
+∞
∑
1
= +∞
λ
n=1 n
Si on suppose de plus que λ0 = 0 et λ1 ≥ 1, alors l'espace vectoriel F = Vect {θn | n ∈ N} est
dense dans (E, ∥·∥∞ ) si, et seulement si :
+∞
∑
1
= +∞
λ
n=1 n
Exemple 15.2 Si (pn )n≥1 est la suite des nombres premiers positifs rangée dans l'ordre crois+∞
∑
1
= +∞ et on en déduit que l'espace vectoriel Vect {1, xpn | n ≥ 1} est
p
n=1 n
dense dans (E, ∥·∥∞ ) .
sant, on sait que
15.4.9 Déterminant jacobien
On désigne par f : x 7→ (f1 (x) , · · · , fn (x)) une application diérentiable d'un ouvert non
vide O de Rn dans Rn .
Pour tout a ∈ O, la matrice de la diérentielle df (a) dans la base canonique de Rn est la
matrice jacobienne de f en a :
((
Jf (a) =
))
∂fi
(a)
∈ Mn (R)
∂xj
1≤i,j≤n
et son déterminant est le déterminant jacobien de f en a.
Déterminants. Applications
394
Dénition 15.14 Soient O un ouvert non vide de E et O′ un ouvert non vide de F. Un C 1 diéomorphisme de O sur O′ est une application bijective φ : O → O′ qui est de classe C 1 sur
O et telle que son inverse φ−1 soit aussi de classe C 1 sur O′ .
Théorème 15.35 (inversion globale) Soit f une fonction de classe C 1 et injective de O dans
Rn . Cette application est un C 1 -diéomorphisme de O sur f (O) si, et seulement si, Jf (x) ̸= 0
pour tout x ∈ O.
Démonstration. Voir Lelong-Ferrand, analyse.
Théorème 15.36 Soient O, O′ deux ouverts non vides de Rn et φ : O → O′ un C 1 -diéomorphisme.
Si f : O′ → R est une fonction intégrable sur O′ telle que la fonction f ◦ φ |det (Jφ )| soit intégrable sur O, on a alors :
∫
∫
f (y) dy =
O′
O
f (φ (x)) |det (Jφ (x))| dx
Démonstration. Voir S. Lang, Analysis.
Téléchargement