L2 -- MAT231 -- Chapitre 4 -- Algèbre linéaire

publicité
Algèbre linéaire
Algèbre linéaire
Principaux résultats vus en première année
Compléments sur les applications linéaires
L2 – MAT231 – Chapitre 4 – Algèbre linéaire
Matrice associée à une application linéaire
Université Joseph Fourier – 2007-2008
Effets d’un changement de base
Réduction des endomorphismes (première approche)
Déterminant
Polynôme caractéristique d’un endomorphisme
2/44
1/44
Algèbre linéaire
Algèbre linéaire
Principaux résultats vus en première année
Principaux résultats vus en première année
Principaux résultats vus en première année, I
Principaux résultats de première année, II
Les résultats qui figurent dans les chapitres
I
Dimension finie
I
Espaces vectoriels
I
Calcul matriciel
I
Systèmes linéaires
I
Un résumé des principaux résultats vus en première année (voir également la
Feuille d’exercices no 7) et
I
Les transparents du cours
sont disponibles sur
des notes de cours de première année, voir
http://www-fourier.ujf-grenoble.fr/~pberard
http://ljk.imag.fr/membres/Bernard.Ycart/mel/
sont supposés connus.
3/44
Algèbre linéaire
4/44
Algèbre linéaire
Principaux résultats vus en première année
Compléments sur les applications linéaires
Chapitre 4, Algèbre linéaire
Compléments sur les applications linéaires
Notations.
Soient E et F deux K espaces vectoriels.
Dans tout ce chapitre, K désigne un corps commutatif de caractéristique 0. On peut
supposer qu’il s’agit de R ou de C.
I
On note LK (E , F ) (ou, plus simplement, L(E , F ) s’il n’y a pas d’ambiguïté sur le
corps de base), l’ensemble des applications linéaires de E dans F .
I
On note LK (E ) l’ensemble des applications linéaires de E dans lui-même
(endomorphismes de E ).
I
On note E ∗ l’ensemble L(E , K) des applications linéaires de E dans K (formes
linéaires sur E ). L’ensemble E ∗ s’appelle le dual de E .
5/44
Algèbre linéaire
6/44
Algèbre linéaire
Compléments sur les applications linéaires
Compléments sur les applications linéaires
Proposition
Les ensembles LK (E , F ), LK (E ) et E ∗ , munis des opérations
(u, v ) 7→ u + v ,
(λ, v ) 7→ λv ,
Plus précisément, soient E = {e1 , . . . en } une base de E et F = {f1 , . . . fm } une base
de F .
définie par (u + v )(x ) := u(x ) + v (x ),
définie par (λv )(x ) := λv (x ),
• On définit les applications linéaires Eij , pour 1 ≤ i ≤ m et 1 ≤ j ≤ n, par
sont des espaces vectoriels sur K.
De plus, si G est un espace vectoriel sur K, la composition des applications,
(u, v ) 7→ v ◦ u, définit une application de LK (E , F ) × LK (F , G) dans LK (E , G) et une
application de LK (E ) × LK (E ) dans LK (E ).
Eij : E → F ,
par Eij (ej ) = fi et Eij (ek ) = 0 si k 6= j.
Alors, la famille {Eij | 1 ≤ i ≤ m, 1 ≤ j ≤ n} est une base de LK (E , F ).
• On définit les formes linéaires ej∗ , pour 1 ≤ j ≤ n, par
Proposition
Si E et F sont des espaces vectoriels de dimension finie sur K, n := dim(E ) et
m := dim(F ), alors les espaces vectoriels LK (E , F ), LK (E ) et E ∗ sont également de
dimension finie sur K et on a
ej∗ : E → K,
Alors, la famille
{ei∗
par ej∗ (ej ) = 1 et ej∗ (ek ) = 0 si k 6= i.
| 1 ≤ i ≤ n} est une base de E ∗ , appelée base duale de la base E.
dim(LK (E , F )) = n × m, dim(LK (E )) = n2 , dim(E ∗ ) = n.
7/44
8/44
Algèbre linéaire
Algèbre linéaire
Compléments sur les applications linéaires
Compléments sur les applications linéaires
Transposée d’une application linéaire
Bi-dual d’un espace vectoriel
Définition
Proposition et Définition
Étant donnés des espaces vectoriels E et F et u une application linéaire de E dans F ,
on définit une application linéaire de F ∗ dans E ∗ , notée t u et appelée transposée de
l’application u, par
t
u(ϕ) := ϕ ◦ u
Soit E un espace vectoriel de dimension finie n. On note E ∗∗ l’espace dual de l’espace
E ∗ . Cet espace vectoriel est appelé le bi-dual de E . Si E := {e1 , . . . , en } est une base
de E , on note E ∗ := {e1∗ , . . . , en∗ } la base duale de E et on note E ∗∗ := {e1∗∗ , . . . , en∗∗ }
la base duale de E ∗ .
pour toute forme linéaire ϕ ∈ F ∗ .
Proposition et Définition
Soit E un espace vectoriel de dimension finie n. L’application c : E → E ∗∗ définie par
On a,
t
(u + v ) = t u + t v et
t
(λu) = λt u
c(x )(ϕ) := ϕ(x ) pour tous x ∈ E , ϕ ∈ E ∗
pour tous u, v ∈ L(E , F ) et λ ∈ K.
De plus, si u ∈ L(E , F ) et v ∈ L(F , G), alors
t
est un isomorphisme linéaire de E sur E ∗∗ . On l’appelle l’isomorphisme canonique de
E avec son bi-dual E ∗∗ .
(v ◦ u) = t u ◦ t v .
Étant donnée une base E de E et E ∗∗ la base associée de E ∗∗ , on a c(ej ) = ej∗∗ .
10/44
9/44
Algèbre linéaire
Algèbre linéaire
Matrice associée à une application linéaire
Matrice associée à une application linéaire
Matrice associée à une application linéaire
• Soient E et F deux espaces vectoriels, de dimensions respectives n et m, munis
respectivement des bases E = {e1 , . . . , en } et F = {f1 , . . . , fm }. On définit l’application
Notations
I
I
On désigne par Mm,n (K) l’ensemble des matrices à m lignes et n colonnes et à
coefficients dans K. C’est un K-espace vectoriel de dimension mn dont une base
est donnée par la famille {Mij | 1 ≤ i ≤ m, 1 ≤ j ≤ n} des matrices élémentaires
où Mij est la matrice dont tous les coefficients sont nuls sauf le coefficient de la
i-ième ligne, j-ième colonne qui vaut 1.
On désigne par Mn (K) l’ensemble des matrices carrées à n lignes et n colonnes.
On rappelle que c’est à la fois un K-espace vectoriel et un anneau (non
commutatif) pour la multiplication des matrices.
E
MF
: LK (E , F )
→
Mm,n (K)
E
MF
:u
7→
E
MF
(u)
E (u) est la matrice dont les colonnes sont les coordonnées des vecteurs
où MF
u(ej ), 1 ≤ j ≤ n, dans la base F ,
E (u) = m
c’est-à-dire MF
ij
1≤i≤m,1≤j≤n
u(ej ) =
m
X
où les coefficients mij sont définis par
mij fi pour tout j, 1 ≤ j ≤ n.
i=1
• Avec les notations précédentes, on a
E
MF
(Eij ) = Mij .
11/44
Algèbre linéaire
12/44
Algèbre linéaire
Matrice associée à une application linéaire
Matrice associée à une application linéaire
Suite du théorème
Théorème
E est une application linéaire bijective
Avec les notations précédentes, l’application MF
(un isomorphisme linéaire) de LK (E , F ) dans Mm,n (K).
Soit x ∈ E un vecteur qui s’écrit x = x1 e1 + · · · + xn en dans la base E ; on note XE le
vecteur colonne des coordonnées de x dans la base E. Le vecteur u(x ) s’écrit
u(x ) = y1 f1 + . . . + ym fm dans la base F ; on note YF le vecteur colonne des
coordonnées de u(x ) dans la base F .
On peut alors écrire

 
y1
x1
 . 
.
E
E
 ..  = MF (u)  ..  , càd YF = MF (u)XE .
ym
xn
Si u : E → F est une application linéaire entre deux espaces vectoriels de dimension
finie, et si t u : F ∗ → E ∗ est sa transposée, alors
∗
E
(u) .
MEF∗ (t u) = t MF
Soient E , F et G trois K-espaces vectoriels de dimension finie et E, F et G des bases
de E , F et G respectivement. Soient u : E → F et v : F → G des applications
linéaires. Alors
E
MGE (v ◦ u) = MGF (v ) MF
(u)
où le produit dans le second membre est le produit des matrices.
En particulier, MEE est un isomorphisme de l’anneau LK (E ) des endomorphismes de E
dans l’anneau Mn (K) des matrices carrées d’ordre n = dim(E ).

13/44
Algèbre linéaire
14/44
Algèbre linéaire
Effets d’un changement de base
Effets d’un changement de base
Changements de bases
Changements de bases et matrices d’applications linéaires
Définition
0
On appelle matrice de passage de la base E à la base E 0 et on note PEE la matrice
0
0
PEE := MEE (iE ), c’est-à-dire la matrice de l’application identité iE ,
0
(E , E ) → (E , E) ,
x 7→ x
Proposition
Soient E et F deux espaces vectoriels de dimension finie et soit u ∈ L(E , F ) une
application linéaire. On se donne deux bases E et E 0 de l’espace vectoriel E et deux
bases F et F 0 de l’espace vectoriel F . Alors
0
de E dans lui-même. Les colonnes de la matrice PEE sont les coordonnées des vecteurs
de la base E 0 dans la base E.
Proposition
0
0
E
E
MF
(u) = MF
(u)PEE
0
et
E
F
E
MF
0 (u) = PF 0 MF (u).
Corollaire
0
La matrice PEE est inversible et (PEE )−1 = PEE0 .
Proposition
Soit x ∈ E un vecteur dont les coordonnées dans la base E sont données par le vecteur
colonne XE et dont les coordonnées dans la base E 0 sont données par le vecteur
0
colonne XE 0 . Alors, XE = PEE XE 0 et XE 0 = PEE0 XE .
15/44
Soit E un K-espace vectoriel de dimension finie n et u ∈ L(E ) un endomorphisme de
E . Si E et E 0 sont deux bases de E , il existe une matrice P ∈ Mn (K), inversible, telle
que
0
MEE0 (u) = P −1 MEE P.
16/44
Algèbre linéaire
Algèbre linéaire
Effets d’un changement de base
Réduction des endomorphismes (première approche)
Réduction des endomorphismes (première approche
Les diagrammes
i
u
i
u
E
F
(E , E 0 ) −−−−
−→ (E , E) −−−−−→ (F , F ) et (E , E) −−−−−→ (F , F ) −−−−
−→ (F , F 0 )
traduisent les égalités
0
E
E
MF
(u) = MF
(u)PEE
0
et
E
F
E
MF
0 (u) = PF 0 MF (u).
Rationale. Étant donné un endomorphisme u d’un espace vectoriel de dimension finie
E sur un corps K, il s’agit de trouver une base de E dans laquelle la matrice de
l’endomorphisme soit la plus simple possible, c’est-à-dire une matrice diagonale ou une
matrice triangulaire supérieure (ou inférieure), formes qui permettent de résoudre
simplement des systèmes linéaires ou des équations différentielles linéaires par exemple.
Le diagramme commutatif
u
(E , E 0 ) −−−−−→ (E , E 0 )
0
M E0 (u)
E

 0
iE yP E
E
E
PE
0
 x
i  E 0 −1
y E (PE )
u
(E , E) −−−−−→ (E , E)
E (u)
ME
traduit les égalités
u = iE ◦ u ◦ iE
et
0
0
0
MEE0 (u) = (PEE )−1 MEE (u)PEE .
17/44
Algèbre linéaire
18/44
Algèbre linéaire
Réduction des endomorphismes (première approche)
Réduction des endomorphismes (première approche)
Valeurs propres – Vecteurs propres
Définition
Si λ est valeur propre de u, le sous-espace vectoriel Eλ := Ker(u − λiE ) de E s’appelle
l’espace propre de u associé à la valeur propre λ (il est, par définition, non réduit à
{0}).
Soit E un K-espace vectoriel de dimension n.
Définition
Soit u ∈ L(E ). Le scalaire λ ∈ K est appelé valeur propre de l’endomorphisme u s’il
existe un vecteur x ∈ E tel que x 6= 0 et u(x ) = λx . Le vecteur x est dit vecteur
propre de u associé à la valeur propre λ.
Remarques
I
Le scalaire λ ∈ K est valeur propre de u si et seulement si Ker(u − λiE ) 6= {0}.
I
Le vecteur x est vecteur propre de u associé à la valeur propre λ si et seulement
si x ∈ Ker(u − λiE ) \ {0}.
Proposition
Soit u ∈ L(E ). Si λ1 , . . . , λp sont des valeurs propres de u, deux à deux distinctes,
alors les espaces propres associés, Eλ1 , . . . , Eλp , sont en somme directe, c’est-à-dire,
pour tout j, 1 ≤ j ≤ p,
\
Eλj
Eλ1 + · · · + Eλj−1 + Eλj+1 + · · · + Eλp = {0}.
Corollaire
Si u ∈ L(E ) et si dim(E ) = n alors u possède au plus n valeurs propres distinctes dans
K.
19/44
Algèbre linéaire
20/44
Algèbre linéaire
Réduction des endomorphismes (première approche)
Réduction des endomorphismes (première approche)
Endomorphismes diagonalisables
Endomorphismes trigonalisables
Théorème et Définition
Théorème et Définition
Soit E un K-espace vectoriel de dimension n et soit u ∈ L(E ) un endomorphisme de
E , de matrice M dans une base B. Les trois assertions suivantes sont équivalentes.
Soit E un K-espace vectoriel de dimension n et soit u ∈ L(E ) un endomorphisme de
E , de matrice M dans une base B. Les deux assertions suivantes sont équivalentes.
1. Il existe une base E = {e1 , . . . , en } de E telle que les sous-espaces vectoriels
1. Il existe une base de E formée de vecteurs propres de u.
V1 := Vect(e1 ), V2 := Vect(e1 , e2 ), . . . , Vn := Vect(e1 , . . . , en )
2. Les espaces propres Eλ1 , . . . , Eλp de u correspondant à des valeurs propres
distinctes vérifient E = Eλ1 ⊕ · · · ⊕ Eλp .
soient stables par u, c’est-à-dire u(Vj ) ⊂ Vj pour 1 ≤ j ≤ n.
3. Il existe une base E de E telle que la matrice MEE (u) de u dans cette base soit
diagonale.
2. Il existe une base E de E telle que la matrice MEE (u) de u dans cette base soit
triangulaire supérieure, c’est-à-dire de la forme
Dans ce cas, on dit que l’endomorphisme u (resp. la matrice M) est diagonalisable.

a11
 0

 .
 ..
0
Corollaire
Soit E un K-espace vectoriel de dimension n et soit u un endomorphisme de E qui
adment n valeurs propres distinctes dans K. Alors l’endomorphisme u est
diagonalisable.
a12
a22
.
..
0
···
···
···

a1n
a2n 

. .
.. 
ann
Dans ce cas, on dit que l’endomorphisme u (resp. la matrice) est trigonalisable. Les
coefficients diagonaux de la matrice MEE (u) sont valeurs propres de u dans K.
22/44
21/44
Algèbre linéaire
Algèbre linéaire
Réduction des endomorphismes (première approche)
Déterminant
Groupe des permutations
Notations
Hypothèse (T)
On dira que le corps K possède la propriété (T) si, pour tout K-espace vectoriel E , de
dimension finie, tout endomorphisme u de E possède au moins une valeur propre,
c’est-à-dire qu’il existe au moins un élément λ ∈ K tel que Ker(u − λiE ) 6= {0}.
I
On désigne par Sn le groupe des permutations, c’est-à-dire le groupe des
bijections de N•n dans lui-même. Notons que le groupe Sn a n! éléments.
I
On peut expliciter une permutation σ ∈ Sn par un tableau
1
2
···
n
σ=
.
σ(1) σ(2) · · · σ(n)
I
On note σ ◦ τ ou στ la composition des deux permutations σ et τ ; on note ι la
permutation identité.
I
On appelle transposition une permutation τ qui échange deux indices et qui laisse
les autres inchangés. Ainsi, une permutation τ est de la forme τ = τij où
Théorème
Soit K un corps possédant la propriété (T), et soit E un espace vectoriel de dimension
finie sur K. Alors, tout endomorphisme u de E est trigonalisable.
Remarque. On montrera ultérieurement que C possède la propriété (T). Le corps R
ne possède pas la propriété (T).
Pour n ∈ N• , on désigne par N•n l’ensemble {1, 2, . . . , n}.
I
τij (i) = j, τij (j) = i, et τij (k) = k, pour k 6= i, k 6= j.
Pour une permutation τ , on a τ 2 = τ .
23/44
24/44
Algèbre linéaire
Algèbre linéaire
Déterminant
Déterminant
Structure du groupe des permutations
Signature d’une permutation
Définition
Soit σ ∈ Sn . Le nombre (σ) défini par
Q
Théorème
(σ) =
Pour n ≥ 2, l’ensemble des transpositions de Sn engendre Sn , c’est-à-dire, toute
permutation peut s’écrire comme produit de transpositions.
1≤i<j≤n (σ(i)
Q
1≤i<j≤n (i
− σ(j))
− j)
s’appelle la signature de la permutation σ.
Remarque. La décomposition d’une permutation en produit de transpositions n’est
pas unique en général. Remarquons également que pour n ≥ 3, le groupe S3 n’est pas
commutatif.
Théorème
Pour σ ∈ Sn , la signature (σ) est égale (−1)N où N est le nombre d’éléments de
l’ensemble {(i, j) ∈ N•n × N•n | i < j et σ(i) > σ(j)} (c’est-à-dire le nombre
d’inversions de σ).
La signature est un homomorphisme surjectif du groupe Sn sur le groupe
multiplicatif Γ = {−1, 1}.
25/44
Algèbre linéaire
26/44
Algèbre linéaire
Déterminant
Déterminant
Formes multi-linéaires
Soit E un K-espace vectoriel de dimension finie n.
Définition
Soit ϕ une application de E × · · · × E (p exemplaires de E ) dans K.
{z
}
|
Définition
Les permutations telles que (σ) = 1 forment un sous-groupe de Sn appelé le groupe
alterné et noté An . Les éléments de An sont appelés permutations paires ; les élements
de Sn \ An sont appelés permutations impaires.
p
I
On dit que l’application ϕ est une forme p-linéaire sur E si, pour tout j tel que
1 ≤ j ≤ p, et pour tous vecteurs y1 , . . . , yp ∈ E , les applications partielles
x 7→ ϕ(y1 , . . . , yj−1 , x , yj+1 , . . . yp )
Attention. Les permutations impaires ne forment pas un sous-groupe.
sont des formes linéaires de E dans K. Si p = 2, on dira que ϕ est bilinéaire. On
notera Lp (E , K) l’ensemble des formes p-linéaires sur E .
I
Étant donnés ϕ ∈ Lp (E , K) une forme p-linéaire sur E et σ ∈ Sp une
permutation, on définit une forme p-linéaire sur E , notée σ ∗ ϕ, par la formule
σ ∗ ϕ(x1 , . . . , xp ) := ϕ(xσ(1) , . . . , xσ(p) ).
27/44
Algèbre linéaire
28/44
Algèbre linéaire
Déterminant
Déterminant
Formes symétriques et anti-symétriques
Exemples
Définition
I
On dit qu’une forme p-linéaire, ϕ ∈ Lp (E , K), est symétrique si
• Pour p = 1, on retrouve les formes linéaires.
• Dans R2 , l’application (x1 , y1 ), (x2 , y2 ) 7→ x1 x2 + y1 y2 définit une application
bilinéaire symétrique.
• Dans R2 , l’application (x1 , y1 ), (x2 , y2 ) 7→ x1 y2 − x2 y1 définit une application
bilinéaire anti-symétrique.
• Si ϕ1 , . . . , ϕp sont des formes linéaires sur E , l’application
(x1 , . . . , xp ) 7→ ϕ1 (x1 ) · · · ϕp (xp ) définit une application p-linéaire que l’on note
ϕ 1 · · · ϕp .
σ ∗ ϕ = ϕ pour tout σ ∈ Sp .
On désigne par Sp (E , K) l’ensemble des formes p-linéaires symétriques sur E .
I
On dit qu’une forme p-linéaire, ϕ ∈ Lp (E , K), est anti-symétrique si
σ ∗ ϕ = (σ)ϕ pour tout σ ∈ Sp .
On désigne par Ap (E , K) l’ensemble des formes p-linéaires anti-symétriques sur E .
I
On dit qu’une forme p-linéaire, ϕ ∈ Lp (E , K), est alternée si ϕ(x1 , . . . , xp ) = 0
chaque fois qu’il existe deux indices distincts i et j tels que xi = xj .
29/44
Algèbre linéaire
30/44
Algèbre linéaire
Déterminant
Déterminant
Symétrisation et anti-symétrisation
Théorème
Soit E un K-espace vectoriel et soit p ∈ N• .
1. Les ensembles Lp (E , K), Sp (E , K) et Ap (E , K), munis des opérations naturelles,
sont des espaces vectoriels sur K.
2. Pour qu’une p-forme linéaire ϕ sur E soit symétrique, il faut et il suffit que
τ ∗ ϕ = ϕ pour toute transposition τ ∈ Sp .
3. Pour qu’une p-forme linéaire ϕ sur E soit anti-symétrique, il faut et il suffit que
τ ∗ ϕ = −ϕ pour toute transposition τ ∈ Sp .
4. Si K est R ou C, alors une p-forme linéaire ϕ sur E est alternée si et seulement si
elle est anti-symétrique.
Proposition et Définition
Soit E un K-espace vectoriel de dimension finie et soit ϕ ∈ Lp (E , K) une forme
p-linéaire sur E . Alors
X
X
S(ϕ) :=
σ ∗ ϕ et A(ϕ) :=
(σ)σ ∗ ϕ
σ∈Sp
σ∈Sp
sont des formes p-linéaires sur E . De plus,
1. la forme S(ϕ) est symétrique, on dit que c’est la symétrisée de ϕ ;
2. la forme A(ϕ) est anti-symétrique, on dit que c’est l’anti-symétrisée de ϕ.
Remarques
• Si E est de dimension finie n, on peut montrer que Lp (E , K) est de dimension finie.
• Si ϕ ∈ Lp (E , K) alors ϕ(x1 , . . . , xp ) = 0 si l’un des xj est nul.
31/44
32/44
Algèbre linéaire
Algèbre linéaire
Déterminant
Déterminant
Déterminant associé à une base d’un espace vectoriel
Théorème fondamental
Soit E un K-espace vectoriel de dimension finie n et soit E = {e1 , . . . , en } une base de
E . On désigne par E ∗ = {e1∗ , . . . , en∗ } la base duale de E ∗ .
Proposition et Définition
Théorème et Définition
Soit E un K-espace vectoriel de dimension n et soit p ∈ N• . Soit E = {e1 , . . . , en } une
base de E et soit E ∗ = {e1∗ , . . . , en∗ } la base duale. Alors,
1. Si p > n, on a Ap (E , K) = {0}.
L’application
E n → K, (x1 , . . . , xn ) 7→
n
Y
2. L’espace vectoriel An (E , K) est de dimension 1 et admet pour base DetE . Si
ϕ ∈ An (E , K), on a
ϕ = ϕ(e1 , . . . , en ) DetE .
ej∗ (xj )
j=1
est une forme n-linéaire sur E . Son anti-symétrisée est notée DetE et appelée le
déterminant associé à la base E. Il vérifie
De plus, DetE est le seul élément de An (E , K) qui prend la valeur 1 sur le n-uplet
{e1 , . . . , en }.
3. Soit X := {x1 , . . . , xn } ∈ E n un système de n vecteurs. On dit que
DetE (X ) := DetE (x1 , . . . , xn ) est le déterminant du système X dans la base E.
On a,
n
n
X
Y
X
Y
∗
DetE (X ) =
(σ)
ej∗ (xσ(j) ) =
(σ)
eσ(j)
(xj ).
DetE (e1 , . . . , en ) = 1.
Il en résulte en particulier que An (E , K) 6= {0}.
Exemples
• Dimension 2
• Dimension 3
σ∈Sn
σ∈Sn
j=1
j=1
33/44
Algèbre linéaire
34/44
Algèbre linéaire
Déterminant
Déterminant
Déterminant d’un endomorphisme
Théorème et Définition
Soit E un K-espace vectoriel de dimension finie n > 0 et soit u un endomorphisme de
E . Il existe un unique scalaire, appelé déterminant de u, et noté Det(u), tel que pour
tout ϕ ∈ An (E , K), et tous x1 , . . . , xn ∈ E , on ait
Proposition
Soit E un espace vectoriel de dimension n.
1. Si E et F sont des bases de E alors DetE (F ) est inversible dans K et
(DetE (F ))−1 = DetF (E).
ϕ(u(x1 ), . . . , u(xn )) = Det(u)ϕ(x1 , . . . , xn ).
2. Soit E une base de E et soit F un système de n vecteurs. Alors, F est une base
de E si et seulement si DetE (F ) 6= 0.
(1)
Ce scalaire est donné, dans une base E = {e1 , . . . , en } de E , par
Det(u) = DetE (u(e1 ), . . . , u(en )).
(2)
Remarque. La formule (1) ci-dessus montre que le déterminant d’un endomorphisme
ne dépend pas du choix d’une base particulière. La formule (2) donne elle un moyen de
calculer le déterminant.
35/44
Algèbre linéaire
36/44
Algèbre linéaire
Déterminant
Déterminant
Propriétés du déterminant d’un endomorphisme
Déterminant d’une matrice carrée
Définition
Soit A = (aij ) ∈ Mn (K) une matrice carrée sur le corps K. On appelle déterminant de
la matrice A, et on note Det(A) ou encore |aij |, le déterminant du système des
vecteurs colonnes de A dans la base canonique de Kn .
Théorème
Soit E un espace vectoriel de dimension n > 0.
Proposition
1. On a Det(iE ) = 1.
Étant donnée une matrice carrée A = (aij ) ∈ Mn (K), on a
2. Pour λ ∈ K et u ∈ L(E ), on a Det(λu) = λn Det(u).
3. Pour u, v ∈ L(E ), on a Det(v ◦ u) = Det(v )Det(u) et Det(t u) = Det(u) où
t u ∈ L(E ∗ ) est l’endomorphisme transposé de u.
Det(A) =
X
(σ)
σ∈Sn
4. Un endomorphisme u de E est inversible si et seulement si son déterminant
Det(u) est non nul et alors Det(u −1 ) = (Det(u))−1 .
n
Y
j=1
ajσ(j) =
X
σ∈Sn
(σ)
n
Y
aσ(j)j
j=1
et, en particulier,
Det(t A) = Det(A)
où t A désigne la matrice transposée.
Proposition
Soit E un espace vectoriel de dimension finie et E une base de E . Si u ∈ L(E ) et si
A := ME (u) est la matrice de u dans la base E, alors Det(u) = Det(A).
37/44
Algèbre linéaire
38/44
Algèbre linéaire
Déterminant
Déterminant
Calcul des déterminants
Proposition
Soient A, B ∈ Mn (K) et λ ∈ K. Le déterminant d’une matrice carrée possède les
propriétés suivantes.
I
Si on effectue une permutation σ sur les vecteurs colonnes de A et si on appelle
C la matrice ainsi obtenue, on a Det(C ) = (σ)Det(A).
I
Le déterminant de A dépend linéairement de chacun des vecteurs colonnes de A.
I
Le déterminant de A ne change pas si on ajoute à l’un de ses vecteurs colonnes
une combinaison linéaire des autres vecteurs colonnes. Il est nul si un des vecteurs
colonnes est combinaison linéaire des autres vecteurs colonnes.
I
Comme Det(t A) = Det(A), les propriétés ci-dessus sont également valables pour
les vecteurs lignes.
I
On a Det(In ) = 1 (où In désigne la matrice identité d’ordre n),
Det(λA) = λn Det(A) et Det(AB) = Det(A)Det(B).
I
Si A est une matrice 1 × 1 identifiée à un scalaire α, on a Det(A) = α.
I
La matrice A est inversible si et seulement si Det(A) 6= 0 et alors
Det(A−1 ) = (Det(A))−1 .
Lemme
Soient n, p, q ∈ N• avec n = p + q. Soient A ∈ Mp , B ∈ Mq et C ∈ Mp,q . On
définit une matrice M ∈ Mn par
A C
M :=
.
0 B
Alors, Det(M) = Det(A)Det(B).
39/44
40/44
Algèbre linéaire
Algèbre linéaire
Déterminant
Déterminant
Calcul des déterminants, suite
Développement selon une ligne ou une colonne
Proposition
Soit M ∈ Mn une matrice de matrices, triangulaire supérieure, c’est à dire de la forme

M11
 0

M :=  .
 ..
0
M12
M22
..
.
0
···
···
···

M1m
M2m 

. 
.. 
Mmm
Proposition et Définition
Soit A := (aij ) une matrice carrée. On désigne par Âij la matrice obtenue à partir de A
en supprimant la i-ième ligne et la j-ième colonne. Alors, pour 1 ≤ i, j ≤ n,
où les Mii , 1 ≤ i ≤ m, sont des matrices carrées. Alors,
Det(A) =
n
n
X
X
(−1)k+j akj Det(Âkj ) =
(−1)i+k aik Det(Âik ).
k=1
Det(M) = Det(M11 ) · · · Det(Mmm ).
k=1
La première (resp. seconde) égalité est appelée le développement du déterminant de A
suivant la j-ième colonne (resp. suivant la i-ième ligne).
En particulier, si

a11
 0

A :=  .
 ..
0
a12
a22
..
.
0
···
···

a1n
a2n 

.. 
. 
···
ann
est une matrice triangulaire supérieure de taille n × n, alors Det(A) = a11 · · · ann .
41/44
Algèbre linéaire
42/44
Algèbre linéaire
Déterminant
Polynôme caractéristique d’un endomorphisme
Déterminant et calcul de l’inverse d’une matrice
Polynôme caractéristique d’un endomorphisme
Définition
Étant donnée une matrice A := (aij ), le nombre (−1)i+j Det(Âij ) s’appelle le
co-facteur du coefficient aij . La transposée de la matrice des co-facteurs s’appelle la
matrice complémentaire de la matrice A et se note Ã.
Soit E un K-espace vectoriel de dimension finie et soit E une base de E . Soit u un
endomorphisme de E . D’après les propriétés des déterminants, dire que λ ∈ K est une
valeur propre de u équivaut à dire que Det(u − λiE ) = 0 ou, ce qui revient au même,
que Det(A − λIn ) = 0, où A est la matrice de u dans la base E. Les formules
X
Det(A − λIn ) =
Proposition
(σ)
σ∈Sn
Soit A ∈ Mn une matrice et soit à sa matrice complémentaire. Alors,
n
n
Y
X
Y
(ajσ(j) − λδjσ(j) ) =
(σ)
(aσ(j)j − λδσ(j)j )
j=1
σ∈Sn
j=1
permettent de définir un polynôme
AÃ = ÃA = Det(A)In .
En particulier, si Det(A) 6= 0, la matrice A est inversible et son inverse est donnée par
la formule
A−1 = (Det(A))−1 Ã.
43/44
PA (X ) =
X
σ∈Sn
(σ)
n
n
Y
X
Y
(ajσ(j) − X δjσ(j) ) =
(σ)
(aσ(j)j − X δσ(j)j )
j=1
σ∈Sn
j=1
de degré n qui s’appelle le polynôme caractéristique de A. Les racines de ce polynôme
sont exactement les valeurs propres de A (et donc de u).
44/44
Téléchargement