Algèbre linéaire

publicité
École des Mines de Douai — FIAASMathématiques
Algèbre linéaire
Algèbre linéaire :
rappels et compléments
F. Delacroix, École des Mines de Douai, 21 octobre 2010
Introduction
Le présent polycopié est divisé en deux grandes parties :
– un ensemble de rappels de notions et résultats fondamentaux d’algèbre linéaire vus
en classe de mathématiques supérieures,
– un cours plus détaillé sur la notion de déterminant, dont seuls les cas de la dimension
2 ou 3 sont au programme de certaines filières de mathématiques supérieures.
Il n’est pas nécessaire à tout un chacun de comprendre tous les tenants et aboutissants
de la théorie, notamment certaines démonstrations assez difficiles (signalées par (♠)). Il
est en revanche capital de bien maîtriser toutes les notions de la première partie et les
passages signalés par un symbole (F) dans la seconde partie.
Ce poly ne fera pas l’objet d’un cours magistral mais deux séances de TD y seront
consacrées. On trouvera davantage de développements dans n’importe quel ouvrage d’algèbre linéaire.
Dans tout ce cours, K désigne un corps commutatif de caractéristique différente de 2
(c’est-à-dire pour lequel 1 + 1 6= 0), qui sera généralement R ou C.
(♠) Remarque
Il existe des corps de caractéristique 2, comme Z/2Z = {0, 1}...
Première partie
Rappels de mathématiques
supérieures
1
Applications linéaires
Définition 1
Soient E et F deux K-espaces vectoriels, f : E → F une application. On dit que
• f est linéaire, ou que c’est un morphisme d’espaces vectoriels si
∀(x, y) ∈ E 2 , ∀λ ∈ K,
f (x + λy) = f (x) + λf (y).
Autrement dit, une telle application préserve les sommes de vecteurs et mutlipli1
Algèbre linéaire
MathématiquesÉcole des Mines de Douai — FIAAS
cations de vecteur par scalaire et, plus généralement, les combinaisons linéaires.
• f est un endomorphisme de E si f est une application linéaire de E dans
lui-même (c’est-à-dire E = F ).
• f est un isomorphisme si f est une application linéaire bijective.
• f est un automorphisme si f est à la fois un isomorphisme et un endomorphisme.
(♠) Remarque
Prenons un peu de recul vis-à-vis de ce vocabulaire, déjà souvent rencontré.
Le mot «morphisme» vient du grec «morphê» qui signifie «forme». La forme dont il
est question ici est celle qui fait d’un ensemble particulier un espace vectoriel, c’est-àdire les opérations d’addition des vecteurs et de multiplication de vecteurs par scalaires.
Dire qu’une application est un «morphisme d’espaces vectoriels» signifie donc qu’elle
respecte cette «forme», c’est-à-dire ces deux opérations.
Plus généralement, dès qu’une structure algébrique est donnée sur un ensemble, on
a une notion de morphisme. On parle ainsi de morphisme de groupes, anneaux, corps,
algèbres, espaces vectoriels, etc.
Dans le cadre de la théorie des catégories, ce langage est poussé plus loin : une
«catégorie» est formée d’«objets» et de «morphismes» (également appelés «flèches»)
entre ces objets (avec certaines conditions). Il y a par exemple la catégorie des groupes
dont les morphismes sont les morphismes de groupes, mais aussi les espaces topologiques (ensembles munis d’une topologie) dont les morphismes sont les applications
continues ! Citons également la catégorie des fibrés vectoriels, celle des variétés lisses
(dont les morphismes sont les applications de classe C ∞ ). . .
La somme, le produit par scalaire, la composée (si elle est définie), l’inverse (s’il existe)
d’applications linéaires est linéaire. Les applications linéaires de E dans F forment un
espace vectoriel noté L(E, F ).
Lorsque E = F , on note cet espace L(E) ; il est alors muni par la composition des
endomorphismes d’une structure de K-algèbre associative unitaire : la composition est
associative, admet comme élément neutre l’identité de E, notée idE , et est compatible
avec les lois de l’espace vectoriel.
On note GL(E, F ) l’ensemble des isomorphismes de E sur F . Ce n’est pas un espace
vectoriel. La notation GL(E) désigne l’ensemble des automorphismes de E, qui est muni
d’une structure de groupe par la composition.
Les espaces E et F sont dits isomorphes s’il existe un isomorphisme de E sur F .
Définition 2
Étant donnée une application linéaire f : E → F , on définit :
– le noyau de f par
ker f = {x ∈ E, f (x) = 0} = f −1 ({0}),
– l’image de f par
Im f = {f (x), x ∈ E} = {y ∈ F, ∃x ∈ E, y = f (x)} = f (E).
2
École des Mines de Douai — FIAASMathématiques
Algèbre linéaire
Alors ker f est un sous-espace vectoriel de E et Im f est un sous-espace vectoriel de
F ; et on a :
(f injective) ⇐⇒ (ker f = {0}) ;
(f surjective) ⇐⇒ (Im f = F ).
2
Familles libres, génératrices, bases ; dimension
2.1
Définitions
Définition 3
Soit une famille (c’est-à-dire un ensemble ordonné) F de vecteurs d’un espace vectoriel
E. Une combinaison linéaire de vecteurs de F est un vecteur x de E qui peut s’écrire
x=
m
X
λi e i
i=1
où m ∈ N, λ1 , . . . , λm ∈ K et e1 , . . . , em ∈ F.
Lorsque F est une famille finie (e1 , . . . , en ), une telle combinaison peut s’écrire
n
X
λi ei
i=1
(quitte à choisir certains scalaires nuls), mais il ne faut pas oublier qu’une combinaison
linéaire est toujours une somme finie.
Une telle combinaison linéaire est dite triviale si tous les scalaires λi sont nuls.
Définition 4
Le sous-espace vectoriel engendré par F est le sous-espace vectoriel de E formé
de toutes les combinaisons linéaires de vecteurs de F. C’est le plus petit (au sens de
l’inclusion) sous-espace vectoriel de E contenant tous les vecteurs de F ; on le note
Vect(F) (plus rarement hFi).
Les définitions suivantes (ou plutôt leurs expressions quantifiées) sont énoncées dans
le cas d’une famille finie F = (e1 , . . . , en ) mais se généralisent sans problème au cas d’une
famille infinie de vecteurs de E au vu de la définition de combinaison linéaire ci-dessus.
Définition 5
On dit que la famille F est :
– libre si toute combinaison linéaire nulle de vecteurs de F est nécessairement
triviale :
n
∀(λ1 , . . . , λn ) ∈ K ,
n
X
!
λi ei = 0 =⇒ (λ1 = λ2 = · · · = λn = 0)
i=1
(l’implication réciproque étant toujours vraie) ;
– génératrice si Vect(F) = E, c’est-à-dire si tout vecteur de E peut s’écrire
3
Algèbre linéaire
MathématiquesÉcole des Mines de Douai — FIAAS
comme combinaison linéaire de vecteurs de F :
n
∀x ∈ E, ∃(λ1 , . . . , λn ) ∈ K ,
x=
n
X
λi ei ;
i=1
– une base de E si F est à la fois libre et génératrice. Alors tout vecteur x de E
s’écrit de manière unique sous la forme
x=
n
X
λi ei
i=1
avec (λ1 , . . . , λn ) ∈ Kn . Ce n-uplet de scalaires s’appelle les coordonnées de x
dans la base F.
Une famille non libre est dite liée. Deux (resp. trois) vecteurs formant une famille liée
sont parfois dits colinéaires (resp. coplanaires).
2.2
Bases, dimensions
Tout espace vectoriel E admet une base (en fait une infinité si E est infini — c’est
le cas lorsque K = R ou C et E 6= {0}), et toutes les bases de E sont en bijection les
unes avec les autres. En particulier, on dit que E est de dimension finie si E admet
une base finie, et toutes les bases de E ont alors le même nombre d’éléments. Dans ce cas,
ce nombre s’appelle la dimension de E et se note dimK E ou, lorsqu’aucune ambiguïté
n’est à craindre quant à l’identité des scalaires, dim E.
(♠) Remarque 1
Il existe une notion bien précise de dimension lorsque E est de dimension infinie, mais
elle nécessite l’utilisation des cardinaux transfinis de Cantor. Exemple : dimR R[X] =
ℵ0 (l’espace R[X] des polynômes à coefficients réels admet une base dénombrable :
(X n )n∈N ).
Par convention, l’espace vectoriel {0} est de dimension 0 et sa seule base est la famille
vide. Si E est de dimension 1 (resp. 2), on dit aussi que E est une droite (resp. un plan).
Si E est un espace vectoriel de dimension finie n, alors pour toute famille F de n vecteurs,
(F est libre) ⇐⇒ (F est une base) ⇐⇒ (F est génératrice).
Si E et F sont deux espaces vectoriels de même dimension finie et f : E → F est une
application linéaire,
(f est injective) ⇐⇒ (f est bijective) ⇐⇒ (f est surjective).
Plus précisément, si E est un espace vectoriel de dimension finie, F un espace vectoriel
et f : E → F une application linéaire, le rang de f est le nombre
rg f = dim(Im f ).
On a alors le. . .
4
École des Mines de Douai — FIAASMathématiques
Algèbre linéaire
Théorème 1 (Théorème du rang)
Sous ces hypothèses, on a
dim E = dim ker f + rg f.
3
Représentation matricielle des applications linéaires
3.1
Définitions, notations et premiers résultats
Définition 6
Soient E et F deux K-espaces vectoriels de dimensions respectives n et p, f : E → F
une application linéaire, BE = (e1 , . . . , en ) et BF = (f1 , . . . , fp ) des bases de E et F
respectivement. La matrice de f relativement aux bases BE et BF est la matrice
à p lignes et n colonnes à coefficients dans K dont la j ème colonne est constituée des
coordonnées de f (ej ) dans la base BF . Cette matrice se note MatBE ,BF (f ).
Alors le vecteur-colonne des coordonnées dans BF de l’image f (x) d’un vecteur x de
E s’obtient en multipliant à droite la matrice MatBE ,BF (f ) par le vecteur-colonne des
coordonnées de x dans BE .
Les matrices à p lignes et n colonnes à coefficients dans K forment un espace vectoriel,
noté Mp,n (K), de dimension np. Bien sûr, si f, g ∈ L(E, F ) et λ ∈ K, on a
(
MatBE ,BF (f + g) = MatBE ,BF (f ) + MatBE ,BF (g)
MatBE ,BF (λf ) = λ MatBE ,BF (f ).
Réciproquement, étant donnée une matrice A ∈ Mp,n (K), il existe une unique application
linéaire f ∈ L(E, F ) telle que MatBE ,BF (f ) = A. Autrement dit, l’application
MatBE ,BF : L(E, F ) −−−→ Mp,n (K)
f 7−−−→ MatBE ,BF (f )
est un isomorphisme d’espaces vectoriels.
De plus, pour f ∈ L(E, F ) et g ∈ L(F, G) (où E, F , G sont trois K-espaces vectoriels
de dimensions respectives n, p et q munis de bases BE , BF et BG ), on a également
MatBE ,BG (g ◦ f ) = MatBF ,BG (g) MatBE ,BF (f ).
Rappelons ici la formule définissant le produit matriciel : soient A = (aij ) 16i6p ∈ Mn,p (K)
16j6n
et B = (bij ) 16i6n . Alors AB = (cij ) 16i6p avec
16j6q
16j6q
∀i ∈ {1, . . . , p}, ∀j ∈ {1, . . . , q},
cij =
n
X
aik bkj .
k=1
En particulier, lorsque n = p (matrices carrées), le produit de deux matrices de Mn (K)
5
Algèbre linéaire
MathématiquesÉcole des Mines de Douai — FIAAS
est bien défini, admet pour élément neutre la matrice identité

1

0


In = 0
.
 ..

0
1
0
..
.
0
0
1
..
.
···
···
···
..
.

0

0

0

.. 
.

0 0 0 ··· 1
et l’isomorphisme d’espaces vectoriels MatBE : L(E) → Mn (K) est en réalité un isomorphisme de K-algèbres. En outre,
(f est bijective) ⇐⇒ (MatBE ,BF (f ) est inversible)
avec dans ce cas MatBF ,BE (f −1 ) = (MatBE ,BF (f ))−1 .
Les matrices inversibles d’ordre n à coefficients dans K forment un groupe noté GL(n, K),
ou encore GLn (K), et appelé groupe linéaire d’ordre n.
3.2
Changements de bases
La formule de changement de bases peut être vue comme un cas particulier du
fait précédent, lorsque l’application linéaire est composée avec l’application identité dont
la matrice est écrite dans des bases de départ et d’arrivée distinctes. Rappelons que la
matrice de passage d’une base B1 de E à une autre base B2 de E est la matrice carrée
dont les colonnes sont constituées des coordonnées des vecteurs de B2 (« nouvelle base »)
dans la base B1 (« ancienne base »). Une matrice de passage est toujours inversible.
Soient E, F deux K-espaces vectoriels de dimension finie, B1 , B2 deux bases de E,
C1 , C2 deux bases de F , f : E → F une application linéaire. On pose A = MatB1 ,C1 (f )
(matrice de f dans les « anciennes bases ») et B = MatB2 ,C2 (f ) (matrice de f dans les
« nouvelles bases »). Alors on a
B = Q−1 AP
(1)
où P est la matrice de passage de B1 à B2 et Q la matrice de passage de C1 à C2 .
Des matrices vérifiant la relation (1) avec des matrices inversibles P ∈ GLn (K) et
Q ∈ GLp (K) sont dites équivalentes.
En particulier, dans le cas d’un endomorphisme f d’un espace vectoriel de dimension
n muni de deux bases B1 et B2 , la formule de changement de bases s’écrit, P désignant la
matrice de passage de B1 à B2 :
B = P −1 AP.
(2)
Des matrices vérifiant la relation (2) sont dites semblables.
Tout le problème de théorie de la réduction des endomorphismes est de trouver des
bases dans lesquelles la matrice d’un endomorphisme donné est « sympathique », c’est-àdire diagonale ou, au pire, triangulaire.
4
Somme de sous-espaces vectoriels
Soient E un K-espace vectoriel, F et G deux sous-espaces vectoriels de E. L’intersection F ∩ G est encore un sous-espace vectoriel de E, mais il n’en est pas de même de la
6
École des Mines de Douai — FIAASMathématiques
Algèbre linéaire
réunion F ∪ G (on démontre sans peine que F ∪ G est un sous-espace vectoriel de E si et
seulement si F ⊂ G ou G ⊂ F ).
On peut en revanche considérer le sous-espace vectoriel Vect(F ∪ G) de E engendré
par cette réunion ; et on démontre que ce sous-espace vectoriel est exactement l’ensemble
des vecteurs de E qui peuvent s’écrire sous forme de la somme d’un vecteur de F et d’un
vecteur de G. On le note F + G et on le nomme somme de F et de G :
F + G = {y + z, y ∈ F, z ∈ G} = {x ∈ E, ∃(y, z) ∈ F × G, x = y + z}.
L’écriture d’un vecteur de F + G sous cette forme n’est en général pas unique. Elle
l’est cependant lorsque la somme est directe, c’est-à-dire lorsque F ∩ G = {0}. On note
alors cette somme F ⊕ G.
Définition 7
Les sous-espaces vectoriels F et G sont dits supplémentaires s’ils sont en somme
directe et si F ⊕ G = E. Dans ce cas, tout vecteur de E s’écrit de manière unique sous
forme de somme d’un vecteur de F et d’un vecteur de G.
Exemple 8
On considère l’espace vectoriel E = F(R, R) de toutes les fonctions R → R. On désigne
par P et I les sous-espaces vectoriels de E constitués respectivement des fonctions
paires et des fonctions impaires. Alors P et I sont supplémentaires.
En effet, si f est à la fois paire et impaire, f est la fonction nulle ; on a donc
P ∩ I = {0} : la somme est directe. De plus, si f ∈ E, on a f = g + h où
g : x 7−→
f (x) + f (−x)
2
h : x 7−→
f (x) − f (−x)
2
avec g ∈ P et h ∈ I. Cette somme est donc égale à E tout entier.
Supposons maintenant E de dimension finie. On montre alors, en utilisant le théorème
de la base incomplète, que
dim(F + G) = dim F + dim G − dim(F ∩ G).
En particulier, lorsque la somme est directe, on a
dim(F ⊕ G) = dim F + dim G.
On montre aisément à l’aide de ces formules que, pour que F et G soient supplémentaires, on peut remplacer l’une des conditions F ∩ G = {0} ou F + G = E par
dim F + dim G = dim E.
7
Algèbre linéaire
MathématiquesÉcole des Mines de Douai — FIAAS
Deuxième partie
Déterminants
5
Applications multilinéaires
Définition 9
Soient E et F deux K-espaces vectoriels, p ∈ N∗ . Une application
f:
E p −−−→ F
(x1 , . . . , xp ) 7−−−→ f (x1 , . . . , xp )
est dite p-linéaire si elle est linéaire en chacune des variables x1 , . . . , xp , c’est-à-dire
si toutes les applications partielles sont linéaires.
Lorsque p = 0, on convient qu’une application linéaire est un vecteur (constant) de F .
Lorsque F = K, on dit que f est une forme p-linéaire.
Lorsque p = 2 ou p = 3, on parle d’applications bilinéaires ou trilinéaires respectivement. Le cas où p = 1 correspond aux applications linéaires.
Exemple
La multiplication dans K est une forme bilinéaire sur K.
(♠) Proposition 2
Si f : E → F est une application p-linéaire, alors pour tout entier naturel n, tout
n-uplet de vecteurs (e1 , . . . , en ) ∈ E p et tout np-uplet de scalaires (λ1,1 , λ1,2 , . . . , λ1,n ,
λ2,1 , . . . , λ2,n , . . . , λp,1 , . . . , λp,n ) ∈ Knp , on a
f
n
X
i=1
λ1,i ei ,
n
X
λ2,i ei , . . . ,
i=1
n
X
i=1
!
λp,i ei =
X
λ1,j1 λ2,j2 . . . λp,jp f (ej1 , ej2 , . . . , ejp ).
(j1 ,...,jp )∈{1,...,n}p
Preuve. Il suffit d’utiliser de façon récurrente la linéarité de f en chacune des variables.
Corollaire 3
Une application p-linéaire est entièrement déterminée par ses valeurs sur les p-uplets
formés à partir des vecteurs d’une base fixée de E.
6
6.1
Formes multilinéaires alternées
Permutations
Rappelons qu’une permutation de {1, . . . , n} est une bijection de {1, . . . , n} sur luimême. L’ensemble des permutations de {1, . . . , n} est noté Sn , et constitue un groupe
(appelé « groupe symétrique d’ordre n ») pour la composition des bijections, dont le
cardinal est n! (factorielle n). Une transposition est une permutation τ ∈ Sn qui échange
deux éléments et laisse les autres inchangés.
8
École des Mines de Douai — FIAASMathématiques
Algèbre linéaire
Les transpositions engendrent le groupe Sn , c’est-à-dire que toute permutation σ peut
s’écrire comme composée de transpositions σ = τ1 ◦ τ2 ◦ · · · ◦ τm . Cette écriture n’est pas
unique mais on démontre que le nombre de transpositions dans une telle écriture a une
parité fixe. La signature d’une permutation σ ∈ Sn est le nombre
ε(σ) = (−1)m
où m est le nombre de transpositions intervenant dans une écriture de σ comme composée
de transpositions.
Une propriété importante de la signature est que la signature d’une composée est le
produit des signatures et que la signature d’un inverse est l’inverse de la signature :
(
∀(σ, σ 0 ) ∈ (Sn )2 , ε(σ ◦ σ 0 ) = ε(σ)ε(σ 0 )
∀σ ∈ Sn , ε(σ −1 ) = ε(σ)−1 = ε(σ)
autrement dit, la signature ε : Sn → {−1, 1} est un morphisme de groupes.
6.2
Applications multilinéaires symétriques, alternées
Définition 10
Soient E, F deux K-espaces vectoriels, p ∈ N et f : E p → F une application p-linéaire.
On dit que f est
– symétrique si la valeur de f (x1 . . . , xp ) ne change pas si l’on modifie l’ordre des
vecteurs x1 , . . . , xp :
∀(x1 , . . . , xp ) ∈ E p , ∀σ ∈ Sp ,
f (xσ(1) , xσ(2) , . . . , xσ(p) ) = f (x1 , . . . , xp );
– antisymétrique, ou alternée, si la valeur de f (x1 . . . , xp ), est multipliée par la
signature de la permutation subie par les vecteurs x1 , . . . , xp :
∀(x1 , . . . , xp ) ∈ E p , ∀σ ∈ Sp ,
f (xσ(1) , xσ(2) , . . . , xσ(p) ) = ε(σ)f (x1 , . . . , xp ).
Remarquons que, puisque les transpositions engendrent le groupe Sn et d’après la
propriété de la signature, il suffit de vérifier ces résultats pour les transpositions.
Exemple 11
Lorsque p = 2, une application bilinéaire est
– symétrique si ∀(x, y) ∈ E 2 , f (y, x) = f (x, y),
– antisymétrique si ∀(x, y) ∈ E 2 , f (y, x) = −f (x, y).
En effet, les seules permutations de l’ensemble {1, 2} sont l’identité (de signature 1)
2
et la transposition ( 12 7→
7→ 1 ) (de signature −1).
Si E est de dimension finie n, il résulte du corollaire 3 que, étant donnée une base
(e1 , . . . , en ) de E,
– une application p-linéaire symétrique est déterminée de manière unique par ses valeurs sur tous les p-uplets (ej1 , ej2 , . . . , ejp ) avec 1 6 j1 6 j2 6 · · · 6 jp 6 n ; et
– une application p-linéaire alternée est déterminée de manière unique par ses valeurs
sur tous les p-uplets (ej1 , ej2 , . . . , ejp ) avec 1 6 j1 < j2 < · · · < jp 6 n.
9
Algèbre linéaire
MathématiquesÉcole des Mines de Douai — FIAAS
Pour justifier ce dernier point, considérons une application p-linéaire alternée f et
remarquons que si un p-uplet (x1 , . . . , xp ) ∈ E p a deux vecteurs identiques xi = xj (avec
i 6= j, par exemple i < j), alors on a
f (x1 , . . . , xi−1 , xi , xi+1 , . . . , xj−1 , xj , xj+1 , . . . , xn )
= f (x1 , . . . , xi−1 , xj , xi+1 , . . . , xj−1 , xi , xj+1 , . . . , xn ).
Or, en considérant la transposition échangeant i et j, on a aussi
f (x1 , . . . , xi−1 , xj , xi+1 , . . . , xj−1 , xi , xj+1 , . . . , xn )
= −f (x1 , . . . , xi−1 , xi , xi+1 , . . . , xj−1 , xj , xj+1 , . . . , xn ),
d’où
f (x1 , . . . , xn ) = 0.
La réciproque de ce fait est d’ailleurs vraie, de sorte que l’on a la caractéristation
suivante :
Proposition 4
Une application p-linéaire f : E p → F est alternée si et seulement si
(
i 6= j
∀(x1 , . . . , xp ) ∈ E , ∃(i, j) ∈ {1, . . . , p},
xi = xj
p
!
=⇒ ( f (x1 , . . . , xp ) = 0 ).
De ce résultat et de la proposition 2 découle que l’image par une application p-linéaire
alternée d’un p-uplet de vecteurs constituant une famille liée est nulle.
6.3
Formes multilinéaires alternées
Dans toute la suite, on suppose que F = K, donc qu’il s’agit de formes linéaires
symétriques ou alternées. Les formes p-linéaires symétriques sur E forment un K-espace
vectoriel noté V p (E). Les formes p-linéaires alternées sur E forment un K-espace vectoriel
noté Λp (E).
Théorème 5
Si E est un K-espace vectoriel de dimension n, alors
dim Λp (E) =

C p
n
0
si p ∈ {0, . . . , n}
sinon.
En particulier, Λn (E) est une droite vectorielle.
10
École des Mines de Douai — FIAASMathématiques
Algèbre linéaire
(♠) Preuve. Si p > n, un p-ulplet quelconque de vecteurs de E a au moins deux vecteurs
linéairement dépendants. D’après un résultat précédent, son image par une application
p-linéaire alternée f quelconque est donc nulle. On a donc f = 0 et Λp (E) = {0}.
Si p = 0, Λ0 (E) s’identifie à K, qui est de dimension 1. On suppose dorénavant que
1 6 p 6 n.
Soit (e1 , . . . , en ) une base de E, on note (e∗1 , . . . , e∗n ) la base duale. Rappelons que cela
signifie que chaque e∗i est la forme linéaire sur E définie par
e∗i (ej ) = δij =

0
si i 6= j
1 si i = j.
Pour tout (i1 , . . . , ip ) ∈ {1, . . . , n}p tel que 1 6 i1 < · · · < ip 6 n, on note ei1 ...ip l’application p-linéaire alternée définie par :
∀(x1 , . . . , xp ) ∈ E p , ei1 ...ip (x1 , . . . , xp ) = e∗i1 (x1 )e∗i2 (x2 ) . . . e∗ip (xp ).
On sait, en effet, d’après les résultats précédents que ceci définit de manière unique une
forme p-linéaire alternée, la linéarité en chacune des variables étant une conséquence
directe de celle des e∗ij . Montrons que la famille B = (ei1 ...ip )16i1 <···<ip 6n est une base de
Λp (E).
• Soit une famille de scalaires (λi1 ...ip )16i1 <···<ip 6n telle que
X
λi1 ...ip ei1 ...ip = 0.
16i1 <···<ip 6n
Fixons (j1 , j2 , . . . , jp ) ∈ Np tel que 1 6 j1 < · · · < jp 6 n et considérons l’image du p-uplet
de vecteurs (ej1 , . . . , ejp ) :
X
λi1 ...ip ei1 ...ip (ej1 , . . . , ejp ) = 0.
16i1 <···<ip 6n
Or, par construction de ei1 ...ip , on a
ei1 ...ip (ej1 , . . . , ejp ) =

1
si (i1 , . . . , ip ) = (j1 , . . . , jp )
0 sinon ;
l’égalité précédente se réduit donc à
λj1 ,...,jp = 0
et ce pour tout (j1 , . . . , jp ) vérifiant la condition ci-dessus. Par conséquent la famille B est
libre.
• Montrons maintenant qu’elle est génératrice. Considérons une forme p-linéaire alternée f ∈ Λp (E) et posons :
g=
X
f (ei1 , . . . , eip )ei1 ...ip .
16i1 <···<ip 6n
11
Algèbre linéaire
MathématiquesÉcole des Mines de Douai — FIAAS
Alors, pour tout (j1 , . . . , jp ) ∈ {1, . . . , n}p tel que 1 6 j1 < · · · < jp 6 n on a, de même
que précédemment :
g(ej1 , . . . , ejp ) =
X
f (ei1 , . . . , eip )ei1 ...ip (ej1 , . . . , ejp )
16i1 <···<ip 6n
= f (ej1 , . . . , ejp )
Les formes p-linéaires f et g coïncident sur les p-uplets extraits d’une base de E, elles
sont donc égales. On a donc prouvé que f peut s’écrire comme combinaison linéaire des
vecteurs de B, la famille B est donc génératrice. La famille B est ainsi une base de Λp (E)
et comporte Cnp vecteurs (le nombre de suites strictement croissantes de p éléments de
{1, . . . , n} correspond au nombre de parties à p éléments d’un ensemble à n éléments). On
a donc bien prouvé que
dim Λp (E) = Cnp .
7
Déterminant d’un système de vecteurs dans une
base
On considère maintenant un K-espace vectoriel E de dimension n muni d’une base
B = (e1 , . . . , en ).
Puisque, d’après le théorème 5, Λn (E) est de dimension 1, la définition suivante est
justifiée.
Définition 12
On appelle déterminant dans la base B l’unique forme n-linéaire alternée detB sur
E telle que
detB (e1 , . . . , en ) = 1.
Théorème 6
Soit un n-uplet de vecteurs (x1 , . . . , xn ) ∈ E. Pour tout i ∈ {1, . . . , n}, on note
ai1 , . . . , ain les coordonnées de xi dans la base B. On a
detB (x1 , . . . , xn ) =
X
ε(σ)a1σ(1) a2σ(2) . . . anσ(n) .
σ∈Sn
(F) Théorème 7
Soit une famille de n vecteurs F = (f1 , . . . , fn ). Les assertions suivantes sont équivalentes :
(1) F est libre,
(2) F est génératrice,
(3) F est une base de E,
12
École des Mines de Douai — FIAASMathématiques
Algèbre linéaire
(4) detB (f1 , . . . , fn ) 6= 0.
Attention, le déterminant d’une famille de vecteurs dépend de la base dans laquelle il
est calculé.
8
Déterminant d’une matrice carrée
Soit n ∈ N∗ .
Définition 13
Pour toute matrice A carrée d’ordre n de terme général (aij )16i,j6n

a11 a12

 a21 a22


A =  a31 a32
 .
..
 ..
.

an1 an2
a13
a23
a33
..
.
an3

· · · a1n

· · · a2n 

· · · a3n 
,
.. 
..
. . 

· · · ann
on appelle déterminant de A le scalaire
det(A) =
a
11
a21
a
31
.
..
an1
a12 a13
a22 a23
a32 a33
..
..
.
.
an2 an3
· · · a1n · · · a2n X
· · · a3n =
ε(σ)a1σ(1) a2σ(2) . . . anσ(n) .
.. σ∈Sn
..
. . · · · ann Rappelons que la transposée d’une matrice A = (aij )16i,j6n est la matrice t A =
(aji )16i,j6n obtenue en permutant les rôles des lignes et colonnes.
(F) Proposition 8
Pour toute matrice A ∈ Mn (K), on a det(A) = det(t A).
Par conséquent, tout ce qui est énoncé ci-dessous concernant les colonnes d’une matrice
est également valable pour ses lignes.
La proposition suivante découle de ce que le déterminant de A est égal au déterminant
dans la base canonique de Kn des vecteurs de Kn dont les coordonnées sont données par
les colonnes de A (F) et du fait que le déterminant d’une famille de vecteurs dans une
base est une forme n-linéaire alternée.
(F) Proposition 9
1) Si on échange deux colonnes d’une matrice, son déterminant est multiplié par −1.
2) Si les colonnes d’une matrice sont liées, le déterminant est nul. C’est notamment le
cas si la matrice possède deux colonnes identiques, ou encore une colonne nulle.
3) Si on multiplie une colonne d’une matrice par un scalaire λ, son déterminant est
13
Algèbre linéaire
MathématiquesÉcole des Mines de Douai — FIAAS
multiplié par λ.
4) Si on multiplie la matrice par λ, son déterminant est multiplié par λn .
Attention, en général det(A + B) 6= det A + det B.
Exemple 14 (Matrices antisymétriques)
Une matrice A ∈ Mn (K) est dite antisymétrique si t A = −A. Si n est impair, toute
matrice antisymétrique est de déterminant nul :
det(A) = det(−t A) = (−1)n det(t A) = − det(A).
9
Déterminant d’un produit de matrices
Soit n ∈ N∗ .
(F) Théorème 10
∀A, B ∈ Mn (K),
det(AB) = det A det B.
On va utiliser le lemme suivant pour la démonstration de ce théorème.
(♠) Lemme 11
Soient E un K-espace vectoriel de dimension n muni d’une base B = (e1 , . . . , en ), u
un endomorphisme de E. Alors pour toute famille de vecteurs (x1 , . . . , xn ) ∈ E n , on a
detB (u(x1 ), u(x2 ), . . . , u(xn )) = det(A) detB (x1 , . . . , xn )
où A = MatB (u).
(♠) Preuve. Considérons l’application
D:
E n −−−→ K
(x1 , . . . , xn ) 7−−−→ detB (u(x1 ), . . . , u(xn ))
On cherche donc à démontrer que D(x1 , . . . , xn ) = det(A) detB (x1 , . . . , xn ). Montrons
d’abord que D est une forme n-linéaire alternée sur E.
Montrons la linéarité en la première variable, il en sera de même pour les autres. On
a, pour x1 , x01 ∈ E, λ ∈ K et (x2 , . . . , xn ) ∈ E p−1 , en utilisant la linéarité de u et la
multilinéarité de detB :
D(λx1 + x01 , x2 , . . . , xn ) = detB (u(λx1 + x01 ), u(x2 ), . . . , (xn ))
= detB (λu(x1 ) + u(x01 ), u(x2 ), . . . , u(xn ))
= λ detB (u(x1 ), u(x2 ), . . . u(xn )) + detB (u(x01 ), u(x2 ), . . . , u(xn ))
= λD(x1 , x2 , . . . , xn ) + D(x01 , x2 , . . . , xn ).
14
École des Mines de Douai — FIAASMathématiques
Algèbre linéaire
L’antisymétrie de D est immédiate : si xi = xj avec i 6= j, on a u(xi ) = u(xj ) donc
detB (u(x1 ), . . . , u(xn )) = 0, c’est-à-dire D(x1 , . . . , xn ) = 0.
Puisque l’espace vectoriel des formes n-linéaires alternées est de dimension 1 et que
(detB ) en est une base, il existe un scalaire k ∈ K tel que
D = k detB .
En appliquant cette forme n-linéaire alternée au n-uplet (e1 , . . . , en ), on obtient :
detB (u(e1 ), . . . , u(en )) = k.
Or, u(e1 ), u(e2 ), . . . , u(en ) sont les vecteurs de E dont les coordonnées dans B forment la
matrice A. On a donc k = det(A).
(♠) Preuve [du théorème 10]. Soient E un K-espace vectoriel de dimension n muni d’une
base B = (e1 , . . . , en ), u et v les endomorphismes de E de matrices respectives A et B
dans la base B. On sait alors que MatB (u ◦ v) = AB. Soit (x1 , . . . , xn ) ∈ E n .
Par le lemme 11 appliqué à l’endomorphisme u ◦ v, on a
detB (u ◦ v(x1 ), u ◦ v(x2 ), . . . u ◦ v(xn )) = det(AB) detB (x1 , x2 , . . . , xn ).
En posant, pour tout i ∈ {1, . . . , n}, yi = v(xi ) (on a alors u ◦ v(xi ) = u(yi )) et en
appliquant le lemme 11 successivement aux endomorphismes u et v :
(
detB (u(y1 ), u(y2 ), . . . , u(yn )) = det(A) detB (y1 , . . . , yn )
detB (y1 , . . . , yn ) = detB (v(x1 ), . . . , v(xn )) = det(B) detB (x1 , . . . , xn )
d’où, pour tout (x1 , . . . , xn ) ∈ E n :
det(AB) detB (x1 , x2 , . . . , xn ) = det(A) det(B) detB (x1 , . . . , xn ).
En particulier, on a le résultat voulu en prenant (x1 , x2 , . . . , xn ) = (e1 , e2 , . . . , en ).
Une utilisation récurrente de ce théorème donne immédiatement le corollaire suivant.
(F) Corollaire 12
Pour toute matrice carrée A ∈ Mn (K) et tout p ∈ N, on a :
det(Ap ) = det(A)p .
Exemple 15 (Racines carrées de −In )
Si n est impair, il n’existe aucune matrice de Mn (R) telle que A2 = −In . En effet,
une telle relation entraînerait
(det(A))2 = det(A2 ) = det(−In ) = (−1)n = −1
avec det(A) ∈ R, ce
! qui est impossible. Ce résultat est bien sûr faux si n est pair
0 −1
(considérer
) ou si A est à coefficients complexes.
1 0
15
Algèbre linéaire
10
10.1
MathématiquesÉcole des Mines de Douai — FIAAS
Calcul d’un déterminant
Développement selon une ligne ou une colonne
On énonce la méthode de développement par rapport à une ligne mais, puisque
det(A) = det(t A), cette méthode est aussi valable pour le développement selon une colonne.
On considère une matrice carrée

A = (aij )16i,j6n
a11 a12

 a21 a22

a
31 a32
=
 .
..
 ..
.

an1 an2

· · · a1n

· · · a2n 

· · · a3n 
 ∈ Mn (K).
. . . .. 
. 

· · · ann
a13
a23
a33
..
.
an3
(F) Définition 16
Pour tout (i, j) ∈ {1, . . . , n}2 , on appelle mineur de aij le déterminant obtenu à partir
de det(A) en supprimant la ième ligne et j ème colonne. Il s’agit donc du déterminant
d’une matrice d’ordre n − 1.
Le cofacteur de aij est le mineur de aij multiplié par (−1)i+j . On le note parfois
Aij :
a
· · · a1,j−1
a1,j+1 · · · a1n 11
.
..
..
.. .
.
.
. .
i+j
Aij = (−1)
ai−1,1
a
i+1,1
.
.
.
an1
· · · ai−1,j−1 ai−1,j+1 · · · ai−1,n .
· · · ai+1,j−1 ai+1,j+1 · · · ai+1,n ..
...
... .
· · · an,j−1
an,j+1 · · · ann (F) Théorème 13 (Développement selon une ligne)
Soit A = (aij )16i,j6n ∈ Mn (K) une matrice carrée. On a, pour tout i ∈ {1, . . . , n} :
det(A) =
n
X
aij Aij = ai1 Ai1 + ai2 Ai2 + · · · + ain Ain .
j=1
(♠) Preuve. Par définition, on a
det(A) =
X
ε(σ)
σ∈Sn
n
Y
aiσ(i) .
i=1
Pour simplifier les notations, considérons un K-espace vectoriel E de dimension n muni
d’une base B = (e1 , . . . , en ) et posons, pour tout i ∈ {1, . . . , n} :
xi =
n
X
j=1
16
aij ej ,
École des Mines de Douai — FIAASMathématiques
Algèbre linéaire
autrement dit, xi est le vecteur de E dont les coordonnées dans la base B sont données
par la ième ligne de A. On a alors
det(A) = detB (x1 , . . . , xn ).
Puisque detB est linéaire en la ième variable, on a
det(A) = detB (x1 , . . . , xi−1 ,
n
X
aij ej , xi+1 , . . . , xn )
j=1
=
n
X
aij detB (x1 , . . . , xi−1 , ej , xi+1 , . . . , xn ) .
j=1
{z
|
}
∆ij
Et il ne reste plus qu’à montrer que ∆i,j (déterminant obtenu en remplaçant la ième ligne
par une ligne ne contenant que des 0 sauf en j ème colonne où se trouve un 1) est égal au
cofacteur Aij .
On a ∆ij = detB (x1 , . . . , xi−1 , ej , xi+1 , . . . , xn ). Puisque detB est alternée, chaque échange
de vecteurs correspond à une multiplication par −1. On amène le vecteur ej en première
position en l’échangeant successivement avec ceux qui le précèdent : il y aura donc j − 1
échanges, correspondant à une multiplication par (−1)j−1 :
∆ij = (−1)j−1 detB (ej , x1 , . . . , xj−1 , xj+1 , . . . , xn )
=
0
a
11
.
.
.
(−1)j−1 aj−1,1
aj+1,1
.
.
.
a
n1
···
···
0
a1,i−1
..
.
1
a1i
..
.
0
a1,i+1
..
.
···
···
· · · aj−1,i−1 aj−1,i aj−1,i+1 · · ·
· · · aj+1,i−1 aj+1,i aj+1,i+1 · · ·
..
..
..
.
.
.
· · · an,i−1
ani
an,i+1 · · ·
aj−1,n aj+1,n .. . a 0
a1n
..
.
nn
On déplace le 1 en première colonne en échangeant succesivement sa colonne avec celles
qui la précèdent. Chaque échange correspond à une multiplication du déterminant par −1
et il y a i − 1 échanges :
∆ij =
1
a
1i
.
.
.
(−1)i+j−2 aj−1,i
aj+1,i
.
.
.
a
ni
i+j
= (−1)
0
a11
..
.
···
···
0
0
a1,i−1
..
.
a1,i+1
..
.
···
···
aj−1,1 · · · aj−1,i−1 aj−1,i+1 · · ·
aj+1,1 · · · aj+1,i−1 aj+1,i+1 · · ·
..
..
..
.
.
.
an1 · · · an,i−1
an,i+1 · · ·
aj−1,n aj+1,n .. . a 0
a1n
..
.
nn
detB (e1 , x01 , . . . , x0i−1 , x0i+1 , . . . , x0n )
où x01 , . . . , x0i−1 , x0i+1 , . . . , x0n sont les nouveaux « vecteurs lignes ».
17
Algèbre linéaire
MathématiquesÉcole des Mines de Douai — FIAAS
Si on renumérote les coefficients de cette matrice sous la forme a0ij (1 6 i, j 6 n) (pour
i, j > 2, ce sont les coefficients intervenant dans le cofacteur Aij ), on obtient :
∆ij = (−1)i+j
X
ε(σ)
σ∈Sn
n
Y
a0kσ(k) .
k=1
Or, dans ce produit, le premier facteur a01σ(1) est particulier : il vaut 1 si σ(1) = 1 et 0 sinon.
Par conséquent, dans la somme, tous les termes obtenus pour σ tel que σ(1) 6= 1 sont
nuls. La sommation peut donc porter sur toutes les permutations σ telles que σ(1) = 1.
Autrement dit, 1 est fixé et les autres éléments de {1, . . . , n} peuvent être permutés
arbitrairement. Cela correspond donc à une permutation d’un ensemble à n − 1 éléments :
∆ij = (−1)i+j
X
ε(σ)
σ∈Sn−1
n
Y
a0
22
i+j ..
(−1) .
0
an1
a0kσ(k) =
k=2
· · · a02n . ..
. .. = Aij .
· · · a0nn On a donc bien la formule annoncée.
(F) Remarque
Le signe affecté au mineur dans l’expression du cofacteur correspond à une permutation
selon les lignes ou colonnes :

+

−

+


−

..
.
−
+
−
+
..
.
+
−
+
−
..
.
−
+
−
+
..
.

···

· · ·

· · ·
.
· · ·


..
.
On peut notamment remarquer que tous les éléments diagonaux sont affectés d’un +. . .
(F) Exemple 17 (Déterminant d’ordre 2)
a
c
b = ad − bc.
d
Exemple 18 (Règle de Sarus)
a
d
g
b c e f d f d e e f = a − b
+ c
= aei − ahf − bdi + bgf + cdh − cge.
h i g i g h
h i
(F) Remarque
Il ne faut pas abuser de la règle de Sarus. Non seulement elle est source d’erreurs de
calculs, mais en plus elle ne favorise pas la factorisation là où elle serait souhaitable
voire nécessaire (calculs de polynômes caractéristiques).
Réservez-la aux cas numériques simples.
18
École des Mines de Douai — FIAASMathématiques
10.2
Algèbre linéaire
Déterminant triangulaire
(F) Proposition 14
Le déterminant d’une matrice triangulaire (supérieure, inférieure ou diagonale) est le
produit des éléments de la diagonale.
Preuve. Supposons, quitte à prendre la transposée, que la matrice est triangulaire supérieure (ce qui englobe le cas d’une matrice diagonale) :
a11 a12 · · · a1n


 0 a22 · · · a2n 
A=
. . . .. 
.
 ..
 .
. 
0
0 · · · ann


En développant par rapport à la première colonne, il vient :
det(A) =
a22
0
a11 ..
.
0
a23 · · · a2n a33
a3n . .. ..
. .. .
· · · 0 ann qui est encore un déterminant triangulaire supérieur, mais d’ordre n − 1 cette fois. Une
récurrence immédiate montre alors que
det(A) = a11 a22 . . . ann .
10.3
Méthode de Gauss
(F) Principe : La méthode de Gauss repose sur le fait qu’on ne change pas la valeur
d’un déterminant en ajoutant à une ligne une combinaison linéaire des autres lignes. On
utilise cette technique, combinée à des échanges éventuels de lignes (multiplication par
−1 à chaque fois), ainsi que des multiplications d’une ligne par un scalaire non nul λ
(mutliplication du déterminant par λ), de manière à faire apparaître un déterminant
triangulaire (toujours possible) ou une autre forme de déterminant facile à calculer.
C’est la méthode la plus utilisée pour résoudre des systèmes linéaires, et c’est généralement la plus efficace en termes de temps de calcul et de précision sur machine.
(♠) Remarque
L’opération élémentaire qui consiste à ajouter à une ligne Li d’une matrice une autre
ligne λLj (avec j 6= i) correspond à la multiplication de la matrice à gauche (ou a
droite si l’opération a lieu sur les colonnes) par une matrice inversible dite matrice
de transvection du type In + λEij (Eij est la matrice « élémentaire » ne comportant
que des 0 sauf en position (i, j) où se trouve un 1). On démontre que les matrices de
transvection engendrent le groupe SLn (K) (spécial linéaire) des matrices de déterminant 1 : toute matrice de déterminant 1 est produit de matrices de transvection.
19
Algèbre linéaire
MathématiquesÉcole des Mines de Douai — FIAAS
Exemple 19
1
1
1
1
1
1 1 1 0
L ← L − L
2 3 4 2
2
1
=
3 6 10 L3 ← L3 − L1 0
4 10 20 L4 ← L4 − L1 0
=
1
3
1
1
2
3
1 1 1
2 3 =2
5 9 3
9 19
3 = 1 × 10 − 3 × 3 = 1.
10
Prenez l’habitude, comme ci-dessus, d’indiquer les opérations effectuées sur les lignes
ou colonnes avant de les effectuer, cela permet une bien meilleure relecture et ménage
le correcteur. Il peut également être intéressant, comme on l’a fait ci-dessus d’entourer
le «pivot» à chaque étape, l’élément servant à «tuer» les autres de sa colonne via les
opérations sur les lignes.
10.4
Déterminant triangulaire par blocs
(F) Proposition 15
Soit une matrice A ∈ Mn (K) qui se présente sous la forme
B1 B2
A=
0 B4
!
où les sous-matrices, appelées blocs, B1 , B2 , B4 ont des tailles compatibles : B1 ∈
Mp (K), B2 ∈ Mp,n−p (K) et B4 ∈ Mn−p (K). Alors
det(A) = det(B1 ) det(B4 ).
Bien entendu, cette proposition se généralise (par récurrence) dans le cas d’une décomposition de A à l’aide d’un nombre plus important de blocs.
Exemple 20
2
1
0
0
0
11
3
−1
0
0
0
7
6
2
0
0
0 3 4 5 2 3 5 2 0 11 = 2 = (−2 − 3) × 2 × (5 − 4) = −10.
1 −1
2 1 5 2
2 1
Matrices inversibles
Rappelons qu’une matrice carrée A ∈ Mn (K) est inversible si il existe une matrice
B ∈ Mn (K) telle que
AB = BA = In .
20
1 2 3 2 3 5 9 L2 ← L2 − 2L1 = 0 1 3 9 19 L3 ← L3 − 3L1 0 3 10
École des Mines de Douai — FIAASMathématiques
11.1
Algèbre linéaire
Comatrice
(F) Définition 21
La comatrice d’une matrice A = (aij )16i,j6n ∈ Mn (K) est la matrice de Mn (K),
notée Com(A), égale à la transposée de la matrice des cofacteurs de A :

A11 A21

 A12 A22
Com(A) = 
..
 ..
 .
.
A1n A2n
· · · An1
· · · An2 

.. 
...
.
. 
· · · Ann

Attention : pour certains auteurs, Com(A) est la matrice des cofacteurs de A (sans la
transposition).
(F) Théorème 16 (Théorème fondamental)
Pour toute matrice A ∈ Mn (K), on a A Com(A) = Com(A)A = det(A)In .
(♠) Preuve. Comme précédemment, notons aij le coefficient général de A et Aij son cofacteur. Le coefficient général de Com(A) est donc Aji . Par définition du produit matriciel,
Com AA est la matrice de coefficient général bij défini par :
bij =
n
X
Aki akj =
n
X
(−1)i+k akj det(Mki )
k=1
k=1
où Mki la matrice obtenue à partir de A par suppression de la k ème ligne et ième colonne
(son déterminant est le mineur de aki ).
Appelons A0 la matrice déduite de A en remplaçant la ième colonne par la j ème colonne ;
et notons a0k` le coefficient général de A0 :
a0k` =

a
k`
akj
si ` 6= i
si ` = i
Alors la formule précédente n’est autre que le développement de det(A0 ) selon la ième
colonne :
n
bij =
X
(−1)i+k a0ki det(Mki ) = det(A0 ).
k=1
0
Or, si i 6= j, la matrice A a deux colonnes identiques (les ième et j ème), donc son déterminant est nul. Par conséquent, bij = 0 si i 6= j : la matrice Com(A)A est une matrice
diagonale. Si i = j, on a A0 = A et donc bii = det(A). On a donc bien
Com AA = det(A)In .
On prouve de la même façon que A Com(A) = det(A)In .
11.2
Caractérisation des matrices inversibles
Le résultat suivant découle directement du théorème fondamental précédent (l’associativité du produit matriciel assure l’unicité de l’inverse d’une matrice).
21
Algèbre linéaire
MathématiquesÉcole des Mines de Douai — FIAAS
(F) Corollaire 17 (Caractérisation des matrices inversibles)
Une matrice carrée A ∈ Mn (K) est inversible si et seulement si son déterminant est
non nul. Dans ce cas,
1
Com(A).
A−1 =
det(A)
(F) Remarque
Ce n’est pas, en général, la méthode à utiliser pour calculer l’inverse d’une matrice en
dimension supérieure à 2. Il est en effet nécessaire, par cette méthode, de calculer 1
déterminant d’ordre n et n2 déterminants d’ordre n − 1 ! La méthode de Gauss est
beaucoup plus indiquée pour déterminer l’inverse d’une matrice, s’il existe. L’intérêt
de la formule de la comatrice est surtout théorique.
(F) Proposition 18
Si A est une matrice inversible, det(A−1 ) =
1
.
det(A)
Preuve. Soit A une matrice inversible. On a
AA−1 = I
donc, d’après le théorème 10 :
det(A) det(A−1 ) = det(I) = 1
(♠) Cette dernière propriété achève de prouver que le déterminant est un morphisme
du groupe GL(n, K) dans le groupe K \ {0} (muni de la multiplication). Le noyau de
ce morphisme de groupes, c’est-à-dire le sous-groupe des matrices de déterminant 1, est
appelé groupe spécial linéaire et noté SL(n, K).
Exemple 22
!
a b
Soit A =
telle que ad − bc 6= 0. Alors
c d
!
−1
A
12
1
d −b
=
.
−c
a
ad − bc
Déterminant d’un endomorphisme
Proposition 19
Deux matrices semblables ont même déterminant.
22
École des Mines de Douai — FIAASMathématiques
Algèbre linéaire
Preuve. Soient A et B deux matrices semblables. Cela signifie qu’il existe une matrice P
inversible telle que
B = P −1 AP.
Alors, par les propriétés du déterminant, on a
det(B) = det(P −1 ) det(A) det(P ) = (det(P ))−1 det(A) det(P ) = det(A).
Puisque cette formule correspond à la formule de changement de base dans l’expression
de la matrice d’un endomorphisme d’un espace vectoriel, cette valeur ne dépend que de
l’endomorphisme et pas de la base utilisée pour écrire sa matrice. Cela justifie donc la
définition suivante.
(F) Définition 23
Soient E un espace vectoriel de dimension finie, f un endomorphisme de E. On appelle
déterminant de f , et on note det(f ) le déterminant de la matrice de f dans une
base quelconque de E.
Les propriétés suivantes se déduisent directement de celles du déterminant d’une matrice.
(F) Proposition 20
Soit
•
•
•
E un K-espace vectoriel.
∀(f, g) ∈ L(E), det(f ◦ g) = det(f ) det(g),
∀f ∈ L(E), (f ∈ GL(E)) ⇐⇒ (det(f ) 6= 0),
∀f ∈ GL(E), det(f −1 ) = (det(f ))−1 .
23
Algèbre linéaire
MathématiquesÉcole des Mines de Douai — FIAAS
Exercices
Les exercices 3, 5, 7 et 8 sont à préparer.
13
Algèbre linéaire
Exercice 1 : Unipotent d’ordre 3
Soient E un C-espace vectoriel et f ∈ L(E) un endomorphisme tel que f 3 = idE .
Prouver que
E = ker(f − idE ) ⊕ ker(f − j idE ) ⊕ ker(f − j 2 idE ).
Exercice 2 : Somme et composée de projecteurs
Soit E un R-espace vectoriel.
Définition
On appelle projecteur de E tout endomorphisme p de E tel que p ◦ p = p.
Soient p et q deux projecteurs d’un R-espace vectoriel E.
1. Montrer que
(p + q est un projecteur) ⇐⇒ (p ◦ q = q ◦ p = 0)
et qu’alors
ker(p + q) = ker p ∩ ker q
Im(p + q) = Im p ⊕ Im q.
2. Donner une condition nécessaire et suffisante simple pour que p ◦ q soit un projecteur
et montrer que sous cette condition on a
ker(p ◦ q) = ker p ⊕ ker q
Im(p ◦ q) = Im p ∩ Im q.
Exercice 3 : Espaces de fonctions supplémentaires
On note C 0 ([0, 1], R) le R-espace vectoriel des fonctions continues de [0, 1] → R. Déterminer un supplémentaire du sous-espace vectoriel F des fonctions de moyenne nulle :
0
F = f ∈ C ([0, 1], R),
Exercice 4 : Hyperplans
24
Z 1
0
f (x) dx = 0 .
École des Mines de Douai — FIAASMathématiques
Algèbre linéaire
Définition
On appelle hyperplan d’un espace vectoriel E tout sous-espace vectoriel de codimension 1, c’est-à-dire admettant un supplémentaire de dimension 1.
Montrer qu’une partie H de E est un hyperplan de E si et seulement si H est le noyau
d’une forme linéaire non nulle.
Exercice 5 : Espaces de polynômes supplémentaires
On considère
F = {P ∈ R3 [X], P (−1) = P (1) = 0} .
1. Montrer que F est un sous-espace vectoriel de R3 [X] et que F et R1 [X] sont supplémentaires dans R3 [X].
2. On note p le projecteur sur R1 [X] parallèlement à F ; déterminer MatB (p) où B est la
base canonique de R3 [X].
Exercice 6 : Interpolation de Lagrange
Soient n ∈ N, (x0 , x1 , . . . , xn ) ∈ Rn+1 tel que x0 < x1 < · · · < xn , (y0 , . . . , yn ) ∈ Rn .
On se propose de démontrer le théorème suivant :
Théorème (Interpolation de Lagrange)
Il existe un unique polynôme P ∈ Rn [X] dont le graphe passe par tous les points
(xi , yi ) :
∀i ∈ {0, . . . , n}, P (xi ) = yi .
Ce polynôme est alors appelé polynôme d’interpolation de Lagrange.
Corollaire (Interpolation de Lagrange d’une fonction)
Soient f une fonction définie sur un intervalle I, n ∈ N et (x0 , . . . , xn ) un (n + 1)-uplet
strictement croissant d’éléments de I. Alors il existe un unique polynôme P ∈ Rn [X]
coïncidant avec f en tous les xi :
∀i ∈ {0, . . . , n}, P (xi ) = f (xi ).
1. Première méthode
1.1 Montrer que, pour tout n ∈ N et tout (n + 1)-uplet strictement croissant de réels
(x0 , . . . , xn ), l’application
Φ(x0 ,...,xn ) : Rn [X] −−−→ Rn+1
P 7−−−→ (P (xi ))ni=0
est linéaire. Montrer que Φ(x0 ,...,xn ) est injective si et seulement si elle est surjective.
1.2 Montrer que Φ(x0 ,...,xn ) est injective. Conclure.
2. Deuxième méthode (x0 , . . . , xn ) étant fixé comme dans le théorème, on pose, pour
25
Algèbre linéaire
MathématiquesÉcole des Mines de Douai — FIAAS
tout i ∈ {0, . . . , n} :
Li =
n
Y
j=0
j6=i
X − xj
xi − xj
Prouver que (L0 , . . . Ln ) est une base de Rn [X] ; conclure.
14
Déterminants
Exercice 7 : Calculs de déterminants
Calculer les déterminants suivants, en donnant le résultat sous forme factorisée :
A=
C=
a − b − c
2b
2c
a + b ab
b + c bc
c + a ca
2a
2a b−c−a
2b 2c
c − a − b
a2 + b2 b2 + c2 c2 + a2 B=
D=
(a + b)2
a2
b2
b + c 1
c + a 1
a + b 1
c2
c2 (b + c)2
a2 b2
(c + a)2 (1 + b2 )(1 + c2 ) (1 + c2 )(1 + a2 )
(1 + a2 )(1 + b2 )
Exercice 8 : Déterminant de Van Der Monde
Pour tout n ∈ N∗ et tout (a1 , . . . , an ) ∈ Cn , on pose
Vn (a1 , . . . , an ) =
1
1
j−1
det (ai )16i,j6n 1
...
1
a1 a21
a2 a22
a3 a23
..
..
.
.
an a2n
· · · a1n−1 · · · a2n−1 · · · a3n−1 ,
.. . · · · ann−1 appelé déterminant de Van Der Monde. On se propose de démontrer que
Vn (a1 , . . . , an ) =
Y
(aj − ai ).
16i<j6n
1. Vérifier ce résultat pour n ∈ {1, 2, 3}.
2. En utilisant des opérations bien choisies sur les colonnes, montrer que, pour n > 2,
Vn (a1 , . . . , an ) = (an − a1 )(an − a2 ) . . . (an − an−1 )Vn−1 (a1 , . . . , an−1 ).
3. Formaliser la récurrence et conclure.
26
École des Mines de Douai — FIAASMathématiques
Algèbre linéaire
Exercice 9
Soient x1 , . . . , xn ∈ C ; on considère le déterminant d’ordre n suivant :
Wn (x1 , . . . , xn ) =
1 + x1
1 + x2
.
.
.
1 + xn
1 + x21 · · · 1 + xn1 1 + x22 · · · 1 + xn2 ..
.. .
.
. 2
1 + xn · · · 1 + xnn 1. Montrer que
P =
X
X
X
+ x1 X + x21 · · · X + xn1 + x2 X + x22 · · · X + xn2 ..
..
.. .
.
. 2
+ xn X + xn · · · X + xnn est un polynôme de degré inférieur ou égal à 1.
2. Exprimer P (0) en fonction du déterminant de Van Der Monde Vn (x1 , . . . , xn ) (cf. exercice 8) et montrer (en utilisant des opérations sur les colonnes après avoir factorisé) que
P (−1) = Vn (x1 , . . . , xn )
n
Y
(xi − 1).
i=1
3. En déduire la valeur de W (x1 , . . . , xn ).
Exercice 10
On considère le déterminant d’ordre n suivant :
Dn =
a
c
.
.
.
c
b · · · b . . . . .. . .
.
.
.. ..
.
. b · · · c a
1. Calculer Dn lorsque b = c.
2. On suppose b 6= c. Montrer que le déterminant Dn (x) obtenu en ajoutant x à tous les
éléments de Dn est un polynôme de degré 1 en x, et en déduire la valeur de Dn .
Exercice 11 : Déterminant tridiagonal
Pour (α, β) ∈ C2 , calculer les déterminants d’ordre n suivants :
∆n =
α + β
α
0
.
..
.
..
0
β
0 ··· ···
.. .. ..
.
.
.
.. .. .. ..
.
.
.
.
... ... ... ...
... ... ...
··· ···
0
α
0 β α + β
0
..
.
..
.
δn =
2
1
2
2
.
.
.
2
n
22
32
..
.
···
···
n2
2 (n + 1) .
..
.
(n + 1)2 · · · (2n − 1)2 27
Téléchargement