linéaire - En galere.fr

publicité
Chapitre 2
ALGEBRE
LINEAIRE
ELEMENTAIRE
152 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
Dans tout le chapitre K désigne un corps commutatif
2.1. Généralités sur les espaces vectoriels
153
2.1 Généralités sur les espaces
vectoriels
2.1.1
Notion de K-espace vectoriel
Définition 2.1.1 On appelle K-espace vectoriel un triplet
(E, +, .) où (E, +) est un groupe abélien, . une loi externe à domaine d’opérateurs K, doublement distributive
par rapport à l’addition dans K et dans E, vérifiant
∀x ∈ E, 1K x = x et ∀α, β ∈ K, ∀x ∈ E, α(βx) = (αβ)x.
Exemples fondamentaux : si L est un sur-corps de K, L
est naturellement un K-espace vectoriel .
154 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
Soit n ∈ N ; K n muni des lois (x1, . . . , xn ) +
(y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn ) et λ(x1 , . . . , xn ) =
(λx1 , . . . , λxn )est un K-espace vectoriel. Plus généralement,
si I est un ensemble,
K (I) = {(ai )i∈I | ∀i, ai ∈ K et nombre fini de ai non nuls}
est un K-espace vectoriel pour les lois (ai ) + (bi ) = (ai + bi )
et λ(ai ) = (λai ).
2.1. Généralités sur les espaces vectoriels
2.1.2
155
Notion de sous-espace vectoriel
Remarque 2.1.1 Un sous-espace vectoriel est une partie
stable aussi bien par la loi interne que par la loi externe et
qui est muni par les lois induites d’une structure d’espace
vectoriel. On vérifie immédiatement que c’est équivalent à
la définition suivante que l’on retiendra :
Définition 2.1.2 On appelle sous-espace vectoriel de l’espace vectoriel E une partie F de E telle que
– (i) F 6= ∅
– (ii) ∀α, β ∈ K, ∀x, y ∈ F, αx + βy ∈ F .
156 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
Remarque 2.1.2 L’intersection d’une famille quelconque
de sous-espaces vectoriels en est encore un ce qui conduit à
la définition suivante
Définition 2.1.3 L’ensemble des sous-espaces vectoriels
contenant une partie A de E admet un plus petit élément
appelé le sous-espace vectoriel
engendré par A et noté
\
Vect(A). On a Vect(A) =
F
A⊂F
F sev
Définition 2.1.4 On appelle sous-espace vectoriel engendré par la famille (xi )i∈I le plus petit sous-espace
2.1. Généralités sur les espaces vectoriels
157
vectoriel contenant tous les vecteurs de la famille, et on le
note Vect(xi , i ∈ I). On a
[
Vect(xi , i ∈ I) = Vect( {xi })
=
{
X
i∈I
i∈I
αi xi | (αi ) ∈ K (I) }
(ensemble des combinaisons linéaires de la famille (xi )).
158 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
2.1.3
Produits, quotients
Définition 2.1.5 (espace produit) Si E et F sont deux espaces vectoriels , l’espace E × F est muni d’une structure
d’espace vectoriel en posant (x1 , y1 )+(x2 , y2 ) = (x1 +x2 , y1 +
y2 ), λ(x, y) = (λx, λy).
Définition 2.1.6 (espace quotient) Soit E un espace
vectoriel et F un sous-espace vectoriel de E. La relation
”xRy ⇐⇒ x − y ∈ F ” est une relation d’équivalence
sur E. La classe d’un élément x de E est x + F .
Il existe sur E/F une unique structure d’espace vectoriel telle que la projection π : E → E/F vérifie
∀α, β ∈ K, ∀x, y ∈ E, π(αx + βy) = απ(x) + βπ(y).
2.1. Généralités sur les espaces vectoriels
159
Démonstration 2.1.1 La relation d’équivalence et la caractérisation de la classe d’équivalence proviennent du même
résultat sur les groupes additifs. La loi d’espace vectoriel sur
E/F doit être définie de telle sorte que α(x+F )+β(y+F ) =
(αx+βy)+ F ; il suffit donc de vérifier que si x +F = x0 + F
et y + F = y 0 + F , alors (αx + βy) + F = (αx0 + βy 0 ) + F .
Or les deux premières relations signifient que x − x0 ∈ F
et y − y 0 ∈ F . On a donc (αx + βy) − (αx0 + βy 0 ) =
α(x − x0 ) + β(y − y 0 ) ∈ F , soit encore (αx + βy) + F =
(αx0 + βy 0 ) + F . Ceci définit parfaitement une structure
d’espace vectoriel sur E/F (vérification facile) et on a bien
π(αx + βy) = απ(x) + βπ(y).
160 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
2.1.4
Applications linéaires
Proposition 2.1.1 Soit E et F deux espaces vectoriels .
On appelle application linéaire une application f : E → F
telle que ∀α, β ∈ K, ∀x, y ∈ E, f(αx + βy) = αf (x) +
βf (y).
Notation : L(E, F ) l’ensemble des applications linéaires
de E dans F .
Proposition 2.1.2 L’ensemble L(E, F ) est muni d’une
structure de K espace vectoriel en posant (f + g)(x) =
f(x) + g(x) et (λf )(x) = λf (x).
2.1. Généralités sur les espaces vectoriels
161
Proposition 2.1.3 Soit f ∈ L(E, F ). L’image par f de
tout sous-espace vectoriel de E est un sous-espace vectoriel
de F . L’image réciproque de tout sous-espace vectoriel de
F est un sous-espace vectoriel de E.
Remarque 2.1.3 En particulier Ker f = f −1 ({0}) et
Im f = f (E) sont des sous-espaces vectoriels respectivement de E et F .
Théorème 2.1.1 Soit f ∈ L(E, F ). L’application f est
injective si et seulement si Ker f = {0}.
162 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
Démonstration 2.1.2 C’est une traduction du résultat
sur les groupes.
Théorème 2.1.2 Soit f ∈ L(E, F ). Il existe une
unique application f : E/ Ker f → Im f vérifiant
∀x ∈ E, f (π(x)) = f (x) (où π désigne la projection
canonique de E sur E/ Ker f ). L’application f est un
isomorphisme d’espaces vectoriels .
Démonstration 2.1.3 Analogue au résultat similaire sur
les groupes.
2.1. Généralités sur les espaces vectoriels
2.1.5
163
Somme de sous-espaces
Soit E un K-espace vectoriel et F1 , . . . , Fk des sousespaces vectoriels de E. Soit f : F1 × · · · × Fk → E définie
par f (x1 , . . . , xk ) = x1 + . . . + xk . On vérifie facilement que
f est linéaire.
Définition 2.1.7 On appelle somme des sous-espaces vectoriels F1 , . . . , Fk le sous-espace vectoriel F1 + · · · + Fk =
Im f = {x1 + . . . + xk | ∀i, xi ∈ Fi }. On dit que F1, . . . , Fk
sont en somme directe si f est injective (c’est-à-dire si
l’écriture d’un x sous la forme x = x1 + . . . + xk lorsqu’elle
existe, est unique). Dans ce cas on écrit la somme sous la
forme F1 ⊕ · · · ⊕ Fk .
164 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
Théorème 2.1.3 Les sous-espaces F1 , . . . , Fk sont en
somme directe si et seulement si
x1 + . . . + xk = 0 ⇒ x1 = 0, . . . , xk = 0
Démonstration 2.1.4 Ceci traduit simplement que f est
injective si et seulement si son noyau est réduit à {0}.
Remarque 2.1.4 Il n’existe pas d’autre caractérisation
correcte et réellement utile de la somme directe dans le cas
où k ≥ 3. Par contre, si k = 2 on a
2.1. Généralités sur les espaces vectoriels
165
Théorème 2.1.4 Les sous-espaces F1 et F2 sont en somme
directe si et seulement si F1 ∩ F2 = {0}.
Démonstration 2.1.5 On a en effet
x1 + x2 = 0 ⇐⇒ x1 = −x2 ∈ F1 ∩ F2
Définition 2.1.8 On dit que deux sous-espaces vectoriels
F et G de l’espace vectoriel E sont supplémentaires s’ils
vérifient les trois propriétés équivalentes
– (i) E = F ⊕ G
– (ii) E = F + G et F ∩ G = {0}
166 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
– (iii) Tout élément x de E s’écrit de manière unique
sous la forme x = y + z avec y ∈ F et z ∈ G.
On dit que y est la projection de x sur F parallèlement à
G : y = πF kG (x).
Proposition 2.1.4 Si F et G sont supplémentaires, πF kG
est une application linéaire de E dans E et on a πF kG +
πGkF = IdE .
Le théorème suivant peut rendre de grands services
Théorème 2.1.5 Soit f : E → F une application linéaire
et V un supplémentaire de Ker f dans E. Alors la restriction de f à V , f|V , induit un isomorphisme de V sur Im f .
2.1. Généralités sur les espaces vectoriels
167
Démonstration 2.1.6 Soit f 0 la restriction de f à V ; on a
Ker f 0 = Ker f ∩ V = {0} ce qui montre que f 0 est injective.
De plus, si y ∈ Im f , il existe x ∈ E tel que y = f (x). Cet
élément x peut s’écrire x = x1 + x2 avec x1 ∈ V, x2 ∈ Ker f ,
d’où y = f (x) = f (x1 ) + f (x2 ) = f (x1 ) = f 0 (x1 ) ce qui
montre que f 0 est surjective de V sur Im f .
Remarque 2.1.5 Appelons g l’isomorphisme réciproque ;
on a alors f ◦g = IdIm f et g◦f = πV kKer f . Le résultat suivant
n’est qu’un cas particulier utile du théorème énoncé :
Proposition 2.1.5 Si F et G sont supplémentaires, soit π
la projection canonique de E sur E/F . Alors la restriction
168 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
de π à G est un isomorphisme de G sur E/F
Remarque 2.1.6 Contrairement au quotient E/F qui est
unique, un supplémentaire G ne l’est pas ; par contre deux
supplémentaires d’un même sous-espace vectoriel sont isomorphes (puisqu’ils sont tous deux isomorphes à E/F ).
2.1. Généralités sur les espaces vectoriels
2.1.6
169
Algèbres
Définition 2.1.9 On appelle K-algèbre un quadruplet
(A, +, ∗, .) tel que (A, +, ∗) est un anneau, (A, +, .) est un
K-espace vectoriel avec
∀λ ∈ K, ∀x, y ∈ A, (λx) ∗ y = x ∗ (λy) = λ(x ∗ y)
(avec la distributivité,
bilinéarité du produit ∗).
ces
propriétés
traduisent
la
Remarque 2.1.7 Notions évidentes : sous-algèbres, morphisme d’algèbres.
170 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
Exemple 2.1.1 L’ensemble L(E) = L(E, E) des endomorphismes de E est une K-algèbre, la multiplication
étant la composition. Le groupe des éléments inversibles
(automorphismes de E) est noté GL(E).
2.1. Généralités sur les espaces vectoriels
2.1.7
171
Familles libres, génératrices. Bases
Soit E un espace vectoriel, X = (xi )i∈I une famille de
vecteurs de E. A cette famille on peut associerX
une application linéaire fX : K (I) → E par f ((αi )i∈I ) =
α i xi .
i∈I
Définition 2.1.10 On dit que la famille X est
(i) libre si fX est injective
(ii) génératrice si fX est surjective
(iii) une base de E si fX est bijective.
Proposition 2.1.6 La famille X est
172 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
(I)
X
(i) libre si et seulement si ∀(αi ) ∈ K ,
α i xi = 0 ⇒
∀i ∈ I, αi = 0
(ii) génératrice si etX
seulement si tout élément x de E s’écrit
sous la forme x =
αi xi
(iii) une base si et seulement si tout élément
x de E s’écrit
X
de manière unique sous la forme x =
αi xi (on dit alors
que les αi sont les coordonnées de x dans la base X ).
Démonstration 2.1.7 Seul (i) n’est pas totalement
évident. Il traduit que fX est injective si et seulement si
son noyau est réduit à la famille nulle. On remarque alors
facilement qu’une famille est libre si et seulement si toute
sous-famille finie est libre.
2.1. Généralités sur les espaces vectoriels
Définition 2.1.11 On dit
lorsqu’elle n’est pas libre.
qu’une
famille
173
est
liée
Proposition 2.1.7 Toute sous-famille d’une famille libre
est libre, toute surfamille d’une famille génératrice est
génératrice. L’image par une application linéaire injective
d’une famille libre est libre. L’image par une application
linéaire surjective d’une famille génératrice est génératrice.
L’image par une application linéaire d’une famille liée est
liée. L’image par un isomorphisme d’une base est une base.
Démonstration 2.1.8 Elémentaire
174 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
2.1.8
Théorèmes fondamentaux
Théorème 2.1.6 Une famille (xi )i∈I est liée si et seulement si il existe i0 ∈ I tel que xi0 soit combinaison linéaire
de la famille (xi )i∈I\{i0 }
Démonstration 2.1.9 Si xi0
X
i∈I
=
X
αi xi , on a
i∈I\{i0 }
αi xi = 0 en posant αi0 = −1 et la famille est donc liée.
En ce qui concerne la réciproque, on écrit
X
avec par exemple αi0 6= 0. Alors xi0 =
X
i∈I
i∈I\{i0 }
(−
α i xi = 0
αi
)xi . En
αi0
2.1. Généralités sur les espaces vectoriels
175
adaptant de façon évidente la démonstration on a
Théorème 2.1.7 Soit (xi )i∈I une famille liée. On suppose
que la famille (xi )i∈I\{i0 } est libre. Alors xi0 est combinaison
linéaire de la famille (xi )i∈I\{i0 }
Démonstration 2.1.10 En effet le fait que la famille
(xi )i∈I\{i0 } soit libre implique que nécessairement αi0 6= 0.
Théorème 2.1.8 Soit E et F deux K-espaces vectoriels
et E = (ei )i∈I une base de E. Pour toute famille (bi )i∈I
176 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
d’éléments de F indexée par I, il existe une unique application linéaire f : E → F vérifiant
∀i ∈ I, f (ei ) = bi
Démonstration
f est bien évidemment
X 2.1.11 L’application
X
définie par f (
xi ei ) =
xi bi . On vérifie facilement
qu’elle est linéaire.
Remarque 2.1.8 Les deux théorèmes suivants découlent
2.1. Généralités sur les espaces vectoriels
177
simplement de la relation
X
i∈I
αi ei =
p X
X
αi ei
j=1 i∈Ij
| {z }
∈Ej
et des caractérisations d’une base et d’une somme directe :
Théorème 2.1.9 Soit E un K-espace vectoriel ,
E = (ei )i∈I une base de E, I = I1 ∪ . . . ∪ Ip une partition de I, Ej = Vect(ei , i ∈ Ij ). Alors E = E1 ⊕ · · · ⊕ Ep .
178 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
Théorème 2.1.10 Soit E un K-espace vectoriel , E =
E1 ⊕ · · · ⊕ Ep une décomposition en somme directe. Pour
j ∈ [1, p], soit Ej = (ei )i∈Ij une base de Ej (les ensembles
Ij sont disjoints). Alors la famille E1 ∪ . . . ∪ Ep est une base
de E (dite adaptée à la décomposition en somme directe).
2.2. Bases et dimension
2.2
2.2.1
179
Bases et dimension
Existence de bases
Lemme 2.2.1 fondamental. Soit E un K-espace vectoriel
et E une famille de E. On a équivalence de
(i) E est une base de E
(ii) E est une famille libre maximale (toute surfamille
stricte est liée)
(iii) E est une famille génératrice minimale (toute sousfamille stricte est non génératrice).
Démonstration 2.2.1 Si E est une base, on ne peut lui
adjoindre aucun vecteur x sans obtenir une famille liée
180 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
puisque x est combinaison linéaire de E ; on ne peut lui
retirer aucun vecteur ei0 sans obtenir une famille non
génératrice puisque ei0 n’est pas combinaison linéaire
des autres vecteurs. Donc une base est une famille libre
maximale et une famille génératrice minimale.
Inversement, soit E une famille libre maximale ; si on
lui adjoint un vecteur x, la famille devient liée, c’est donc
que x est combinaison linéaire de E et donc E est également
génératrice, donc c’est une base.
De même soit E une famille génératrice minimale ; si elle
était liée, l’un des vecteurs serait combinaison linéaire des
autres vecteurs et la famille obtenue en retirant ce vecteur
serait encore génératrice, ce qui n’est pas ; la famille est
donc libre, donc c’est une base.
2.2. Bases et dimension
181
Théorème 2.2.1 (de la base incomplète). Soit E un Kespace vectoriel , (ei )i∈I une famille génératrice de E. Soit
L une partie de I telle que la famille (ei )i∈L soit libre. Alors
il existe une partie J avec L ⊂ J ⊂ I telle que (ei )i∈J est
une base de E.
Démonstration 2.2.2 On considère X = {J | L ⊂ J ⊂
I et (ei )i∈J libre} ordonné par l’inclusion. Si (Js )s∈S est une
famille totalement ordonnée de X, alors J = ∪s∈S Js est encore dans X (facile car si on a une sous-famille finie de la
famille (ej )j∈J , ils sont tous dans un même Js , donc forment une famille libre) et c’est un majorant de la famille.
Le théorème de Zorn garantit que l’ensemble X admet un
élément maximal. Soit J un tel élément maximal. La famille
182 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
(ei )i∈J est libre. D’autre part, pour tout j ∈ I \ J , la
famille (ei )i∈I∪{j} est liée, donc ej est combinaison linéaire
de la famille (ei )i∈J . On en déduit que la famille est aussi
génératrice.
Corollaire 2.2.1 Tout K-espace vectoriel admet des
bases.
Démonstration 2.2.3 Prendre la famille (x)x∈E comme
famille génératrice et la famille vide comme sous-famille
libre.
2.2. Bases et dimension
183
Corollaire 2.2.2 Soit E un K-espace vectoriel et F
un sous-espace vectoriel de E. Alors F admet des
supplémentaires dans E.
Démonstration 2.2.4 Il suffit de prendre une base de
F , de la compléter en une base de E et de prendre pour
supplémentaire le sous-espace vectoriel engendré par les
vecteurs de la base introduits en supplément.
184 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
2.2.2
Espaces vectoriels de dimension
finie. Dimension
Définition 2.2.1 On dit qu’un espace vectoriel E est de
dimension finie, s’il admet une famille génératrice finie.
Lemme 2.2.2 Soit E un espace vectoriel de dimension
finie, (x1 , . . . , xn ) une famille génératrice finie. Alors toute
famille libre a un cardinal inférieur ou égal à n.
Démonstration 2.2.5 Il suffit de démontrer par
récurrence sur n que si n + 1 vecteurs y1 , . . . , yn+1
sont combinaisons linéaires de n vecteurs x1 , . . . , xn , alors
2.2. Bases et dimension
185
la famille (y1 , . . . , yn+1 ) est liée (c’est évident pour n = 1).
n
X
Pour cela on écrit yj =
ai,j xj . Si, pour tout i, ai,n = 0
i=1
alors y1 , . . . , yn sont combinaisons linéaires de x1 , . . . , xn−1 ,
donc forment une famille liée ; il en est de même a fortiori
de la famille complète. Sinon par exemple an+1,n 6= 0. On
n−1
X
ai,n
pose alors ∀i ∈ [1, n], zi = yi −
yn+1 =
bi,j xj .
an+1,n
j=1
Par récurrence, la famille z1 , . . . , zn est liée (combinaisons
linéaires de x1 , . . . , xn−1 ), donc il existe α1, . . . , αn non tous
nuls tels que α1 z1 + . . . + αn zn = 0 ce qui donne après
remplacement α1 y1 + . . . + αn yn + βyn+1 = 0 et montre que
la famille est liée. Ceci achève la démonstration.
186 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
Remarque 2.2.1 Ceci permet de redémontrer dans ce
cas le théorème de la base incomplète sans faire appel au
théorème de Zorn, l’existence d’un sous-ensemble J de X
maximal étant garanti par la limitation sur son cardinal induite par le lemme précédent. Le lemme précédent montre
aussi que le cardinal d’une famille libre est nécessairement
fini et que le cardinal d’une famille libre est inférieur au
cardinal d’une famille génératrice. Comme les bases sont à
la fois libres et génératrices, on a le théorème suivant :
Théorème 2.2.2 Soit E un K-espace vectoriel de dimension finie. Alors toutes les bases de E ont un même cardinal
fini, appelé la dimension de E. Toute famille libre est finie
et a un cardinal inférieur ou égal à dim E avec égalité si et
2.2. Bases et dimension
187
seulement si c’est une base de E. Toute famille génératrice
a un cardinal supérieur ou égal à dim E avec égalité si et
seulement si c’est une base de E.
188 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
2.2.3
Résultats sur la dimension
Théorème 2.2.3 Deux espaces sont isomorphes si et
seulement si ils ont la même dimension.
Démonstration 2.2.6 Deux espaces de même dimension
sont isomorphes : prendre deux bases et envoyer l’une sur
l’autre. Inversement, l’image d’une base par un isomorphisme étant une base, deux espaces isomorphes ont même
dimension.
Théorème 2.2.4
– dim(E × F ) = dim E + dim F
X
– dim(F1 ⊕ · · · ⊕ Fk ) =
dim Fi
2.2. Bases et dimension
189
– dim(E/F ) = dim E − dim F
– f : E → F linéaire, dim E = dim Ker f + dim Im f
(théorème du rang)
– dim(F + G) = dim F + dim G − dim F ∩ G
– F ⊂ E, dim F ≤ dim E avec égalité si et seulement
si F = E
– dim L(E, F ) = dim E. dim F
Démonstration 2.2.7
– Si (ei )i∈I et (fj )j∈J sont des
bases respectives
¡ de E¢et F , ¡on vérifie
¢ immédiatement
que la famille (ei , 0) i∈I ∪ (0, fj ) j∈J ) est une base
de E × F en écrivant (x, y) = (x, 0) + (0, y).
190 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
– F1 ⊕ · · · ⊕ Fk est isomorphe à F1 × · · · × Fk (prendre (x
1 , . . . , xk ) 7→ x1 + . . . + xk ) qui est de dimenX
sion
dim Fi par récurrence à partir du résultat
précédent.
– L’espace E/F est isomorphe à tout supplémentaire de
F dans E qui est de dimension dim E − dim F d’après
le résultat précédent.
– Il existe un isomorphisme f de E/ Ker f sur Im f ,
d’où dim Im f = dim E/ Ker f = dim E − dim Ker f.
– L’application linéaire f : F × G → E, (x, y) 7→ x + y a
pour image F +G et pour noyau {(x, −x) | x ∈ F ∩G}
qui est naturellement isomorphe à F ∩G. Il suffit donc
d’appliquer le résultat précédent à f .
2.2. Bases et dimension
191
– D’après le théorème de la base incomplète, toute
base de F est une famille libre de E, donc peut être
complétée en une base de E, d’où dim F ≤ dim E
avec égalité si et seulement si F = E
– On peut soit utiliser le résultat analogue sur les matrices que l’on verra plus loin, soit montrer que si (ei )i∈I
et (fj )j∈J sont des bases respectives de E et F , alors
les applications linéaires ϕj,i ∈ L(E, F ) définies par
½
fj si k = i
ϕj,i (ek ) =
0 si k 6= i
forment une base de L(E, F ), ce qui est laissé en exercice.
192 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
Théorème 2.2.5 Soit F et G deux sous-espaces vectoriels
de E de dimension finie. On a équivalence de
(i) F et G sont supplémentaires dans E
(ii) E = F + G et dim E = dim F + dim G
(iii) F ∩ G = {0} et dim E = dim F + dim G
Démonstration 2.2.8 Elémentaire.
Remarque 2.2.2 On sait que si F est un sous-espace vectoriel de E, la restriction à tout supplémentaire G de F
dans E de la projection canonique de E sur E/F est un
isomorphisme d’espace vectoriel. Ceci justifie la définition
suivante :
2.2. Bases et dimension
193
Définition 2.2.2 Soit E un K espace vectoriel et F
un sous-espace vectoriel de E. On appelle codimension
de F la dimension (éventuellement infinie) de l’espace
vectoriel quotient E/F , qui est encore la dimension de tout
supplémentaire de F dans E.
194 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
2.3
2.3.1
Rang
Rang d’une famille de vecteurs
Définition 2.3.1 rg(xi )i∈I
sup{|J| | (xi )i∈J libre }
= dim Vect(xi , i ∈ I) =
Démonstration 2.3.1 L’égalité provient évidemment du
théorème de la base incomplète qui garantit que l’on peut
extraire de la famille (xi ) une base du sous-espace Vect(xi ).
Une application linéaire transformant une famille liée en
une famille liée, on a :
2.3. Rang
195
Théorème 2.3.1 Soit u ∈ L(E, F ) et (xi )i∈I une famille
de E. Alors rg(u(xi ))i∈I ≤ rg(xi )i∈I .
Recherche pratique : voir le rang d’une matrice.
196 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
2.3.2
Rang d’une application linéaire
Définition 2.3.2 Soit u
dim Im u ∈ N ∪ {+∞}.
∈
L(E, F ). Alors rg u
=
Remarque 2.3.1 Recherche pratique : Si (ei )i∈I est
une base de E, (u(ei ))i∈I est une famille génératrice de Im u
et donc rg u = rg(u(ei ))i∈I .
Théorème 2.3.2 Soit u ∈ L(E, F ).
(i) Si dim E < +∞, alors u est de rang fini, rg u = dim E −
dim Ker u ; on a rg u = dim E si et seulement si u est injectif
2.3. Rang
197
(ii) Si dim F < +∞, alors u est de rang fini, rg u ≤ dim F ;
on a rg u = dim F si et seulement si u est surjectif
Démonstration 2.3.2 Découle
résultats sur la dimension.
immédiatement
des
Remarque 2.3.2 On a donc dans tous les cas rg u ≤
min(dim E, dim F )
Proposition 2.3.1 Soit u ∈ L(E, F ), v ∈ L(F, G). Alors
rg v ◦ u ≤ min(rg v, rg u). Si u est bijectif, rg v ◦ u = rg v. Si
v est bijectif, rg v ◦ u = rg u.
198 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
Démonstration 2.3.3 Il suffit de remarquer que Im v ◦
u = v(u(E)).
Théorème 2.3.3 On suppose ici dim E = dim F < +∞,
u ∈ L(E, F ). On a équivalence de
– (i) u injective
– (ii) u surjective
– (iii) u bijective
– (iv) ∃v ∈ L(F, E), v ◦ u = IdE
– (v) ∃v ∈ L(F, E), u ◦ v = IdF
2.3. Rang
199
Démonstration 2.3.4 L’équivalence entre (i), (ii) et (iii)
est une compilation des résultats précédents. De plus (iii)
⇒ (iv) et (v), (iv)⇒ (i) et (v)⇒(ii), ce qui boucle la boucle.
200 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
2.4
Dualité : approche restreinte
2.4.1
Formes linéaires, dual, formes coordonnées
Définition 2.4.1 Soit E un K-espace vectoriel . On appelle forme linéaire sur E toute application linéaire de E
dans K. On appelle dual de E le K-espace vectoriel E ∗ =
L(E, K).
Remarque 2.4.1 Soit (ei )i∈I une base de E et i0 ∈ I. Tout
vecteur
Xx de E s’écrit de manière unique sous la forme
x =
xi ei . L’application ϕi0 : x 7→ xi0 est clairement
i∈I
2.4. Dualité : approche restreinte
201
une forme linéaire sur E, appelée forme linéaire coordonnée
d’indice i0 dans la base (ei )i∈I . Elle est définie par ϕi0 (ei0 ) =
1 et ϕi0 (ei ) = 0 si i 6= i0 , soit encore par ϕi0 (ei ) = δii0 .
Proposition 2.4.1 Soit E un K-espace vectoriel et x ∈ E,
x 6= 0. Alors il existe une forme linéaire ϕ sur E telle que
ϕ(x) = 1.
Démonstration 2.4.1 Le vecteur x forme à lui tout seul
une famille libre que l’on peut compléter en une base (ei )i∈I
de E avec x = ei0 . Soit ϕ la forme linéaire qui associe à tout
vecteur de E sa i0 -ième coordonnée dans cette base. On a
bien entendu ϕ(x) = 1.
202 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
Remarque 2.4.2 Le résultat précédent peut encore s’interpréter sous la forme : si x ∈ E,
∀ϕ ∈ E ∗ , ϕ(x) = 0
⇐⇒ x = 0
2.4. Dualité : approche restreinte
2.4.2
203
Base duale d’un espace vectoriel de
dimension finie
Définition 2.4.2 Soit E un espace vectoriel de dimension
finie, E = (e1 , . . . , en ) une base de E. Pour i ∈ [1, n], soit ϕi
la forme linéaire coordonnée d’indice i dans la base E . Alors
E ∗ = (ϕ1 , . . . , ϕn ) est une base du dual E ∗ , appelée la base
duale de la base E. Elle est caractérisée par les relations
∀i, j ∈ [1, n], ϕi (ej ) = δij .
Démonstration 2.4.2 Tout d’abord, montrons que E ∗ est
une famille libre en utilisant les relations de définition des
204 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
formes coordonnées
∀i, j ∈ [1, n], ϕi (ej ) = δij
Soit λ1 , . . . , λn ∈ K tels que λ1 ϕ1 + . . . + λn ϕn = 0 ; on a
alors, pout tout i ∈ [1, n]
0 = 0(ei ) = λ1 ϕ1 (ei ) + . . . + λn ϕn (ei ) = λi
ce qui montre bien que la famille est libre. Pour montrer
qu’elle est génératrice, soit ϕ ∈ E et considérons ψ =
n
X
ϕ(ei )ϕi ; on a alors pour tout j ∈ [1, n],
i=1
ψ (ej ) =
n
X
i=1
ϕ(ei )ϕi (ej ) =
n
X
i=1
ϕ(ei )δij = ϕ(ej )
2.4. Dualité : approche restreinte
205
Les deux applications linéaires ϕ et ψ coı̈ncidant sur
une base, sont égales, ce qui montre que la famille est
génératrice.
Remarque 2.4.3 Attention : la dimension finie est essentielle ; elle garantit qu’il n’y a qu’un nombre
Xfini de ϕ(ei )
non nuls et permet de considérer la somme
ϕ(ei )ϕi ; en
∗
i∈I
∗
dimension infinie, E n’est pas une base de E , car elle n’est
pas génératrice (considérer la forme linéaire ϕ qui à tout ei
associe 1).
Corollaire 2.4.1 La dimension de l’espace dual d’un es-
206 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
pace vectoriel de dimension finie est égale à la dimension
de l’espace.
2.4. Dualité : approche restreinte
2.4.3
207
Orthogonalité 1
Soit E un K-espace vectoriel de dimension finie,
(e1 , . . . , ep ) une famille d’éléments de E. Nous pouvons
associer à cette famille l’application u : E ∗ → K p , définie
par u(ϕ) = (ϕ(e1 ), . . . , ϕ(ep )). On vérifie immédiatement
que u est linéaire. Son noyau est constitué des ϕ ∈ E ∗
vérifiant ∀i ∈ [1, p], ϕ(ei ) = 0.
Proposition 2.4.2 Si (e1 , . . . , ep ) est une base de E, alors
u est un isomorphisme d’espace vectoriel de E ∗ sur K p .
Démonstration 2.4.3 En effet dans ce cas, u envoie la
base duale E ∗ sur la base canonique de K p ; c’est donc un
208 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
isomorphisme.
Proposition 2.4.3 La famille (e1 , . . . , ep ) est libre si et
seulement si u est surjective. Sous ces conditions, Ker u
est de codimension p et
∀x ∈ E,
(x ∈ Vect(e1 , . . . , ep ) ⇐⇒ ∀ϕ ∈ Ker u, ϕ(x) = 0)
Démonstration 2.4.4 Si u est surjective, notons
(ε1 , . . . , εp ) la base canonique de K p et soit ϕi ∈ E ∗
tel que u(ϕi ) = εi ; on a donc ∀i, j ∈ [1, p], ϕi (ej ) = δij
ce qui implique évidemment que la famille est libre : si
2.4. Dualité : approche restreinte
p
X
j=1
209
λj ej = 0, on a pour tout i ∈ [1, p]
0 = ϕi (0) = ϕi (
p
X
j=1
λj ej ) =
p
X
λj ϕi (ej ) = λi
j=1
Inversement, si la famille est libre, on peut compléter
la famille (e1 , . . . , ep ) en une base (e1 , . . . , en ) de E et soit
(ϕ1 , . . . , ϕn ) la base duale. On a alors ∀i, j ∈ [1, p], ϕi (ej ) =
δij , soit ∀i ∈ [1, p], u(ϕi ) = εi . L’image de u contient une
base de K p , c’est donc K p et u est surjective. Dans ces
conditions, on peut appliquer le théorème du rang, et donc
dim Ker u = dim E ∗ − p = dim E − p.
Soit ϕ ∈ Ker u ; alors ∀i ∈ [1, p], ϕ(ei ) = 0 et donc
210 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
∀x ∈ Vect(e1 , . . . , ep ), ϕ(x) = 0. Inversement, supposons
que x ∈
/ Vect(e1 , . . . , ep ) ; alors la famille (e1 , . . . , ep , x) est
libre, on peut la compléter en une base de E et la forme
coordonnée suivant x dans cette base, soit ϕ, appartient à
Ker u alors que ϕ(x) = 1. On a donc bien l’équivalence
∀x ∈ E,
(x ∈ Vect(e1 , . . . , ep ) ⇐⇒ ∀ϕ ∈ Ker u, ϕ(x) = 0)
Remarque 2.4.4 Application : Soit F un sous-espace vectoriel de E, (e1 , . . . , ep ) une base de F , u : E ∗ → K p l’application linéaire associée, (ϕ1 , . . . , ϕn−p ) une base de Ker u ;
alors x ∈ F ⇐⇒ ∀i ∈ [1, n − p], ϕi (x) = 0. On dit encore que F est défini par le système d’équations linéaires
ϕ1 (x) = 0, . . . , ϕn−p (x) = 0.
2.4. Dualité : approche restreinte
2.4.4
211
Hyperplans
Définition 2.4.3 On appelle hyperplan de E tout sousespace vectoriel H de E vérifiant les conditions équivalentes
– (i) dim E/H = 1
– (ii) ∃f ∈ E \ {0}, H = Ker f
– (iii) H admet une droite comme supplémentaire.
Démonstration 2.4.5
– (i)⇒(ii) : prendre e une base
de E/H et écrire π(x) = f (x)e.
– (ii)⇒ (iii) : on prend a ∈ E tel que f (a) 6= 0. Tout
élément x s’écrit de manière unique sous la forme x =
212 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
f (x)
f (x)
f(x)
a) +
a avec x −
a ∈ Ker f, soit
f (a)
f (a)
f (a)
E = Ker f ⊕ Ka.
– (iii)⇒(i) : tout supplémentaire de H est isomorphe à
E/H.
(x −
Théorème 2.4.1 Soit H un hyperplan de E. Alors deux
formes linéaires nulles sur H sont proportionnelles.
Démonstration 2.4.6 Si E = H ⊕ Ka et H = Ker f , soit
g(a)
g ∈ E ∗ nulle sur H. Alors g et
f coı̈ncident sur H et
f (a)
sur Ka, donc sont égales.
2.4. Dualité : approche restreinte
2.4.5
213
Orthogonalité 2
Remarque 2.4.5 Soit E un K-espace vectoriel de dimension finie, (ϕ1 , . . . , ϕp ) une famille d’éléments de
E ∗ . Nous pouvons associer à cette famille l’application
v : E → K p , définie par v(x) = (ϕ1 (x), . . . , ϕp (x)). On
vérifie immédiatement que v est linéaire. Son noyau est
constitué de l’intersection des Ker ϕi (en général des
hyperplans, sauf si la forme linéaire est nulle).
Proposition 2.4.4 Si (ϕ1 , . . . , ϕp ) est une base de E ∗ ,
alors v est un isomorphisme d’espace vectoriel de E ∗ sur
Kp.
214 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
Démonstration 2.4.7 En effet dans ce cas, v est injective
car
v(x) = 0
⇐⇒
∀i ∈ [1, p], ϕi (x) = 0
⇐⇒
x=0
⇐⇒
∀ϕ ∈ E ∗ , ϕ(x) = 0
Comme dim E = dim E ∗ = p = dim K p , il s’agit d’un isomorphisme.
Théorème 2.4.2 Soit (ϕ1 , . . . , ϕp ) une base de E ∗ ; alors
il existe une unique base (e1 , . . . , ep ) de E dont (ϕ1 , . . . , ϕp )
soit la base duale.
2.4. Dualité : approche restreinte
215
Démonstration 2.4.8 On a en effet ∀i ∈ [1, p], ϕi (ej ) =
δij ⇐⇒ v(ej ) = εj (j-ième vecteur de la base canonique).
La famille (e1 , . . . , ep ) est donc l’image de la base canonique
de K p par l’isomorphisme v−1 .
Proposition 2.4.5 La famille (ϕ1 , . . . , ϕp ) est libre si et
seulement si v est surjective. Sous ces conditions, Ker v est
de codimension p et ∀ϕ ∈ E ∗ ,
(ϕ ∈ Vect(ϕ1 , . . . , ϕp ) ⇐⇒ ∀x ∈ Ker v, ϕ(x) = 0)
Démonstration 2.4.9 Si v est surjective, notons
(ε1 , . . . , εp ) la base canonique de K p et soit ei ∈ E
216 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
tel que v(ei ) = εi ; on a donc ∀i, j ∈ [1, p], ϕi (ej ) = δij
ce qui implique évidemment que la famille est libre : si
p
X
λj ϕj = 0, on a pour tout i ∈ [1, p]
j=1
0 = 0(ei ) =
p
X
j=1
λj ϕj (ei ) =
p
X
λj ϕj (ei ) = λi
j=1
Inversement, si la famille est libre, on peut compléter la
famille (ϕ1 , . . . , ϕp ) en une base (ϕ1 , . . . , ϕn ) de E ∗ qui est
la base duale de la base (e1 , . . . , en ) de E. On a alors ∀i, j ∈
[1, p], ϕi (ej ) = δij , soit ∀i ∈ [1, p], v(ei ) = εi . L’image de v
contient une base de K p , c’est donc K p et v est surjective.
Dans ces conditions, on peut appliquer le théorème du rang,
2.4. Dualité : approche restreinte
217
et donc dim Ker v = dim E − p.
Soit x ∈ Ker v ; alors ∀i ∈ [1, p], ϕi (x) = 0 et donc
∀ϕ ∈ Vect(ϕ1 , . . . , ϕp ), ϕ(x) = 0. Inversement, supposons
que ϕ ∈
/ Vect(ϕ1 , . . . , ϕp ) ; alors la famille (ϕ1 , . . . , ϕp , ϕ) est
libre, on peut la compléter en une base de E ∗ qui est la base
duale d’une base (e1 , . . . , en ) de E ; on a alors ep+1 ∈ Ker v
et ϕ(ep+1 ) = 1. On a donc bien l’équivalence
∀ϕ ∈ E ∗ ,
⇐⇒
(ϕ ∈ Vect(ϕ1, . . . , ϕp )
∀x ∈ Ker v, ϕ(x) = 0)
Remarque 2.4.6 Application : soit H1 , . . . , Hp des hyperplans de E d’équations respectives ϕ1 (x) = 0, . . . , ϕp (x) =
0 ; soit r = rg(ϕ1 , . . . , ϕp ). Quitte à renuméroter les
218 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
Hi , on peut supposer que (ϕ1 , . . . , ϕr ) est une base de
Vect(ϕ1 , . . . , ϕp ). On a alors, si v : E → K r est l’application linéaire associée à cette famille,
x∈
p
\
Hi
i=1
ce qui montre que
⇐⇒
∀i ∈ [1, p], ϕi (x) = 0
⇐⇒
⇐⇒
∀i ∈ [1, r], ϕi (x) = 0
x ∈ Ker v
p
\
i=1
Hi est un sous-espace vectoriel de
dimension dim E − r. Soit alors H un hyperplan de E
2.4. Dualité : approche restreinte
219
d’équation ϕ(x) = 0. On a alors
p
\
i=1
Hi ⊂ H
⇐⇒
Ker v ⊂ Ker ϕ
⇐⇒
ϕ ∈ Vect(ϕ1 , . . . , ϕr ) = Vect(ϕ1 , . . . , ϕp )
220 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
2.4.6
Application : polynômes d’interpolation de Lagrange
Théorème 2.4.3 Soit K un corps commutatif, x1 , . . . , xn ∈
K distincts. Soit a1 , . . . , an ∈ K. Alors il existe un
unique polynôme P ∈ K[X] tel que deg P ≤ n − 1 et
∀i ∈ [1, n], P (xi ) = ai .
Démonstration 2.4.10 Soit ϕi : Kn−1 [X] → K,
P 7→ P (xi ) (où Kn−1 [X] = {P ∈ K[X] | deg P ≤ n − 1}).
Les ϕi sont des formes linéaires sur l’espace vectoriel
Kn−1 [X] de dimension n ; soit v : Kn−1 [X] → K n ,
P 7→ (ϕ1 (P ), . . . , ϕn (P )) = (P (x1 ), . . . , P (xn )). Alors v est
2.4. Dualité : approche restreinte
221
une application linéaire injective car
v(P ) = 0
⇐⇒
⇐⇒
∀i ∈ [1, n], P (xi ) = 0
n
Y
(X − xi ) | P (X) ⇐⇒ P = 0
i=1
pour des raisons de degré évidentes. On en déduit que v
est un isomorphisme d’espaces vectoriels, ce qui démontre
le résultat.
Remarque 2.4.7 Comme v est surjective, la famille
(ϕ1 , . . . , ϕn ) est libre ; comme son cardinal est n, c’est une
base du dual Kn−1 [X]∗ . Cherchons la base dont c’est la
222 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
duale, c’est-à-dire des polynômes Pi vérifiant Pi (xj ) = δij ;
Y
un tel polynôme doit être divisible par
(X − xj ). Pour
j6=i
des raisons de degrés, il doit lui être proportionnel et le
fait que Pi (xi ) = 1 nécessite
Q
j6=i (X − xj )
Pi (X) = Q
j6=i (xi − xj )
On a alors
∀P ∈ Kn−1 [X], P =
n
X
i=1
ϕi (P )Pi =
n
X
i=1
Q
j6=i (X
P (xi ) Q
j6=i (xi
− xj )
− xj )
2.5. Dualité : approche générale
2.5
223
Dualité : approche générale
Cette section ne fait pas partie du programme des classes preparatoires. Elle reprend les
definitions et les resultats de la section precedente en les generalisant.
2.5.1
Notion de dual. Orthogonalité
Définition 2.5.1 Soit E un K-espace vectoriel . On appelle forme linéaire sur E toute application linéaire de E
dans K. On appelle dual de E le K-espace vectoriel E ∗ =
L(E, K).
Remarque 2.5.1 On dispose d’une application bilinéaire
de E ∗ × E dans K donnée par hf | xi = f (x) appelée
la forme bilinéaire canonique. A cette forme bilinéaire est
associée une notion d’orthogonalité. On notera donc
224 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
– (i) si A ⊂ E, A⊥ = {f ∈ E ∗ | ∀x ∈ A, f (x) = 0}
– (ii) si B ⊂ E ∗ , B o = {x ∈ E | ∀f ∈ B, f (x) = 0}
Proposition 2.5.1 Les notations A, A1, A2 désignant des
parties de E et B, B1 , B2 désignant des parties de E ∗ , on a
– (i) A⊥ et B o sont des sous-espaces vectoriels de E ∗ et
E ; A⊥ = Vect(A)⊥ et B o = Vect(B)o
⊥
o
o
– (ii) A1 ⊂ A2 ⇒ A⊥
⊃
A
et
B
⊂
B
⇒
B
⊃
B
1
2
1
2
1
2
⊥ o
o ⊥
– (iii) A ⊂ (A ) et B ⊂ (B )
– (iv) Soit A un sous-espace vectoriel de E, alors A⊥ =
{0} ⇐⇒ A = E et A⊥ = E ∗ ⇐⇒ A = {0}.
– (v) Soit B un sous-espace vectoriel de E ∗ , alors B o =
E ⇐⇒ B = {0}.
2.5. Dualité : approche générale
225
Démonstration 2.5.1 Les propriétés (i),(ii) et (iii) sont
évidentes ainsi que les parties ”⇐” de (iv) et (v).
Montrons donc que A 6= E ⇒ A⊥ 6= {0}. Soit (ei )i∈I une
base de A que l’on complète en (ei )i∈J base de E. Soit i0 ∈
J \I et f l’application qui à x associe sa i0-ième coordonnée
dans la base. On a f 6= 0 et f ∈ A⊥ .
Montrons maintenant que A 6= {0} ⇒ A⊥ 6= E ∗ . Pour
cela soit x ∈ A\{0}. On complète x en une base (ei )i∈I de E
avec x = ei0 . Soit f l’application qui à x associe sa i0 -ième
coordonnée dans la base. On a f (x) 6= 0, donc f ∈
/ A⊥ .
Montrons maintenant que B 6= {0} ⇒ B o 6= E. Soit
f ∈ B \ {0}. On a f 6= 0, donc ∃x ∈ E, f (x) 6= 0. Dans ce
cas x ∈
/ B o , ce qui achève la démonstration.
226 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
On prendra garde qu’on peut avoir B o = {0} avec B 6=
E ∗ (prendre par exemple E = R[X] et B = Vect(εx , x ∈ Z)
où εx (P ) = P (x) ; on a B o = {0} alors que ε1/2 ∈
/ B).
2.5. Dualité : approche générale
2.5.2
227
Hyperplans
Définition 2.5.2 On appelle hyperplan de E tout sousespace vectoriel H de E vérifiant les conditions équivalentes
– (i) dim E/H = 1
– (ii) ∃f ∈ E ∗ \ {0}, H = Ker f
– (iii) H admet une droite comme supplémentaire.
Démonstration 2.5.2 (i)⇒(ii) : prendre e une base de
E/H et écrire π(x) = f (x)e.
(ii)⇒ (iii) : on prend a ∈ E tel que f (a) 6= 0. Tout
élément x s’écrit de manière unique sous la forme x = (x −
228 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
f (x)
f (x)
f (x)
a) +
a avec x −
a ∈ Ker f , soit E = Ker f ⊕
f (a)
f(a)
f(a)
Ka.
(iii)⇒(i) : tout supplémentaire de H est isomorphe à
E/H .
Théorème 2.5.1 Soit H un hyperplan de E. Alors H ⊥ est
de dimension 1 (droite vectorielle) : deux formes linéaires
nulles sur H sont proportionnelles.
Démonstration 2.5.3 Si E = H ⊕ Ka et H = Ker f , soit
g(a)
⊥
g ∈ H . Alors g et
f coı̈ncident sur H et sur Ka, donc
f (a)
sont égales.
2.5. Dualité : approche générale
2.5.3
229
Bidual
Définition 2.5.3 On désigne par E ∗∗ le dual de E ∗ .
Remarque 2.5.2 Si E est de dimension finie, E ∗ aussi et
dim E ∗ = dim E. On en déduit que E ∗∗ est aussi de dimension finie encore égale à dim E.
Théorème 2.5.2 L’application u : E → E ∗∗ , x 7→ ux
définie par ux (f ) = f (x) est une application linéaire injective. Si E est un espace vectoriel de dimension finie, c’est
un isomorphisme d’espaces vectoriels.
230 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
Démonstration 2.5.4 En effet, cette application est visiblement linéaire et si x ∈ Ker u, on a
∀f ∈ E ∗ , f (x) = ux (f) = 0(f) = 0
et donc x ∈ (E ∗)o = {0} ; elle est donc injective. Si E est
un espace vectoriel de dimension finie, on a une application
linéaire injective entre deux espaces de même dimension
finie, elle est donc bijective.
2.5. Dualité : approche générale
2.5.4
231
Transposée
Définition 2.5.4 Soit u ∈ L(E, F ). On note t u : F ∗ → E ∗
définie par t u(g) = g ◦ u (c’est une application linéaire).
Remarque 2.5.3 Cela revient à poser, pour x ∈ E et g ∈
F ∗ , ht u(g) | xiE = hg | u(x)iF .
Théorème 2.5.3 On a les propriétés suivantes
– (i) u 7→ t u est linéaire de L(E, F ) dans L(F ∗ , E ∗ ).
– (ii) u ∈ L(E, F ), v ∈ L(F, G) ; alors t (v ◦ u) = t u ◦ t v
– (iii) Si u est bijective, t u aussi et (t u)−1 = t (u−1 )
232 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
– (iv) Ker t u = (Im u)⊥
– (v) Im t u = (Ker u)⊥
Démonstration 2.5.5 (i) et (ii) sont très faciles à partir de la définition. (iii) découle immédiatement de (ii) en
écrivant que v ◦ u = IdE et u ◦ v = IdF .
Pour (iv), on a g ∈ Ker t u ⇐⇒ ∀x ∈ E, t u(g)(x) =
0 ⇐⇒ ∀x ∈ E, g(u(x)) = 0 ⇐⇒ g ∈ (Im u)⊥ .
Pour (v), on remarque d’abord que f ∈ Im t u ⇒
∃g, f = g ◦ u ⇒ ∀x ∈ Ker u, f(x) = 0 ⇒ f ∈ (Ker u)⊥ ,
soit Im t u ⊂ (Ker u)⊥ . Inversement, soit f ∈ (Ker u)⊥ .
On définit g1 forme linéaire sur Im u par g1 (y) = f (x) si
y = u(x) ; on vérifie en effet que f(x) est indépendant du
2.5. Dualité : approche générale
233
choix de x tel que y = u(x) car f est nulle sur Ker u. Soit
alors V un supplémentaire de Im u dans F . On définit
g : F → K par g(y1 + y2) = g1 (y1 ) si y1 ∈ Im u et y2 ∈ V .
On a bien f = g ◦ u = t u(g). Donc (Ker u)⊥ ⊂ Im t u et
donc l’égalité.
234
2.5.5
Chapitre 2. Algèbre linéaire élémentaire
Dualité en dimension finie
Proposition 2.5.2 Soit E un espace vectoriel de dimension finie, E = (e1 , . . . , en ) une base de E. La famille E 0 =
(e∗1 , . . . , e∗n ) de E ∗ définie par e∗i (ej ) = δij est une base de
E ∗ appelée la base duale de la base E
Démonstration 2.5.6 On vérifie en effet immédiatement
qu’elle est libre et elle a le bon cardinal.
Théorème 2.5.4 Soit E un espace vectoriel de dimension
finie. L’application E → E 0 est une bijection de l’ensemble
des bases de E sur l’ensemble des bases de E ∗.
2.5. Dualité : approche générale
235
Démonstration 2.5.7 Injectivité : si ((e1 , . . . , en ) et
(e01 , . . . , e0n ) sont deux bases qui ont même base duale,
on a pour toute f ∈ E ∗ , f (ei ) = f (e0i ) et donc ei = e0i .
Surjectivité : soit F = (f1, . . . , fn ) une base de E ∗ et
soit F sa base duale (dans E ∗∗ ). Soit u l’isomorphisme
de E sur E ∗∗ , et E = u−1 (F 0 ), base de E. On a alors
fi (ej ) = uej (fi ) = fj∗ (fi ) = δij , donc F est la base duale de
la base E.
Corollaire 2.5.1 Soit E un espace vectoriel de dimension
finie.
– (i) Soit A un sous-espace vectoriel de E. On a
dim E = dim A + dim A⊥ et (A⊥ )o = A
236 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
– (ii) Soit B un sous-espace vectoriel de E ∗ . On a
dim E = dim B + dim B o et (B o )⊥ = B
Démonstration 2.5.8 Soit (e1 , . . . , ep ) une base de A
que l’on complète en (e1 , . . . , en ) base de E. On vérifie
immédiatement que A⊥ = Vect(e∗p+1 , . . . , e∗n ) d’où le
résultat sur la dimension. On montre de même le résultat
sur la dimension de B o . Les égalités découlent alors des
inclusions et du fait que les espaces ont même dimension.
Corollaire 2.5.2 Soit E un espace vectoriel de dimension
finie, f1 , . . . , fk ∈ E ∗ , V = {x ∈ E | f1 (x) = . . . = fk (x) =
0}. Alors dim V = dim E − rg(f1 , . . . , fk ).
2.5. Dualité : approche générale
237
Théorème 2.5.5 Soit E et F deux espaces vectoriels de
dimensions finies, u ∈ L(E, F ). Alors rg u = rg t u.
Démonstration 2.5.9 rg t u = dim Im t u = dim(Ker u)⊥ =
dim E − dim Ker u = rg u.
238 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
2.6
2.6.1
Matrices
Généralités
Définition 2.6.1 MK (m, n) = {(ai,j ) 1≤i≤m } est un K1≤j≤n
espace vectoriel de dimension mn. Il admet pour base la
famille (Ek,l ) 1≤k≤m avec
1≤l≤n
k,l
Ek,l = (δi,j
) 1≤i≤m
1≤j≤n
l

0

= k ...
0
..
.
1
..
.

0

...
0
2.6. Matrices
239
Définition 2.6.2 Soit E et F deux espaces vectoriels de
dimensions finies n et m respectivement et u ∈ L(E, F ).
Soit E = (e1 , . . . , en ) une base de E et F = (f1, . . . , fm ) une
base de F de base duale F ∗ = (f1∗ , . . . , fm∗ ). On définit la
matrice de u dans les bases E et F comme étant la matrice
Mat(u, E, F) = (ai,j ) 1≤i≤m construite de façon équivalente
1≤j≤n
par
m
X
(i) ∀j ∈ [1, n], u(ej ) =
ai,j fi
i=1
(ii) ∀i ∈ [1, m], ∀j ∈ [1, n], ai,j = fi∗ (u(ej )) = hfi∗ | u(ej )i
Proposition 2.6.1 L’application L(E, F ) → MK (m, n),
240 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
u 7→ Mat(u, E , F) est un isomorphisme de K-espaces vectoriels .
Produit de matrices A = (ai,j ) ∈ MK (m, n) et B =
(bi,j ) ∈ MK (n, p). On définit AB = (ci,j ) ∈ MK (m, p) par
∀(i, j) ∈ [1, m] × [1, p], ci,j =
n
X
ai,k bk,j
k=1
Théorème 2.6.1 Soit u ∈ L(E, F ), v ∈ L(F, G) où E,
F et G sont trois espaces vectoriels de dimensions finies
admettant des bases E , F et G. Alors on a
Mat(v ◦ u, E , G) = Mat(v, F , G) Mat(u, E , F)
2.6. Matrices
241
Démonstration 2.6.1 En effet, si les dimensions des espaces sont respectivement p, n et m, et si l’on note A =
Mat(u, E, F) et B = Mat(v, F , G), on a
v ◦ u(ej )
=
v(u(ej ) = v(
n
X
ak,j fk )
k=1
=
=
=
n
X
k=1
n
X
ak,j v(fk )
ak,j
m
X
i=1
k=1
Ã
m
n
X
X
bi,k gi
bi,k ak,j
i=1
k=1
!
gi
242 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
ce qui montre que la i-ième coordonnée de v ◦ u(ej ) est bien
le terme d’indice i, j de la matrice BA.
Remarque 2.6.1 Ceci lié à l’isomorphisme avec les applications linéaires permet d’obtenir immédiatement les propriétés essentielles du produit des matrices : associativité
et bilinéarité.
Définition 2.6.3 Soit x ∈ E et y ∈ F . Si x =


n
X
xi ei , on
i=1
x1
.
définit X =  ..  (vecteur colonne des coordonnées de x
xn
2.6. Matrices
243
dans la base E). De même, on définit Y vecteur colonne des
coordonnées de y dans la base F . On a alors
Théorème 2.6.2 Mat(u, E , F) est l’unique matrice A ∈
MK (m, n) vérifiant
∀(x, y) ∈ E × F,
u(x) = y ⇐⇒ Y = AX
Démonstration 2.6.2 En effet
u(x) = y
⇐⇒
n
X
j=1
xj u(ej ) =
m
X
i=1
yi fi
244 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
⇐⇒
⇐⇒
n
X
j=1
xj
m
X
ai,j fi =
i=1
∀i, yi =
n
X
j=1
m
X
yi fi
i=1
ai,j xj ⇐⇒ Y = AX
Inversement, si une matrice A vérifie cette condition, en
prenant x = ej , on voit que ai,j est la i-ième coordonnée de
u(ej ), et donc A = Mat(u, E , F ).
2.6. Matrices
2.6.2
245
Matrices carrées
Lemme 2.6.1 Soit (Ei,j ) la base canonique de MK (n). On
a Ei,j Ek,l = δjk Ei,l
Démonstration 2.6.3 Calcul élémentaire
Proposition 2.6.2 MK (n) (= MK (n, n)) est une Kalgèbre de dimension n2 dont le centre est constitué des
matrices scalaires. Le groupe de ses éléments inversibles
est noté GLK (n) (groupe linéaire d’indice n).
246 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
Démonstration 2.6.4 Tout est élémentaire, sauf la
recherche du centre. Soit A ∈ Mk (n) une matrice qui
commute
X à toutes les autres matrices carrées. On a
A =
ai,j Ei,j . On écrit pour k 6= l, Ek,l A = AEk,l soit
i,j
encore
X
j
al,j Ek,j =
X
ai,k Ei,l . En prenant la coordonnée
i
suivant Ek,k , on a al,k = 0. En prenant la coordonnée
suivant Ek,l on a al,l = ak,k soit A = a1,1 In .
Remarque 2.6.2 Bien entendu si E est un K-espace vectoriel de dimension n admettant une base E , les résultats
précédents impliquent que l’application L(E) → MK (n),
u 7→ Mat(u, E ) est un isomorphisme de K-algèbres.
2.6. Matrices
247
Définition 2.6.4 Si A = (ai,j ) ∈ MK (n), on définit la
n
X
trace de A comme tr A =
ai,i .
i=1
Théorème 2.6.3 Soit A ∈ MK (m, n) et B ∈ MK (n, m).
Alors tr(AB) = tr(BA). En particulier, si A ∈ MK (n) et
P ∈ GLK (n), alors tr(P −1 AP ) = tr A.
Démonstration 2.6.5 On a en effet tr(AB) =
X
ai,j bj,i
i,j
qui est une expression visiblement symétrique en a et b.
248 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
2.6.3
Transposée
Définition 2.6.5 Si A = (ai,j ) ∈ MK (m, n) on pose t A =
(bi,j ) ∈ MK (n, m) définie par ∀(i, j) ∈ [1, n]×[1, m], bi,j =
aj,i .
Proposition 2.6.3 L’application M 7→ t M est linéaire bijective de MK (m, n) sur MK (n, m) et on a t (t M ) = M . Si
M ∈ MK (m, n), N ∈ MK (n, p), alors t (M N ) = t N t M . Si
M ∈ MK (n) est inversible, t M aussi et (t M )−1 = t (M −1 ).
Démonstration 2.6.6 Calcul élémentaire pour montrer
que t (αM + βN ) = αt M + β t N et que t (M N ) = t N t M .
2.6. Matrices
249
Si M est inversible, on a M M −1 = M −1 M = In et prenant
la transposée, t (M −1 )t M = t M t (M −1) = t In = In . On en
déduit que t M est inversible et que (t M )−1 = t (M −1 ).
Théorème 2.6.4 Soit E et F deux K-espaces vectoriels
de dimensions finies admettant des bases E et F . Alors
Mat(t u, F ∗ , E ∗ ) = t Mat(u, E, F )
Démonstration
X 2.6.7 Soit A et B les deux matrices. On
a t u(fj∗ ) =
bi,j e∗i soit bi,j = t u(fj∗ )(ei ) = fj∗ ◦ u(ei ) =
fj∗ (u(ei ))
i
= aj,i .
250 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
Définition 2.6.6 Soit M ∈ MK (n). On dit que M est
symétrique si t M = M et antisymétrique si t M = −M .
Proposition 2.6.4 L’ensemble SK (n) (resp. AK (n)) des
matrices symétriques (resp. antisymétriques) est un sousn(n + 1)
espace vectoriel de MK (n). On a dim SK (n) =
. Si
2
car K 6= 2, on a MK (n) = SK (n) ⊕ AK (n) et dim AK (n) =
n(n − 1)
.
2
Démonstration 2.6.8 Une base de SK (n) est clairement
constituée des Ei,i 1 ≤ i ≤ n et des Ei,j +Ej,i , 1 ≤ i < j ≤ n,
2.6. Matrices
251
n(n + 1)
donc dim SK (n) =
. Si car K 6= 2, on peut écrire
2
1
1
A = (A + t A) + (A − t A), ce qui montre que MK (n) =
2
2
SK (n) + AK (n) et on a clairement SK (n) ∩ AK (n) = {0}.
Remarque 2.6.3 Par contre, si car K = 2, on a 1 = −1
et donc SK (n) = AK (n).
252 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
2.6.4
Rang d’une matrice
Définition 2.6.7 Soit A ∈ MK (m, n). On appelle rang de
A le rang dans K m de la famille (c1, . . . , cn ) de ses vecteurs
colonnes.
Théorème 2.6.5 Si u ∈ L(E, F ), E une base de E, F une
base de F , A = Mat(u, E, F ). Alors rg A = rg u.
Démonstration 2.6.9 On a rg u = rg(u(e1 ), . . . , u(en )).
Mais le rang de la famille des u(ej ) est aussi le rang de son
image par l’isomorphisme de F dans K m qui à un vecteur
2.6. Matrices
253
associe la famille de ses coordonnées dans la base F , c’est-àdire le rang de la famille des vecteurs colonnes de la matrice
A.
Corollaire 2.6.1 rg(AB) ≤ min(rg A, rg B).
Théorème 2.6.6 Soit A ∈ MK (n). On a équivalence de
– (i) A est inversible
– (ii) rg A = n
– (iii) ∃B ∈ MK (n), AB = In
– (iv) ∃B ∈ MK (n), BA = In
254 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
Démonstration 2.6.10 Se déduit immédiatement du
théorème analogue sur les endomorphismes d’un espace
vectoriel de dimension finie.
2.6. Matrices
2.6.5
255
La méthode du pivot
La recherche pratique du rang d’une matrice peut se
faire par la méthode du pivot ; dans les algorithmes qui
suivent, la flèche vers la gauche décrira un remplacement :
x ← y signifiera remplacer x par y. Il s’agit là de l’analogue
d’une affectation dans un langage de programmation.
Définition 2.6.8 On définit les opérations élémentaires
sur les vecteurs colonnes c1 , . . . , cn d’une matrice
A ∈ MK (m, n) :
– (i) ajouter à une colonne cj une combinaison linéaire
256 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
des autres vecteurs colonnes
X
ci ← ci +
λj cj
j6=i
ou encore
A←




A


1
..
.

λ1
..
.
1
..
.
λn
..
.
1






– (ii) multiplier la colonne ci par un scalaire non nul
ci ←
λci
2.6. Matrices
257
ou encore
A←

1



A


..

.
λ
..
.
1






– (iii) effectuer une permutation σ sur les vecteurs
colonnes
(c1 , . . . , cn ) ←
(cσ(1) , . . . , cσ(n))
ou encore
A←
APσ
258 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
σ(j)
où Pσ = (δi
).
Proposition 2.6.5 Les opérations
changent pas le rang d’une matrice.
élémentaires
ne
Démonstration 2.6.11 En effet, il est clair que les
opérations élémentaires ne changent pas le sous-espace
de K n , Vect(c1 , . . . , cn ) ; on peut remarquer aussi que les
opérations élémentaires s’effectuent par multiplications à
droite par des matrices inversibles, donc ne changent pas
le rang.
2.6. Matrices
259
Théorème 2.6.7 Soit M ∈ MK (n, p). Alors il existe une
matrice M 0 qui se déduit de M par une suite d’opérations
260
Chapitre 2. Algèbre linéaire élémentaire
élémentaires, de la forme

0
0
.
..

..
.

..


.
0


1
0


 aσ(1)+1,1

..
..


.
.

0
.
M =
..
1


.
..

aσ(2)+1,2


..
..

.
.






..
..
.
.
...
...
0
..
.
..
.
0
..
.
0
..
.
..
.
0
..
.
..
.
..
.
..
.
1
aσ(r)+1,r
..
.
..
.
0
...
...

0
.. 
.
.. 
.

0
.. 

.

.. 
.











.. 
.

0
2.6. Matrices
261
où σ est une application strictement croissante de [1, r]
dans [1, n]. Dans toute telle écriture, on a rg M = r.
Démonstration 2.6.12 Par récurrence sur le nombre de
colonnes de M . C’est évident s’il existe une seule colonne ou
si M = 0. Sinon, soit σ(1) l’indice de la première ligne non
nulle et j tel que aσ(1),j 6= 0. On effectue une permutation
des colonnes pour amener la colonne cj en première colonne,
1
puis on effectue les opérations c1 ←
puis pour j
aσ(1),1 c1
allant de 2 à n, cj ← cj − aσ(1),j c1 . On aboutit alors à une
262 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
matrice

0
..
.




0


1


 aσ(1)+1,1

..
.
0
..
.
..
.
0
..
.
...
...
0
..
.
..
.
0
..
.
0
..
.
..
.
0
..
.
..
.
..
.
...
...

0
.. 
.
.. 
.

0

.. 
.

..
.
Il suffit alors d’utiliser l’hypothèse de récurrence sur les n−1
dernières colonnes de la matrice. Il est clair que rg M 0 = r,
mais on a rg M = rg M 0 , d’où rg M = r.
2.6. Matrices
263
Remarque 2.6.4 On peut ensuite utiliser les 1 qui sont
dans les r premières colonnes pour éliminer au fur et à
mesure en partant du bas tous les aσ(i),j . Si M est inversible,
nécessairement σ = Id et alors la matrice obtenue est In .
Mais on a M 0 = M P1 . . . Pk où les Pi sont les matrices des
différentes opérations élémentaires effectuées. On en déduit
que M −1 = P1 . . . Pk . On peut calculer ce produit en partant
de B ← In et en effectuant sur la matrice B les mêmes
opérations élémentaires que sur la matrice A. On a donc à
la fin B ← P1 . . . Pk , soit B ← M −1 .
264 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
2.6.6
Changement de bases
Proposition 2.6.6 Soit E = (e1 , . . . , en ) une base de E et
n
X
A = (ai,j ) ∈ MK (n). Posons xj =
ai,j ei . Alors A est
i=1
inversible si et seulement si (x1 , . . . , xn ) est une base de E.
Démonstration 2.6.13 Comme précédemment, le rang
de la famille des xj est aussi le rang de son image par
l’isomorphisme de E sur K n qui à un vecteur associe la
famille de ses coordonnées dans la base E , c’est-à-dire ici
de la famille des vecteurs colonnes de A.
2.6. Matrices
265
Définition 2.6.9 Soit E et E 0 deux bases de E. On définit
0
PEE comme étant la matrice inversible (ai,j ) ∈ Mk (n) définie
n
X
par e0j =
ai,j ei .
i=1
0
Remarque 2.6.5 On a donc PEE = Mat(IdE , E 0 , E ) =
Mat(u, E, E) où u est défini par u(ei ) = e0i . De la première
égalité on déduit immédiatement :
PEE0
E 0 −1
(PE )
E 00
PE
E 0 E 00
PE PE 0
Théorème 2.6.8
– (i)
=
et
=
– (ii) si X et X 0 sont les vecteurs colonnes des coor0
données de x ∈ E dans les bases E et E 0 et P = PEE ,
on a X = P X 0 .
266 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
Théorème 2.6.9 Soit u ∈ L(E, F ), E et E 0 deux bases de
0
0
E, F et F 0 deux bases de F . On pose P = PEE , Q = PFF ,
M = Mat(u, E , F ), M 0 = Mat(u, E 0 , F 0 ). Alors on a M 0 =
Q−1 M P .
Démonstration 2.6.14 y = u(x) ⇐⇒ Y = M X ⇐⇒
QY 0 = M P X 0 ⇐⇒ Y 0 = Q−1 M P X 0 . L’unicité de la
matrice d’une application linéaire permet de conclure que
M 0 = Q−1M P .
Définition 2.6.10 On dit que M, M 0 ∈ MK (m, n) sont
équivalentes s’il existe Q ∈ GLK (m) et P ∈ GLK (n) telles
que M 0 = Q−1 M P .
2.6. Matrices
267
Remarque 2.6.6 Ceci revient à dire que M et M 0 sont
les matrices d’une même application linéaire dans des bases
”différentes” ; sous cette forme, il est clair qu’il s’agit d’une
relation d’équivalence.
Lemme
µ 2.6.2
¶ Si M est de rang r, elle est équivalente à
Ir 0
Jr =
0 0
Démonstration 2.6.15 Soit M = Mat(u, E , F). Soit V
un supplémentaire de Ker u dans E, (e01 , . . . , e0r ) une base de
V , (e0r+1 , . . . , e0n ) une base de Ker u. Comme u|V est un isomorphisme de V sur Im u, (f10 , . . . , fr0 ) = (u(e01 ), . . . , u(e0r ))
268 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
0
est une base de Im u que l’on peut compléter en (f10 , . . . , fm
)
base de F . On a alors Mat(u, E 0 , F 0 ) = Jr , d’où le résultat.
Théorème 2.6.10 Deux matrices de MK (m, n) sont
équivalentes si et seulement si elles ont même rang.
Démonstration 2.6.16 La condition est bien évidemment
nécessaire, et le lemme précédent montre qu’elle est suffisante.
Théorème 2.6.11 rg A = rg t A. Autrement dit, le rang
d’une matrice est aussi égal au rang de la famille de ses
vecteurs lignes.
2.6. Matrices
269
Démonstration 2.6.17 En effet si A est équivalente à Jr ,
t
A est équivalente à t Jr qui est aussi de rang r.
Remarque 2.6.7 Dans le cas d’un endomorphisme, on a
en général E = F et E 0 = F 0 d’où le théorème
Théorème 2.6.12 Soit u ∈ L(E), E et E 0 deux bases de
E0
E. On pose P = PE , M = Mat(u, E ), M 0 = Mat(u, E 0 ).
Alors on a M 0 = P −1 M P .
Définition 2.6.11 On dit que M, M 0 ∈ MK (n) sont semblables s’il existe P ∈ GLK (n) telles que M 0 = P −1 M P .
270 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
Remarque 2.6.8 Cela revient à dire que M et M 0 sont
les matrices d’un même endomorphisme dans des bases
”différentes” ; sous cette forme, il est clair qu’il s’agit d’une
relation d’équivalence.
Remarque 2.6.9 On remarque que deux matrices semblables ont même trace ce qui permet de définir
Définition 2.6.12 Soit u ∈ L(E). On pose tr u =
tr Mat(u, E ), indépendant du choix de la base E de E.
2.6. Matrices
2.6.7
271
Produit des matrices par blocs
Soit M ∈ MK (m, n), M 0 ∈ MK (n, p), 1 ≤ q ≤ m, 1 ≤
r ≤ n, 1 ≤ s ≤ p. On écrit
M=
q
m−q
µ
r
n−r
A
C
B
D
¶
,
0
M =
r
n−r
µ
s
A0
C0
p−s
¶
0
B
D0
avec A ∈ MK (q, r), B ∈ MK (q, n − r), C ∈ MK (m −
q, r), D ∈ MK (m − q, n − r), A0 ∈ MK (r, s), B 0 ∈
MK (r, p − s), C 0 ∈ MK (n − r, s), D 0 ∈ MK (n − r, p − s)
Alors
µ
¶
0
0
0
0
AA + BC AB + BD
MM0 =
CA0 + DC 0 CB 0 + DD0
272 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
Démonstration 2.6.18 Par le calcul (attention aux
décalages d’indices).
2.7. Déterminants
2.7
2.7.1
273
Déterminants
Formes p-linéaires
Définition 2.7.1 On appelle forme p-linéaire sur le
Kespace vectoriel E toute application ϕ : E p →
K vérifiant ∀(a1 , . . . , ap ) ∈ K p , ∀i ∈ [1, p], xi 7→
ϕ(a1 , . . . , ai−1 , xi , ai+1 , . . . , ap ) est linéaire de E dans K.
Définition 2.7.2 Soit f une forme p-linéaire sur E. On
dit qu’elle est
– (i) alternée si ∀(x1 . . . , xp ) ∈ E p ,
¡
¢
2
∃(i, j) ∈ [1, p] , i 6= j et xi = xj ⇒ f (x1 , . . . , xp ) = 0
274 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
– (ii) antisymétrique si ∀(x1 . . . , xp ) ∈ E p ,
∀σ ∈ Sp , f(xσ(1) , . . . , xσ(p) ) = ε(σ)f(x1 , . . . , xp )
Proposition 2.7.1 Toute forme alternée est antisymétrique. Si car K 6= 2, toute forme antisymétrique
est alternée.
Démonstration 2.7.1 On remarque que si f est alternée,
on a
0
=
f (. . . , xi + xj , . . . , xi + xj , . . .)
=
f (. . . , xi , . . . , xj , . . .) + f (. . . , xj , . . . , xi , . . .)
2.7. Déterminants
275
On a donc f (xσ(1) , . . . , xσ(p) ) = ε(σ)f (x1 , . . . , xp ) lorsque σ
est la transposition τi,j . Comme les transpositions engendrent Sp , f est antisymétrique. Inversement si f est antisymétrique et si xi = xj , soit σ la transposition τi,j . On a
alors
f (. . . , xi , . . . xj , . . .)
=
=
−f(. . . , xj , . . . xi , . . .)
−f(. . . , xi , . . . xj , . . .)
soit f (. . . , xi , . . . xj , . . .) = 0 si car K 6= 2.
Définition 2.7.3 On note Ap (E) l’espace vectoriel des
formes p-linéaires alternées sur E.
276 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
Théorème 2.7.1 Toute forme alternée est nulle sur une
famille liée.
Démonstration 2.7.2 Il suffit d’écrire un terme comme
combinaison linéaire des autres et de développer. Dans tous
les termes obtenus figurent deux
Xtermes identiques et donc
chaque terme est nul : si xk =
αj xj , on a
j6=k
ϕ(x1 , . . . , xk , . . . , xp )
=
X
j6=k
j
k
z}|{
z}|{
αj ϕ(x1 , . . . , xj , . . . , xj , . . . , xp ) = 0
où l’on a indiqué au dessus de xj l’indice de sa position.
2.7. Déterminants
2.7.2
Déterminant
vecteurs
277
d’une
famille
de
Définition 2.7.4 Soit E un K-espace vectoriel de dimension n, E = (e1, . . . , en ) une base de E de base duale E ∗ =
(e∗1 , . . . , e∗n ), et (x1 , . . . , xn ) une famille de vecteurs de E.
n
X
Y
On pose detE (x1 , . . . , xn ) =
ε(σ)
e∗j (xσ(j) ).
σ∈Sn
j=1
Théorème 2.7.2 detE ∈ An (E). L’espace vectoriel An (E)
est de dimension 1 : pour toute f ∈ An (E), on a f =
λf detE avec λf = f (e1 , . . . , en ). L’application detE est l’unique forme n-linéaire alternée vérifiant f (e1 , . . . , en ) = 1.
278 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
Démonstration 2.7.3 detE est clairement n-linéaire.
Supposons que xi = xj et écrivons Sn = A ∪ τi,j A où A est
l’ensemble des permutations de signature +1. On a donc,
en tenant compte de ε(τi,j σ) = −ε(σ)
detE (x1 , . . . , xn ) =
−
X
ε(σ)
σ∈A
X
σ∈A
ε(σ)
n
Y
k=1
n
Y
e∗k (xσ(k) )
e∗k (xτi,j σ(k) )
k=1
Mais on a pour tout k ∈ [1, n], xτi,j σ(k) = xσ(k) : c’est
évident si σ(k) ∈
/ {i, j} car alors τi,j σ(k) = σ(k), et si par
exemple σ(k) = i, on a xτi,j σ(k) = xj = xi = xσ(k) . On en
déduit que dans la différence précédente, les deux sommes
2.7. Déterminants
279
sont égales, et donc detE (x1 , . . . , xn ) = 0. Ceci montre le
caractère alterné de detE .
n
X
Soit maintenant f ∈ An (E). On pose xj =
ξi,j ei . On
i=1
a alors
f (x1 , . . . , xn ) =
X
ξi1 ,1 . . . ξin,n f (ei1 , . . . , ein )
i1 ,...,in ∈N
En fait dans cette somme on peut se limiter aux
i1 , . . . , in distincts, car sinon f(ei1 , . . . , ein ) = 0. Posant
i1 = σ(1), . . . , in = σ(n) où σ est une permutation
de [1, n], on obtient (compte tenu de f (ei1 , . . . , ein ) =
280 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
f(eσ(1) , . . . , eσ(n)) = ε(σ)f (e1 , . . . , en ))
X
f (x1 , . . . , xn ) = f (e1 , . . . , en )
ε(σ)ξσ(1),1 . . . ξσ(n),n
σ∈Sn
=
f (e1 , . . . , en )f0 (x1 , . . . , xn )
avec une définition évidente de f0 .
Ceci montre clairement que dim An (E) ≤ 1. Comme
d’autre part, detE est non nul (car on vérifie immédiatement
que detE (e1, . . . , en ) = 1 : il y a un seul terme non nul dans
la somme), c’est qu’il est bien de dimension 1. Le reste en
résulte immédiatement (ainsi que le fait que f0 = detE ).
Théorème 2.7.3 Soit E = (e1 , . . . , en ) une base de E et
2.7. Déterminants
281
(x1 , . . . , xn ) une famille de E. Alors c’est une base de E si
et seulement si detE (x1 , . . . , xn ) 6= 0.
Démonstration 2.7.4 En effet, si c’est une base X ,
on a detE = detE (x1 , . . . , xn ) detX et comme detE 6= 0,
on a detE (x1 , . . . , xn ) 6= 0 ; si ce n’est pas une base,
c’est que la famille est liée (son cardinal est n) et donc
detE (x1 , . . . , xn ) = 0.
282 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
2.7.3
Déterminant d’un endomorphisme
Théorème 2.7.4 Soit u ∈ L(E). Il existe un unique
scalaire noté det u vérifiant ∀f ∈ An (E), ∀(x1 , . . . , xn ) ∈
En ;
f (u(x1 ), . . . , u(xn )) = det u f (x1 , . . . , xn )
Démonstration 2.7.5 Soit ϕu : An (E) → An (E) définie
par ϕu (f )(x1 , . . . , xn ) = f (u(x1 ), . . . , u(xn )). C’est un endomorphisme d’un espace vectoriel de dimension 1, donc une
homothétie ; on note det u son rapport.
Proposition 2.7.2
– (i) Soit E = (e1 , . . . , en ) une base
2.7. Déterminants
283
de E, alors
det u = detE (u(e1 ), . . . , u(en ))
– (ii) det Id = 1, det λu = λn det u, det t u = det u
– (iii) det v ◦ u = det v det u
– (iv) u est un automorphisme de E si et seulement si
det u 6= 0.
Démonstration 2.7.6 Tout est presque immédiat ; (iii)
découle de ϕv◦u = ϕu ◦ ϕv et du fait que le rapport du
produit de deux homothéties est le produit des rapports.
284 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
2.7.4
Déterminant d’une matrice
Définition 2.7.5 Soit A ∈ Mk (n). On appelle déterminant
de A le déterminant de la famille de ses vecteurs
colonnes dans la base canonique. On a donc det A =
n
X
Y
ε(σ)
aj,σ(j) .
σ∈Sn
j=1
Proposition 2.7.3
– (i) Soit E = (e1 , . . . , en ) une base
de E, u ∈ L(E), alors det u = det Mat(u, E )
– (ii) det In = 1, det λA = λn det A, det t A = det A
– (iii) det AB = det A det B
– (iv) A est inversible si et seulement si det A 6= 0.
2.7. Déterminants
285
Démonstration 2.7.7 On a det u = detE (u(e1 ), . . . , u(en ))
ce qui n’est autre que det Mat(u, E) puisque les vecteurs
colonnes de cette matrice sont constitués des coordonnées
des u(ej ) dans la base E , ce qui montre (i). La formule
det t A = det A résulte de la remarque que nous avons
faite lors de la démonstration du fait que An (E) est de
dimension 1 : f0 = detE , soit encore
X
X
ε(σ)ξσ(1),1 . . . ξσ(n),n =
ε(σ)ξ1,σ(1) . . . ξn,σ(n)
σ∈Sn
σ∈Sn
Tout le reste s’obtient en traduisant les résultats similaires
sur les endomorphismes.
Proposition 2.7.4 Le déterminant d’une matrice dépend
286 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
linéairement de chacun de ses vecteurs colonnes (resp
lignes), le déterminant d’une matrice ne change pas si on
ajoute à une colonne (resp. ligne) une combinaison linéaire
des autres colonnes (resp. lignes). Si on effectue une permutation σ sur les colonnes (resp. lignes) d’une matrice,
son déterminant est multiplié par ε(σ). Application
Calcul par la méthode du pivot.
Démonstration 2.7.8 Evident de par la définition du
déterminant d’une matrice comme déterminant de la
famille de ses vecteurs colonnes (ou de ses vecteurs lignes
par transposition)
2.7. Déterminants
287
Théorème 2.7.5 (calcul des déterminants par blocs).
det
p
n−p
µ
p
n−p
A
0
B
C
¶
= det A. det C.
Démonstration
2.7.9 Notons M = (ai,j )1≤i,j≤n =
µ
¶
A B
, si bien que l’on a ai,j = 0 si i ≥ p + 1 et j ≤ p.
0 C
n
X
Y
On a alors det M =
ε(σ)
ak,σ(k) . Soit σ ∈ Sn ; s’il
σ∈Sn
k=1
existe k0 ∈ [p + 1, n] tel que σ(k0 ) ∈ [1, p], on a alors
288 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
ak0 ,σ(k0 ) = 0 et donc
n
Y
k=1
ak,σ(k) = 0. Autrement dit, les
seules permutations qui peuvent donner une contribution
non nulle au déterminant sont les permutations σ ∈ Sn
telles que σ([p + 1, n]) ⊂ [p + 1, n], c’est-à-dire vérifiant
σ([p + 1, n]) = [p + 1, n] et donc aussi σ([1, p]) = [1, p]. Une
telle permutation σ est entièrement définie par ses restrictions σ1 à [1, p] et σ2 à [p + 1, n], l’application σ 7→ (σ1 , σ2 )
étant bijective de l’ensemble de ces permutations sur
Sp × Sn−p . D’autre part, on voit immédiatement que toute
décomposition de σ1 et σ2 en produit de transpositions,
fournit une décomposition de σ en produit de transpositions, ce qui montre que ε(σ) = ε(σ1 )ε(σ2 ). On obtient
2.7. Déterminants
289
donc :
det M
=
X
ε(σ1 )ε(σ2 )
=
=
σ1 ∈Sp
ε(σ1 )
ak,σ1 (k)
k=1
σ1 ∈Sp
σ2 ∈Sn−p
X
p
Y
p
Y
k=1
det A. det C
ak,σ1 (k)
n
Y
ak,σ2 (k)
k=p+1
X
σ2 ∈Sn−p
ε(σ2 )
n
Y
ak,σ2 (k)
k=p+1
Corollaire 2.7.1 Le déterminant d’une matrice triangulaire par blocs est égal au produit des déterminants des blocs
diagonaux. Le déterminant d’une matrice triangulaire est
égal au produit de ses éléments diagonaux.
290 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
Démonstration 2.7.10 Récurrence évidente.
Définition 2.7.6 Soit A = (ai,j ) ∈ MK (n). On notera
Ak,l = (−1)k+l det(ai,j )i6=k,j6=l (cofacteur d’indice (k, l)). La
matrice (Ai,j ) ∈ MK (n) est appelée la comatrice de la matrice A.
Théorème 2.7.6 (développement d’un déterminant). On
a
n
X
∀i ∈ [1, n], det A =
ai,k Ai,k
k=1
2.7. Déterminants
291
(développement suivant la i-ième ligne)
∀j ∈ [1, n],
det A =
n
X
ak,j Ak,j
k=1
(développement suivant la j-ième colonne)
Démonstration 2.7.11 Par exemple sur les colonnes ;
soit (ε1 , . . . , εn ) la base canonique de K n , (c1 , . . . cn ) les
n
X
vecteurs colonnes de la matrice A. On a cj =
ak,j εk ,
k=1
d’où
det A
=
det(c1 , . . . , cn )
292 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
=
=
n
X
k=1
n
X
ak,j det(c1 , . . . , cj−1 , εk , cj+1 , . . . , cn )
ak,j ∆k,j
k=1
Par combinaisons linéaires de colonnes (pour éliminer les
termes de la k-ième ligne) puis par échange de lignes et de
colonnes, on obtient
¯
¯
0...0 ¯
¯1
¯0
¯
¯
¯
∆k,l = (−1)k+l ¯ .. (a )
¯ = (−1)k+l Ak,l
i,j i6=k,j6=l ¯
¯ .
¯
¯
0
2.7. Déterminants
293
Corollaire 2.7.2 At com A = t com A A = (det A)In . Si A
1 t
−1
est inversible, A =
com A.
det A
Démonstration 2.7.12 En effet (At com A)i,j
=
n
X
ai,k Aj,k . Mais ceci n’est autre que le développement
k=1
suivant la j-ième ligne du déterminant de la matrice B
obtenue à partir de A en remplaçant la j-ième ligne par la
i-ième. Si i = j, c’est donc det A. Si i 6= j, la matrice B a
deux lignes identiques, donc son déterminant est nul.
294 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
2.7.5
Application des déterminants à la
recherche du rang
Lemme 2.7.1 Soit A = (ai,j ) ∈ MK (m, n) et soit B =
(ai,j )i∈I,j∈J une sous-matrice de A (avec I ⊂ [1, m] et J ⊂
[1, n]. Alors rg B ≤ rg A.
Démonstration 2.7.13 Soit C = (ai,j )i∈[1,m],j∈J et soit
c1 , . . . , cn les vecteurs colonnes de A. Alors on a rg C =
rg(cj , j ∈ J ) ≤ rg(c1, . . . , cn ) = rg A. Mais soit d’autre
0
part l10 , . . . , lm
les vecteurs lignes de la matrice C. On a
0
rg B = rg(li0 , i ∈ I) ≤ rg(l10 , . . . , lm
) = rg C, d’où rg B ≤
rg A.
2.7. Déterminants
295
Soit alors r le rang de A. D’après le lemme précédent,
toute sous-matrice inversible B de A a une taille (un ordre)
plus petit que r. On a alors le théorème suivant
Théorème 2.7.7 Soit A = (ai,j ) ∈ MK (m, n) de rang r
et soit B = (ai,j )i∈I,j∈J une sous-matrice de A carrée inversible avec |I| = |J | < r. Alors il existe i0 ∈ [1, m]\ I, j0 ∈
[1, n] \ J tels que la matrice B 0 = (ai,j )i∈I∪{i0 },j∈J ∪{j0 } (matrice bordante de B dans A) soit encore inversible.
Démonstration 2.7.14 Soit C = (ai,j )i∈[1,m],j∈J et soit
c1 , . . . , cn les vecteurs colonnes de A. On a rg C ≤ |J | (car
C a |J | vecteurs colonnes) et rg C ≥ rg B = |J | (car B
est une sous-matrice de C). Donc rg C = |J | < r. Ceci
296 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
montre que la famille (cj )j∈J est libre. D’autre part dans
V = Vect(c1 , . . . , cn ), la famille (c1 , . . . , cn ) est génératrice.
Par le théorème de la base incomplète, il existe J 0 tel que
J ⊂ J 0 ⊂ [1, n] avec (cj )j∈J 0 base de V . Mais |J 0 | = dim V =
r > |J | donc on peut prendre un j0 ∈ J 0 \ J et la famille
(cj )j∈J∪{j0 } est encore libre. Soit D = (ai,j )i∈[1,m],j∈J∪{j0 } .
0
Le rang de D est donc |I| + 1. Soit l10 , . . . , lm
les vecteurs
colonnes de la matrice D. La matrice (ai,j )i∈I,j∈J∪{j0 } est
de rang |I| (elle a |I| lignes et contient la matrice B de
rang |I|), donc la famille (li0 )i∈I est de rang |I| alors que
la famille (li0 )i∈[1,m] est de rang |I| + 1. Le même argument
à base de théorème de la base incomplète montre que l’on
peut trouver i0 ∈ [1, m] \ I tel que la famille (li0 )i∈I∪{i0 } soit
encore libre. La matrice B 0 = (ai,j )i∈I∪{i0 },j∈J∪{j0 } est donc
2.7. Déterminants
297
inversible.
Remarque 2.7.1 Le théorème précédent montre donc
que toute sous-matrice inversible de taille strictement
inférieure à r peut être complétée en une autre sousmatrice inversible. On en déduit
Théorème 2.7.8 Soit A = (ai,j ) ∈ MK (m, n) de rang r.
Alors A contient des sous-matrices carrées inversibles de
rang r (sous-matrices principales). Une sous-matrice carrée
inversible est une sous-matrice principale si et seulement si
toutes ses matrices bordantes sont non inversibles.
298 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
Remarque 2.7.2 Ceci permet de rechercher théoriquement
le rang d’une matrice à l’aide de déterminants, en augmentant au fur et à mesure la taille des sous-matrices
inversibles.
2.7. Déterminants
2.7.6
299
Formes p-linéaires alternées
Proposition 2.7.5 Soit E un K-espace vectoriel,
f1 , . . . , fp ∈ E ∗ . Alors f1 ∧ . . . ∧ fp : E p → K définie
par (x1 , . . . , xp ) 7→ det(fi (xj ))1≤i≤p,1≤j≤p est une forme plinéaire alternée sur E.
Ceci va nous permettre d’exhiber une base de Ap (E)
en utilisant les deux lemmes suivants. Pour cela soit E un
K-espace vectoriel de dimension n et E = (e1 , . . . , en ) une
base de E de base duale E ∗ = (e∗1 , . . . , e∗n ).
Lemme 2.7.2 Soit f, g ∈ Ap (E) telles que pour toute
famille (i1 , . . . , ip ) vérifiant 1 ≤ i1 < i2 < . . . < ip ≤ n, on
ait f(ei1 , . . . , eip ) = g(ei1 , . . . , eip ). Alors f = g.
300 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
Démonstration 2.7.15 La relation f (ei1 , . . . , eip ) =
g(ei1 , . . . , eip ) reste encore vraie si i1, . . . , ip sont distincts
mais non ordonnés (il suffit de les réordonner par une
permutation σ, ce qui ne fait que multiplier les deux côtés
par ε(σ)). Elle est triviale si i1 , . . . , ip ne sont pas distincts
car alors les deux membres valent 0. Mais alors, on a en
n
X
posant xj =
ξi,j ei
i=1
f(x1 , . . . , xp ) =
X
ξi1 ,1 . . . ξip ,pf (ei1 , . . . , eip )
i1 ,...,ip ∈N
et la même chose pour g. Donc f = g.
2.7. Déterminants
301
Lemme 2.7.3 Soit 1 ≤ i1 < i2 < . . . < ip ≤ n et 1 ≤ j1 <
j2 < . . . < jp ≤ n. Alors
j ,...,j
e∗i1 ∧ . . . ∧ e∗ip (ej1 , . . . , ejp ) = δi11,...,ipp
(symbole de Kronecker)
Démonstration 2.7.16 Il est clair que e∗i1 ∧ . . . ∧
e∗i1 (ei1 , . . . , eip ) = 1 (la matrice ”fi (xj )” est l’identité).
Supposons donc que i1 = j1 , . . . , ik−1 = jk−1 , ik 6= jk . Si
ik < jk , on a pour tout l ∈ [1, p], ik 6= jl soit e∗jl (eik ) = 0.
La matrice ”fi (xj )” a donc sa k-ième ligne nulle et son
déterminant est donc nul. Si jk < ik , de manière similaire,
302 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
la k-ième colonne de la matrice est nulle. Dans les deux
cas, on trouve donc 0 comme résultat.
Théorème 2.7.9 La famille des (e∗i1 ∧. . .∧e∗ip )1≤i1 <i2 <...<ip ≤n
est une base de Ap (E) (qui est donc de dimension Cnp ).
Démonstration 2.7.17 Montrons que la famille est
génératrice. Soit f ∈ Ap (E) et
X
g =
f (ej1 , . . . , ejp )e∗j1 ∧ . . . ∧ e∗jp . Grâce
1≤j1 <j2 <...<jp ≤n
au lemme 2, si 1 ≤ i1 < i2 < . . . < ip ≤ n, on a
g(ei1 , . . . , eip ) = f (ei1 , . . . , eip ). D’après le lemme 1, on a
f = g. Il reste à montrer que la famille est libre. Supposons
2.7. Déterminants
que
X
1≤j1 <j2 <...<jp ≤n
303
λj1 ,...,jp e∗j1 ∧ . . . ∧ e∗jp = 0. Grâce au lemme
2, si 1 ≤ i1 < i2 < . . . < ip ≤ n on a
0 =
=
0(ei1 , . . . , eip )
X
1≤j1 <j2 <...<jp ≤n
λj1 ,...,jp e∗j1 ∧ . . . ∧ e∗jp (ei1 , . . . , eip ) = λi1 ,...,ip
ce qui montre que la famille est libre.
304 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
2.8
Systèmes linéaires
2.8.1
Position du problème
Soit A = (ai,j )1≤i≤m,1≤j≤n ∈ MK (m, n) et b1 , . . . , bm ∈
K. On considère le système d’équations aux inconnues
x1 , . . . , xn ∈ K

 a1,1 x1 + . . . + a1,n xn = b1
(L)
...

am,1 x1 + . . . + am,n xn = bm
On a diverses interprétations possibles d’un tel système
(en notant Cann la base canonique de K n ) :
2.8. Systèmes linéaires
–
–
–
–
305


x1
Interprétation matricielle : AX = B si X =  . . . 
xn


b1
et B =  . . . .
bm
Interprétation linéaire : u(x) = b si u : K n → K m est
telle que Mat(u, Cann , Canm ) et si x et b admettent
(x1 , . . . , xn ) et (b1 , . . . , bm ) comme coordonnées dans
les bases canoniques Cann et Canm .
Interprétation vectorielle : b = x1 c1 + . . . + xn cn , si
c1 , . . . , cn ∈ K m sont les vecteurs colonnes de la matrice A
Interprétation duale : f1(x) = b1 , . . . , fm (x) = bm si
306 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
fj désigne la forme linéaire sur K n , (x1 , . . . , xn ) 7→
aj,1x1 + . . . + aj,n xn .
Remarque 2.8.1 En remarquant que A est la matrice de
u dans les bases canoniques, mais aussi la matrice des coordonnées de (c1 , . . . , cn ) dans la base canonique de K m et la
transposée de la matrice de (f1 , . . . , fm ) dans la base duale
de la base canonique de K n , on obtient
Théorème 2.8.1 Avec les notations ci-dessus, on a
rg A = rg u = rg(c1 , . . . , cn ) = rg(f1 , . . . , fm ). Cette valeur
commune est appelée le rang du système.
2.8. Systèmes linéaires
2.8.2
307
Systèmes de Cramer
Définition 2.8.1 On appelle système de Cramer un
système d’équations linéaires vérifiant les conditions
équivalentes (qui toutes impliquent que m = n)
– (i) A est une matrice inversible
– (ii) u est un isomorphisme de K n sur K m
– (iii) (c1 , . . . , cn ) est une base de K m
– (iv) (f1 , . . . , fm ) est une base de (K n )∗
Théorème 2.8.2 (Résolution d’un système de Cramer)
Un système de Cramer admet une solution unique donnée
par
308 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
– (i) Interprétation matricielle : X = A−1 B
– (ii) Interprétation linéaire : x = u−1 (b)
– (iii) Interprétation vectorielle :
xj =
det(c1 , . . . , cj−1 , b, cj+1 , . . . , cn )
det(c1 , . . . , cn )
(formules de Cramer)
– (iv) Soit (v1 , . . . , vn ) la base duale de (f1 , . . . , fn ),
alors x = b1 v1 + . . . + bn vn .
Démonstration 2.8.1 Tout est évident sauf le (iii). Mais
on a b = x1 c1 + . . . + xn cn , soit
det(c1 , . . . , cj−1 , b, cj+1 , . . . , cn )
2.8. Systèmes linéaires
309
= det(c1 , . . . , cj−1 , x1c1 + . . . + xn cn , cj+1 , . . . , cn )
= xj det(c1 , . . . , cn )
en développant suivant la j-ième colonne (tous les autres
déterminants sont nuls car contenant deux fois la même
colonne ci ).
310 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
2.8.3
Théorème de Rouché-Fontené
Définition 2.8.2 On associe au système (L) le système dit
homogène

 a1,1x1 + . . . + a1,n xn = 0
(H)
...

am,1x1 + . . . + am,n xn = 0
On appelle SL l’ensemble des solutions du système linéaire,
SH celui du système homogène.
Proposition 2.8.1 SH est un sous-espace vectoriel de K n
de dimension égale à n − rg L. SL est soit vide, soit un
sous-espace affine de direction SH ; dans ce cas on obtient
2.8. Systèmes linéaires
311
la solution générale de (L) en ajoutant à une solution particulière, la solution générale de (H).
Démonstration 2.8.2 On a SH = Ker u d’où le fait qu’il
est un sous-espace vectoriel ; sa dimension est donnée par
le théorème du rang. De plus, si v ∈ SL , on a x ∈ SL ⇐⇒
u(x) = b = u(v) ⇐⇒ u(x − v) = 0 ⇐⇒ x − v ∈ SH .
Définition 2.8.3 Soit P = (ai,j )i∈I,j∈J une sous-matrice
principale de la matrice du système (L). On appelle
déterminants caractéristiques du système associés à la
312 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
sous-matrice principale P les m − r déterminants
µ
¶
(ai,j )i∈I,j∈J (bi )i∈I
∆i0 = det
(ai0 ,j )j∈J
bi0
avec i0 ∈ [1, m] \ I
Théorème 2.8.3 (Rouché-Fontené). Soit P une sousmatrice principale de la matrice du système (L). Alors
le système a des solutions si et seulement si les m − r
déterminants caractéristiques associés à P sont nuls. Dans
ce cas, l’ensemble des solutions de (L) est le même que
l’ensemble des solutions du système L0 obtenu en éliminant
les équations non principales. On résout ce système (L’),
2.8. Systèmes linéaires
313
en donnant des valeurs arbitraires aux inconnues non
principales et en déterminant les valeurs correspondantes
des inconnues principales par la résolution du système de
Cramer (de matrice P ) ainsi obtenu.
Démonstration 2.8.3 Etudions tout d’abord la compatibilité du système. On a
SL 6= ∅
⇐⇒
⇐⇒
⇐⇒
b ∈ Vect(c1 , . . . , cn )
dim Vect(c1 , . . . , cn , b) = dim Vect(c1 , . . . , cn )
rg ( A B ) = rg A
Soit donc P = (ai,j )i∈I,j∈J une sous-matrice principale
de A (avec |I| = |J | = r). Le système a des solutions si
314 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
et seulement si P est encore une sous-matrice principale de
( A B ), c’est-à-dire si et seulement si toutes les sous matrices bordantes de P dans ( A B ) sont non inversibles ; mais
ces matrices bordantes sont de deux types : soit des matrices bordantes dans A qui sont
µ forcément non inversibles,
¶
(ai,j )i∈I,j∈J (bi )i∈I
soit des matrices de la forme
, avec
(ai0 ,j )j∈J
bi0
i0 ∈ [1, m] \ I. On a noté ∆i0 le déterminant d’une telle
matrice : les ∆i0 , i ∈ [1, m] \ I sont les déterminants caractéristiques du système (il y en a m − r). Le système
a des solutions si et seulement si ces déterminants caractéristiques sont tous nuls.
Supposons la condition réalisée, soit (L0 ) le système
{ ai,1x1 + . . . + ai,n xn = bi , i ∈ I (système d’équations
2.8. Systèmes linéaires
315
principales associées à P ). On a clairement SL ⊂ SL0 .
Mais les deux systèmes ont même rang, si bien que
dim SL = dim SL0 . On a donc SL = SL0 . Or le système L0 se
résout facilement en l’écrivant sous la forme
X
X
ai,j xj = bi −
ai,j xj , i ∈ I
j∈J
j ∈J
/
On donne des valeurs arbitraires aux inconnues xj , j ∈
/ J
(inconnues non principales associées à la matrice P ) ; on
obtient alors un système de Cramer de matrice P qui permet de déterminer les xj , j ∈ J (les inconnues principales
associées à P ).
316 Chapitre 2. ALGEBRE LINEAIRE ELEMENTAIRE
2.8.4
Méthode du pivot
Appliquons la méthode du pivot sur les lignes de la matrice A en effectuant les opérations correspondantes sur la
matrice B. On obtient un nouveau système du type

α1,i1 xi1 + α1,i1 +1 xi1 +1 +
...
+ α1,n xn = β1



α2,i2 xi2 + α2,i2 +1 xi2 +1 + . . . + α2,n xn = β2




...

αr,ir xir + α1,ir +1 xir +1 + . . . + αr,n xn = βr


0 = βr+1




...


0 = βm
avec i1 < i2 < . . . < ir , αk,ik 6= 0 pour k ∈ [1, r]
2.8. Systèmes linéaires
317
Un tel système se résout immédiatement : il a des solutions si et seulement si βr+1 = . . . = βm = 0. Dans ce cas il
est équivalent au système formé des r premières équations.
Celui-ci se résout en donnant des valeurs arbitraires aux xj
pour j ∈
/ {i1 , . . . , ir } et en calculant les xik par résolution
d’un système triangulaire supérieur.
Application : recherche de l’inverse d’une matrice :
AX = Y ⇐⇒ X = A−1 Y .
Cours de mathématiques
par Denis Monasse
Table des
• Plan général
• Algèbre générale
• Algèbre linéaire
• Réduction des endomorphismes
• Topologie des espaces métriques
1.234,00
• Espaces vectoriels normés
43.009,45
• Comparaison des fonctions
96.000.000
• Suites et séries numériques
100.230,00
• Fonctions d’une variable réelle
1.234,00
• Intégration
43.009,45
• Suites et séries de fonctions
96.000.000
0100100010000100
1011011101111011
0100100010000100
Ed.1011011101111011
Vuibert
matières
0100100010000100
1011011101111011
0100100010000100
• Séries entières
1011011101111011
0100100010000100
• Formes quadratiques
1011011101111011
0100100010000100
• Formes hermitiennes
1011011101111011
0100100010000100
• Séries de Fourier 1011011101111011
0100100010000100
• Calcul différentiel1011011101111011
0100100010000100
• Equations différentielles
1011011101111011
0100100010000100
• Espaces affines 1011011101111011
0100100010000100
• Courbes
1011011101111011
0100100010000100
• Surfaces
1011011101111011
0100100010000100
• Intégrales multiples
1011011101111011
0100100010000100
• Index
1011011101111011
0100100010000100
Téléchargement