Telechargé par 25135ab82a

Ch01-reppels espace vercotriel

publicité
1. Compléments d’algèbre linéaire
Dans tout le chapitre, K désigne R ou C et E est un K-espace vectoriel.
I - Combinaisons linéaires — Bases
On généralise ici les notions étudiées en 1re année au cas d’un ensemble d’indices I non nécessairement
fini (complément hors programme en PSI).
1) Combinaisons linéaires
Définition : le support d’une famille de scalaires (λi )i∈I ∈ KI est {i ∈ I / λi = 0}. On note K(I)
l’ensemble des familles de scalaires à support fini.
Propriété : K(I) est un sous-espace vectoriel de KI , +, . .
Définition : soit F = (xi )i∈I une famille de vecteurs de E. On dit qu’un vecteur x de E est combinaison
linéaire des vecteurs de F si et seulement s’il existe une famille (λi )i∈I ∈ K(I) telle que
λi .xi (il s’agit d’une somme finie de vecteurs de E. . . ).
x=
i∈I
2) Bases
a) Familles génératrices
Soit F une famille de vecteurs de E. On dit que F est une famille génératrice de E si et seulement si
tout vecteur de E est combinaison linéaire des vecteurs de F.
b) Sous-espace engendré par une famille de vecteurs
Soit F une famille de vecteurs de E et F l’ensemble des combinaisons linéaires des vecteurs de F.
F est un sous-espace vectoriel de E ; c’est le plus petit sous-espace de E contenant les vecteurs de F.
F est noté Vect F, appelé le sous-espace vectoriel de E engendré par F (F est une famille génératrice
de Vect F !).
NB : une famille F est génératrice de E si et seulement si Vect F = E.
c) Familles libres
Soit F = (xi )i∈I une famille de vecteurs de E. On dit que F est libre si et seulement si la seule
combinaison linéaire nulle des vecteurs de F est celle dont tous les coefficients sont nuls :
∀(λi )i∈I ∈ K(I)
λi .xi = 0 =⇒ ∀i ∈ I
λi = 0 .
i∈I
F est libre si et seulement si toutes ses sous-familles finies sont libres.
Une partie A de E est dite libre si et seulement si la famille (x)x∈A est libre.
Par convention, ∅ est libre.
d) Bases
Soit F une famille de vecteurs de E.
On dit que F est une base de E si et seulement si F est libre et génératrice.
Une famille B = (ei )i∈I de vecteurs de E est une base de E si et seulement si tout vecteur de E s’écrit
de manière unique comme combinaison linéaire des vecteurs de B. Dans ce cas, si x =
λi .ei , la
famille (λi )i∈I est appelée la famille des coordonnées de x dans la base B.
Exemple : X k
k∈N
est une base de K [X], appelée la base canonique de K [X].
NB : l’existence de bases en dimension quelconque est liée à l’axiome du choix . . .
i∈I
1. Compléments d’algèbre linéaire
Page 2
e) Caractérisation d’une application linéaire par l’image d’une base
Théorème : soient E et F deux K-espaces vectoriels, B = (ei )i∈I une base de E et (yi )i∈I une famille
de vecteurs de F (indexées par le même ensemble I).
Il existe une unique application linéaire u de E dans F telle que : ∀i ∈ I u(ei ) = yi .
En outre ladite application linéaire u vérifie :
∗ Im u = Vect(yi )i∈I : u est surjective si et seulement si la famille (yi )i∈I engendre F .
∗ u est injective si et seulement si la famille (yi )i∈I est libre.
∗ u est bijective si et seulement si la famille (yi )i∈I est une base de F .
NB : dans le cas particulier où E = K(I) , muni de la base canonique (ei )i∈I , où ei = (δi,j )j∈I , Ker u est
l’ensemble des familles de coefficients des relations de dépendance linéaire de la famille (yi )i∈I
(la famille nulle mise à part !).
II - Structure d’algèbre
1) Définition
On appelle K-algèbre tout quadruplet (A, +, ., ×) où :
1) (A, +, .) est un K-espace vectoriel ;
2) (A, +, ×) est un anneau ;
3) ∀λ ∈ K ∀(x, y) ∈ A2
λ.(x × y) = (λ.x) × y = x × (λ.y)
Une K-algèbre (A, +, ., ×) est dite commutative si et seulement si × est en outre commutative.
NB : le point 3) et la distributivité de × par rapport à + reviennent à dire que l’application
(x, y) → x × y est bilinéaire de E × E dans E.
2) Exemples
1) K-algèbre commutative (K[X], +, ., ×) des polynômes à coefficients dans K.
2) K-algèbre (L(E), +, ., ◦) des endomorphismes d’un K-espace vectoriel E.
3) K-algèbre (Mn (K), +, ., ×) des matrices carrées d’ordre n à coefficients dans K.
III - Sommes directes de sous-espaces vectoriels
Dans tout ce paragraphe, I est un ensemble fini non vide.
1) Produit d’une famille finie de sous-espaces-vectoriels
On généralise la notion de produit cartésien de deux K-espaces vectoriels en définissant le produit d’une
famille finie (Ei )i∈I de K-espaces vectoriels, ensemble des familles de vecteurs de la forme (xi )i∈I où,
Ei .
pour tout i, xi ∈ Ei , ensemble noté
i∈I
Théorème :
Ei , +, .
est un K-espace vectoriel, les lois + et . étant définies par
i∈I
pour x = (xi )i∈I et y = (yi )i∈I dans
pour λ ∈ K et x = (xi )i∈I dans
i∈I
i∈I
Ei : x + y = (xi + yi )i∈I
Ei : λ.x = (λ.xi )i∈I
Propriété : si les Ei sont tous de dimension finie, alors
Ei est de dimension finie égale à
i∈I
dim Ei .
i∈I
1. Compléments d’algèbre linéaire
Page 3
2) Somme d’une famille finie de sous-espaces-vectoriels
Soient E un K-espace vectoriel et (Ei )i∈I une famille finie de sous-espaces vectoriels de E.
L’espace produit
Ei s’identifie au sous-espace vectoriel de E I (l’espace des familles de vecteurs de E
i∈I
indexées par I) formé des familles (xi )i∈I de E I telles que : ∀i ∈ I
xi ∈ Ei .
Théorème et définition : avec les notations précédentes, l’application ϕ :
Ei
→
(xi )i∈I
→
E
i∈I
est linéaire. Son image, notée
Ei , est un sous-espace vectoriel de E
i∈I
appelé somme des Ei , i ∈ I.
Ei est l’ensemble des sommes de la forme
i∈I
xi
i∈I
i∈I
xi , (xi )i∈I ∈
Ei .
i∈I
Ei est le plus petit sous-espace de E contenant les Ei , i ∈ I.
i∈I
Autrement dit :
Ei .
Ei = Vect
i∈I
i∈I
Cas particulier : si F , G sont deux sous-espaces de E,
F + G = {y + z, (y, z) ∈ F × G} = Vect (F ∪ G) .
3) Somme directe d’une famille finie de sous-espaces vectoriels
Définition : (mêmes notations) les Ei , i ∈ I sont dits en somme directe si et seulement si tout vecteur
x de
Ei s’écrit de manière unique sous la forme x =
xi , (xi )i∈I ∈
Ei
i∈I
i∈I
i∈I
(c’est-à-dire si et seulement si l’application linéaire ϕ du §1 est injective).
Si c’est le cas, le sous-espace
Ei est noté
Ei , appelé somme directe des Ei , i ∈ I.
i∈I
i∈I
Caractérisation : toujours avec les mêmes notations, les assertions suivantes sont équivalentes :
a) les Ei , i ∈ I sont en somme directe ;
b) ∀ (xi )i∈I ∈
c) ∀i ∈ I
xi = 0 ⇒ ∀i ∈ I
Ei
i∈I
xi = 0 ;
i∈I
Ei ∩
Ej
= {0} (i.e. l’intersection de chaque sous-espace avec la
j=i
somme des autres est réduite à {0}).
Attention ! Il ne suffit pas que les intersections des sous-espaces pris deux à deux soient réduites à
{0} (voir par exemple trois droites vectorielles distinctes dans un plan).
Dém. Je remarque tout d’abord que les assertions a) et b) sont toutes deux équivalentes à l’injectivité
de l’application linéaire ϕ : a) signifie par définition d’une somme directe que tout élément de Im ϕ
admet au plus un antécédent, tandis que b) signifie que Ker ϕ = {0}. J’en déduis par transitivité de
l’équivalence que a) et b) sont équivalentes.
Je montre ensuite l’équivalence entre b) et c) par double implication :
• b) ⇒ c) : je suppose b) et, pour prouver c), je fixe arbitrairement i dans I et je considère un
vecteur x élément de Ei ∩
Ej . Ainsi, d’une part x est élément de Ei , d’autre part x s’écrit
j=i
x=
xj
où xj ∈ Ej , pour tout j dans I\ {i} .
j=i
Je pose (habilement) xi = −x : la famille (xj )j∈I vérifie alors, par construction,
(xj )j∈I ∈
Ej
j∈I
et
xj = 0
j∈I
donc, d’après b), tous les xj sont nuls, en particulier x = 0. c) en résulte.
1. Compléments d’algèbre linéaire
Page 4
• c) ⇒ b): par contraposition, je suppose “non b)”, je dispose donc d’une famille (xi )i∈I dans
Ei
i∈I
de vecteurs dont la somme est nulle alors que les xi ne sont pas tous nuls. Soit donc i0 tel que
xi0 = 0. xi0 appartient à Ei0 et donc
xj = −xi0 est un vecteur non nul de Ei0 ∩
j=i0
Ej , ce
j=i0
qui prouve “non c)” et achève la démonstration.
Cas particulier : deux sous-espaces F , G de E sont en somme directe si et seulement si
F ∩ G = {0} .
F et G sont supplémentaires si et seulement si E = F ⊕ G.
NB : E =
Ei si et seulement si l’application ϕ est surjective ;
i∈I
E=
Ei si et seulement si ϕ est un isomorphisme, dans ce cas chaque Ei est un supplémentaire
i∈I
dans E de la somme des autres, à savoir Fi =
Ej (qui est également une somme directe).
j=i
4) Famille de projecteurs associée à une somme directe
Soit E =
i∈I
Ei ; on associe à cette décomposition de E la famille (pi )i∈I de projecteurs de E où, pour
tout i dans I, pi est la projection de E sur Ei parallèlement à Fi =
Ej (voir la remarque ci-dessus).
j=i
Alors, la décomposition de tout vecteur x de E suivant la somme directe
Ei n’est autre que
i∈I
x=
pi (x) .
i∈I
(En effet, soit x =
xj cette décomposition ; pour i fixé dans I, x s’écrit
j∈I
x = xi + yi ,
où xi ∈ Ei
et yi =
xj ∈ Fi ,
j=i
par conséquent xi est bien égal à pi (x), par définition de la projection pi .)
NB : la famille (pi )i∈I d’endomorphismes de E vérifie :
∗
pi = IdE (d’après la propriété précédente) ;
i∈I
∗ pour i, j distincts dans I, pi ◦ pj = 0 (car Im pj = Ej ⊂ Fi = Ker pi ).
Exercice : établir réciproquement que, si (pi )i∈I est une famille d’endomorphismes de E vérifiant les
deux propriétés ci-dessus, alors les pi sont des projecteurs de E, E =
Im pi et (pi )i∈I est — au sens
i∈I
précédent — la famille de projecteurs associée à cette décomposition de E.
Cas particulier de deux sous-espaces supplémentaires
Soient E = F ⊕ G et p, q les projecteurs associés, on a p + q = IdE , p ◦ q = q ◦ p = 0.
s = 2p − IdE et −s = 2q − IdE sont les symétries associées.
5) Prolongement linéaire d’applications linéaires
Théorème : soient E, F deux K-espaces vectoriels, (Ei )i∈I une famille finie de sous-espaces de E telle
que E =
Ei et, pour tout i dans I, ui une application linéaire de Ei dans F .
i∈I
Il existe alors une unique application linéaire u de E dans F telle que
∀i ∈ I
u|Ei = ui (la restriction de u à Ei est ui ).
En outre, u est définie par : ∀x ∈ E
u (x) =
ui [pi (x)],
i∈I
où (pi )i∈I est la famille de projecteurs associée à la décomposition E =
Dém. Analyse — synthèse. . .
Ei .
i∈I
1. Compléments d’algèbre linéaire
Page 5
NB : on se permet parfois d’écrire u =
ui ◦ pi car l’image de pi est incluse dans l’ensemble de départ
i∈I
de ui . . .
Exemple : si E1 est un sous-espace de E et u1 ∈ L (E1 , F ), on peut prolonger u1 en une application
linéaire de E dans F grâce au théorème précédent, en utilisant un supplémentaire E2 de
E1 dans E (en choisissant par exemple u2 = 0 ∈ L (E2 , F ) !).
u1 (x) si x ∈ E1
est bien un prolongement de u1 à E, mais non linéaire “en
0
sinon
général” (exercice : CNS sur E1 et u1 pour que u soit linéaire ?).
Attention ! u : x →
6) En dimension finie
Ici, E est un K-espace vectoriel de dimension finie.
Les résultats précédents s’appliquent bien sûr dans le cas particulier de la dimension finie.
On a en outre le :
Théorème : soit (Ei )i∈I une famille finie de sous-espaces vectoriels de E.
a) les Ei , i ∈ I, sont en somme directe si et seulement si dim
Ei
b) dans le cas où les Ei sont en somme directe, E est égal à
i∈I
Ei si et seulement si
i∈I
dim Ei .
dim E =
dim Ei ;
=
i∈I
i∈I
Dém. Soit S =
Ei ; l’application ϕ :
i∈I
Ei
→
(xi )i∈I
→
est linéaire et surjective.
S
i∈I
xi
i∈I
De plus, les Ei sont en somme directe si et seulement si ϕ est injective, donc si et seulement si ϕ est
un isomorphisme, soit si et seulement si
Ei et S sont de même dimension. Le a) en découle.
i∈I
Le b) est immédiat, compte tenu du a), puisque S est un sous-espace de E, donc E = S si et seulement
si dim S = dim E.
Exemple : si (ei )i∈I est une famille finie de vecteurs non nuls de E, les droites vectorielles K.ei sont en
somme directe si et seulement si la famille (ei )i∈I est libre.
Définition : (bases adaptées)
a) si F est un sous-espace de E, une base B = (e1 , . . . , en ) de E est dite adaptée à F si
et seulement si les premiers vecteurs de B forment une base de F ;
b) si E =
p
Ek , une base B de E est dite adaptée à la décomposition E =
k=1
p
Ek si et
k=1
seulement si les premiers vecteurs de B forment une base de E1 , les suivants une base
de E2 . . .
Fractionnement d’une base : si B = (e1 , . . . , en ) est une base de E et (I1 , . . . , Ip ) une partition de Nn ,
alors
p
E=
Vect (ei )i∈Ik .
k=1
IV - Isomorphismes classiques et applications
1) Isomorphisme de tout supplémentaire de Ker u dans Im u
Théorème : soient u ∈ L (E, F ) et E ′ un supplémentaire de Ker u dans E ;
alors u définit un isomorphisme de E ′ dans Im u, c’est-à-dire que
u′ : E ′ → Im u est un isomorphisme.
x → u (x)
1. Compléments d’algèbre linéaire
Page 6
Dém. L’application u′ est bien définie, linéaire comme u ; de plus :
• u′ est injective : si x ∈ Ker u′ , alors x ∈ E ′ et u (x) = 0, donc x ∈ E ′ ∩ Ker u d’où x = 0 puisque E ′
et Ker u sont supplémentaires ;
• u′ est surjective : soit y ∈ Im u ; par définition de Im u, je dispose d’un élément x de E tel que
u (x) = y ; comme E = E ′ ⊕ Ker u, x s’écrit x = x′ + z avec x′ ∈ E ′ et z ∈ Ker u. J’ai alors :
y = u (x) = u x′ + z = u x′ + u (z) = u′ x′
car x′ ∈ E ′ et z ∈ Ker u.
Donc tout élément de Im u admet au moins un antécédent par u′ .
En conclusion, u′ est linéaire et bijective, donc un isomorphisme de E ′ dans Im u.
Application — théorème du rang
Si E est de dimension finie et u ∈ L (E, F ) alors Im u est de dimension finie et
dim Im u + dim Ker u = dim E.
Corollaire : 1) Lorsque dim E = dim F = n, u est un isomorphisme si et seulement si rg u = n.
2) Le rang est invariant par composition avec un isomorphisme.
2) Isomorphisme entre deux supplémentaires d’un même sous-espace
Théorème : soient E ′ un sous-espace vectoriel de E, F1 et F2 deux supplémentaires de E ′ dans E ; la
projection de E sur F1 parallèlement à E ′ définit un isomorphisme de F2 dans F1 .
Dém. Soit p ∈ L (E) cette projection ; F2 est un supplémentaire dans E de E ′ qui n’est autre que
le noyau de p, tandis que F1 est l’image de p : le théorème du paragraphe précédent fournit donc le
résultat.
3) Application : notion d’hyperplan
Définition : on appelle hyperplan de E tout sous-espace de E admettant une droite pour supplémentaire.
Propriétés : soit H un hyperplan de E.
1) Si F est un sous-espace de E contenant H, alors F = H ou F = E.
2) Pour tout vecteur a de E\H, E = H ⊕ K.a.
3) Deux hyperplans quelconques de E sont isomorphes.
Dém. Fixons un vecteur b de E tel que E = H ⊕ K.b (il en existe par définition d’un hyperplan !).
1) Soit F un sous-espace de E contenant H. Deux cas se présentent :
• si b ∈ F , alors F contient H et K.b, donc F contient la somme H + K.b qui n’est autre que E tout
entier ( H + K.b est le plus petit — au sens de l’inclusion — des sous-espaces de E contenant H et
K.b) ; d’où F = E dans ce cas ;
• si b ∈
/ F , alors je montre que F = H ; j’ai déjà F ⊃ H, soit donc x un vecteur de F ; comme
E = H ⊕ K.b, je dispose de h dans H et de λ dans K tels que x = h + λ.b et nécessairement λ = 0
1
(sinon b = · (x − h) appartiendrait à F , d’où une contradiction) ; ainsi x = h appartient à H, ceci
λ
pour tout x de F , autrement dit F ⊂ H, ce qui achève la démonstration.
2) Soit a ∈ E\H ; H ∩ K.a = {0} (sinon a serait élément de H) ; de plus F = H + K.a est un
sous-espace de E contenant H et a, donc F = H d’où — grâce au 1) — F = E ; en conclusion, H et K.a
sont supplémentaires, ce qu’il fallait démontrer.
3) Soient H1 et H2 deux hyperplans de E, distincts (s’ils sont égaux, ils sont isomorphes !). Si j’avais
H1 ⊂ H2 , j’aurais H2 = E d’après 1), d’où une contradiction. Comme les rôles sont symétriques,
/ H2 et H2 ⊂
/ H1 ; il en résulte (classique !) que H1 ∪ H2 n’est pas stable par l’addition,
j’ai H1 ⊂
donc est strictement inclus dans E. Fixons donc a ∈ E\ (H1 ∪ H2 ) ; d’après 2), H1 et H2 sont
des supplémentaires de la même droite K.a ; il sont par conséquent isomorphes d’après le théorème
précédent.
1. Compléments d’algèbre linéaire
Page 7
Exemples :
1) Si E est de dimension finie n ≥ 1, les hyperplans de E sont les sous-espaces de dimension n − 1.
2) Dans K [X], pour α ∈ K, l’ensemble des multiples de X −α, polynôme de degré 1, admet pour supplémentaire la droite vectorielle K0 [X] = K ; c’est donc un hyperplan de K [X], égal à {P ∈ K [X] / P (α) = 0}
(le noyau de la forme linéaire P → P (α)).
V - Hyperplans et formes linéaires
1) Équations d’un hyperplan
Théorème : soit E un K-espace vectoriel, E = {0}.
1) Si ϕ est une forme linéaire non nulle sur E, H = Ker ϕ est un hyperplan de E
(dit l’hyperplan d’équation ϕ (x) = 0).
De plus, toute forme linéaire ψ nulle sur H est colinéaire à ϕ.
2) Si H est un hyperplan de E, alors il existe des formes linéaires sur E dont H est le
noyau. De plus, si H = Ker ϕ, alors l’ensemble des formes linéaires ψ sur E telles que
H = Ker ψ est {λ.ϕ, λ ∈ K∗ } (autrement dit l’équation de H est unique à un coefficient
multiplicatif non nul près).
1
Dém. 1) Soit ϕ forme linéaire non nulle sur E et b dans E tel que ϕ (b) = 0 ; je pose a =
· b, alors
ϕ (b)
ϕ (a) = 1. Montrons que tout vecteur x de E s’écrit de manière unique x = h + λ.a avec (h, λ) ∈ H × K
(où H = Ker ϕ).
Analyse : si le couple (h, λ) existe, nécessairement ϕ (x) = ϕ (h) + λϕ (a) = λ car ϕ (h) = 0 et ϕ (a) = 1,
la seule solution possible est donc donnée par λ = ϕ (x) et h = x − ϕ (x) .a.
Synthèse : je pose λ = ϕ (x) et h = x − ϕ (x) .a. J’ai bien x = h + λ.a,ϕ (h) = ϕ (x) − λϕ (a) = 0 donc
h ∈ H, et λ ∈ K.
En conclusion, E = H ⊕ K.a, ce qui prouve que H est un hyperplan de E.
Supposons maintenant ψ forme linéaire sur E, nulle sur H, c’est-à-dire que H ⊂ Ker ψ. H étant un
hyperplan et Ker ψ un sous-espace vectoriel de E, deux cas se présentent :
• soit Ker ψ = E ; alors ψ = 0 = 0.ϕ est bien colinéaire à ϕ ;
• soit Ker ψ = H = Ker ϕ ; je construis comme ci-dessus un vecteur a de E tel que ϕ (a) = 1 et
j’observe la forme linéaire δ = ψ − ψ (a) .ϕ ; il est clair que H ⊂ Ker δ et que a ∈ Ker δ ; ainsi
Ker δ contient H et K.a, donc leur somme qui n’est autre que E tout entier, donc δ = 0. Ainsi
ψ = ψ (a) .ϕ est là encore colinéaire à ϕ.
2) Soit H un hyperplan de E et a ∈ E\H ; j’ai vu au § 3) que E = H ⊕ K.a ; soient alors u
l’application linéaire de E dans K.a qui à tout x de E associe sa projection sur K.a parallèlement à H,
θ l’isomorphisme de K dans K.a qui à tout scalaire λ associe λ.a. Soit enfin ϕ = θ−1 ◦ u ; ϕ est une
forme linéaire sur E et, pour tout x de E : ϕ (x) = 0 ⇔ u (x) = 0 ⇔ x ∈ H.
Autrement dit, Ker ϕ = H.
Supposons pour finir que ϕ est une forme linéaire sur E telle que H = Ker ϕ. Il est alors immédiat que
toute forme linéaire ψ de la forme λ.ϕ, avec λ ∈ K∗ , vérifie Ker ψ = Ker ϕ = H. Réciproquement, soit
ψ forme linéaire sur E de noyau H ; d’après le 1) in fine, ψ est de la forme λ.ϕ, où λ est un scalaire,
nécessairement non nul (puisque Ker ψ = E). Cela achève la démonstration.
NB : si ϕ est une forme linéaire non nulle sur E et H = Ker ϕ, alors ϕ est surjective (son image est un
sous-espace vectoriel de K différent de {0} !) et ses lignes de niveau (les ensembles d’équation
ϕ (x) = k, k ∈ K) sont les hyperplans affines de E de direction H.
2) Cas où E est de dimension finie non nulle n
Dans E de dimension finie n > 0, le théorème de la base incomplète montre qu’il existe des hyperplans
(un seul si n = 1 !) et donc des formes linéaires non nulles (on peut aussi en définir directement par
l’image d’une base. . . ).
Les hyperplans de E sont exactement les sous-espaces vectoriels de E de dimension n − 1.
1. Compléments d’algèbre linéaire
Page 8
Équations (cartésiennes) d’un hyperplan dans une base :
Étant donnée une base B = (e1 , . . . , en ) de E, toute forme linéaire ϕ sur E est définie par son expression
analytique dans B : si x =
n
xk .ek , ϕ (x) =
k=1
n
ak xk (où ak n’est autre que le scalaire ϕ (ek )).
k=1
Si ϕ = 0, l’hyperplan Ker ϕ admet pour équation cartésienne dans la base B :
n
ak xk = 0.
k=1
Réciproquement, si (a1 , . . . , an ) est une famille de n scalaires non tous nuls,
n
est un hyperplan de E, appelé l’hyperplan d’équation
n
n
xk .ek ∈ E /
k=1
ak xk = 0
k=1
ak xk = 0 dans la base B.
k=1
Dans les deux cas, l’hyperplan considéré admet une infinité d’équations dans la base B, mais elles se
déduisent l’une de l’autre par multiplication par un scalaire non nul.
VI - Matrices semblables — Notion de trace
1) Changement de base pour un endomorphisme — Matrices semblables
Théorème : soient B et B′ deux bases d’un K-espace vectoriel de dimension finie E, P = PB,B′ et
u ∈ L(E). Si A est la matrice de u dans la base B et A′ la matrice de u dans la base B′ ,
alors A′ = P −1 AP .
Définition : deux matrices carrées A et B d’ordre n sont semblables si et seulement si :
∃P ∈ GLn (K) B = P −1 AP.
i.e. si et seulement si A et B représentent un même endomorphisme dans deux bases d’un
même K-espace vectoriel de dimension n.
NB : la relation “est semblable à” est une relation d’équivalence sur Mn (K), mais la description des
classes d’équivalence est non triviale. Nous ne verrons que des conditions nécessaires : si A et B
sont semblables, alors elles ont le même rang, le même déterminant, etc.
2) Trace d’une matrice carrée
Définition : soit A = (ai,j ) ∈ Mn (K) ; on appelle trace de A la somme des éléments de la diagonale
principale de A :
n
Tr A =
ak,k
k=1
Propriétés : 1) L’application Tr est une forme linéaire sur Mn (K).
2) ∀ (A, B) ∈ Mn (K)2 Tr (BA) = Tr (AB).
3) ∀P ∈ GLn (K) ∀A ∈ Mn (K) Tr P −1 AP = Tr A
(deux matrices semblables ont même trace).
Dém. 1) Vérification immédiate.
2) Soient A = (ai,j ) et B = (bi,j ) ; j’ai

n
Tr (AB) =
i=1
d’où le résultat par réindexation.
n

j=1

ai,j bj,i 
n
et
Tr (BA) =
i=1


n
j=1

bi,j aj,i 
3) D’après 2) :
Tr P −1 AP = Tr P −1 (AP ) = Tr (AP ) P −1 = Tr AP P −1 = Tr A .
Attention ! En général Tr(AB) = (Tr A)(Tr B) ; Tr(ABC) = Tr(BAC).
1. Compléments d’algèbre linéaire
Page 9
NB : dans Mn (R), le calcul précédent montre que, avec les mêmes notations,
n
n
Tr At B = Tr t AB =
ai,j bi,j
i=1 j=1
qui n’est autre que le produit scalaire canonique de A et B dans Mn (R).
On vérifie que, pour ce produit scalaire, le sous-espace des matrices symétriques et celui des
matrices antisymétriques sont supplémentaires orthogonaux.
3) Trace d’un endomorphisme
Théorème et définition : soit u un endomorphisme d’un K-espace vectoriel E de dimension finie ;
la trace de la matrice de u dans une base de E ne dépend pas du choix de
cette base, on l’appelle trace de u, notée Tr u.
Dém. Soient B et C sont deux bases de E et P la matrice de passage de B à C ; si A est la matrice de
u dans B, alors la matrice de u dans C est P −1 AP , qui a la même trace que A d’après le § 1).
Propriétés : 1) L’application Tr est une forme linéaire sur L (E).
2) ∀ (u, v) ∈ L (E)2 Tr (v ◦ u) = Tr (u ◦ v).
3) Le rang d’un projecteur est égal à sa trace.
Dém. 1) et 2) découlent du paragraphe précédent.
3) Soit p un projecteur de rang r ; dans une base adaptée à la décomposition E = Im p ⊕ Ker p,
Ir 0
p admet pour matrice
, d’où Tr p = r = rg p.
0 0
VII - Compléments sur les déterminants
1) Matrices définies par blocs
Étant données quatre matrices A1,1 ∈ Mn1 (K), A2,1 ∈ Mn2 ,n1 (K), A1,2 ∈ Mn1 ,n2 (K), A2,2 ∈ Mn2 (K),
A1,1 A1,2
on identifie le “tableau”
à une matrice de Mn1 +n2 (K), dite matrice définie par blocs.
A2,1 A2,2
A1,1 et A2,2 sont les blocs diagonaux (carrés par hypothèse, mais pas nécessairement de même taille).
Si A2,1 (resp. A1,2 ) est nul, la matrice est dite triangulaire supérieure (resp. inférieure) par blocs.
Si les deux blocs A2,1 et A1,2 sont nuls, la matrice est dite diagonale par blocs.
La transposée d’une matrice définie par blocs s’écrit naturellement, sans oublier de transposer les blocs !
La multiplication par un scalaire d’une matrice définie par blocs est naturelle.
L’addition de deux matrices A et B définies par blocs est naturelle également, si les blocs sont de
mêmes tailles (c’est-à-dire que les deux blocs Ai,j et Bi,j sont de même taille pour tout couple (i, j)
donné, mais il peut y avoir des blocs de tailles différentes selon les couples (i, j) !).
La multiplication de deux matrices définies par blocs, avec des blocs diagonaux de même taille
(c’est-à-dire que les deux blocs Ai,i et Bi,i sont carrés de même taille pour tout i donné), s’effectue selon
l’algorithme habituel, en traitant les blocs comme des scalaires (en laissant bien à gauche les blocs de
la matrice de gauche !). Ainsi, si A1,1 et B1,1 sont dans Mn1 (K), A2,1 et B2,1 dans Mn2 ,n1 (K), A1,2 et
B1,2 dansMn1 ,n2 (K), A2,2 et B2,2 Mn2 (K), on a
A1,1 A1,2
B1,1 B1,2
×
A2,1 A2,2
B2,1 B2,2
=
A1,1 B1,1 + A1,2 B2,1 A1,1 B1,2 + A1,2 B2,2
.
A2,1 B1,1 + A2,2 B2,1 A2,1 B1,2 + A2,2 B2,2
On obtient une matrice définie par blocs, avec des blocs de mêmes tailles que ceux des deux matrices
que l’on a multipliées. Notamment, les puissances positives d’une matrice définie par blocs s’écrivent
par blocs de la même taille que ceux de la matrice initiale.
Toutes ces définitions et propriétés se généralisent par récurrence à des matrices comportant un plus
grand nombre de blocs.
1. Compléments d’algèbre linéaire
Page 10
2) Déterminant d’une matrice triangulaire par blocs
Rappel : le déterminant d’une matrice triangulaire est le produit des coefficients de la diagonale.
Généralisation : le déterminant d’une matrice triangulaire par blocs est le produit des déterminants
des blocs diagonaux (qui sont carrés par définition).
Corollaire : une matrice triangulaire par blocs est inversible si et seulement si tous ses blocs diagonaux
sont inversibles.
3) Exemples de déterminants
a) Matrices aI + bU
Soit U la matrice de Mn (K) dont tous les coefficients valent 1 et I la matrice identité de Mn (K). Pour
(a, b) ∈ K2 on a
det (aI + bU ) = (a + nb) an−1 .
b) Matrices tridiagonales
Pour a, b, c dans K, la suite (∆n )n∈N∗ définie par
∗
∀n ∈ N
a
c
b
a
∆n = 0
..
.
b
..
.
···
..
.
c
.. ..
.
.
..
. a
0
0 ··· 0
vérifie la relation de récurrence linéaire double
∀n ≥ 3 ∆n = a∆n−1 − bc∆n−2
b
0
..
.
0
(déterminant d’ordre n)
c
a
(à retrouver par deux développements consécutifs. . . ).
On en déduit l’expression de ∆n en fonction de n grâce à l’équation caractéristique associée, sachant
que
∆1 = a et ∆2 = a2 − bc.
On peut remarquer (habilement) que la relation ci-dessus reste vraie pour n = 2 en posant ∆0 = 1, ce
qui peut simplifier les calculs. . .
c) Produit tensoriel
Pour A =
a c
∈ M2 (K) et B ∈ Mn (K), on définit par blocs la matrice
b d
A⊗B =
aB cB
bB dB
∈ M2n (K) . On a det (A ⊗ B) = det (A)n det (B)2 .
4) Déterminant de Vandermonde
Pour tout n dans N, on définit la fonction Vn+1 de
1
1
.
∀ (a0 , . . . , an ) ∈ Kn Vn+1 (a0 , . . . , an ) = ..
..
.
1
On peut montrer que :
∀ (a0 , . . . , an ) ∈ Kn+1
Kn+1 dans K
a0 a20 · · ·
a1 a21 · · ·
..
..
.
.
..
..
.
.
an a2n · · ·
par
an0
an1
..
.
..
.
ann
j−1
= det ai−1
1≤i,j≤n+1
(aj − ai ) .
Vn+1 (a0 , . . . , an ) =
0≤i<j≤n
Noter que l’on pouvait prévoir que ce déterminant est non nul si et seulement si les aj sont distincts
deux à deux ; en effet c’est le déterminant de la matrice, dans les bases canoniques, de l’application
linéaire
φ : Kn [X] → Kn+1
P
→ P (a0 ) , . . . , P (an )
liée aux polynômes de Lagrange évoqués ci-après.
1. Compléments d’algèbre linéaire
Page 11
Interpolation de Lagrange (hors programme mais très classique)
Soient a0 , . . . , an dans K, distincts deux à deux.
L’application φ : Kn [X] → Kn+1
P
→ P (a0 ) , . . . , P (an )
est un isomorphisme.
En effet φ est linéaire et injective (car un polynôme de degré au plus n admettant n+1 racines distinctes
est nécessairement nul), entre deux K-espaces vectoriels de même dimension.
On en déduit en particulier, pour tout b = (b0 , . . . , bn ) de Kn+1 , l’existence et l’unicité de P dans Kn [X]
tel que
∀j ∈ {0, . . . , n} P (aj ) = bj .
Pour expliciter ce polynôme d’interpolation P , il suffit de remarquer que les polynômes Li définis par
X − ak
∀i ∈ {0, . . . , n} Li =
.
ai − ak
k=i
vérifient :
∀ (i, j) ∈ {0, . . . , n}2
1 si i = j
0 si i = j
Li (aj ) = δ i,j =
On en déduit par unicité de P que
(symbole de Kronecker).
(1)
n
P =
bi .Li .
i=0
NB : les relations (1) signifient que les Li sont les antécédents par φ des vecteurs de la base canonique
de Kn+1 . Si besoin, on peut retrouver l’expression de Li à partir de ces relations : Li est de degré
au plus n, admet les n racines distinctes (ak )k=i et Li (ai ) = 1, cette dernière relation permettant
de déterminer le coefficient dominant de Li .
VIII - Applications des déterminants
1) Orientation d’un R-espace vectoriel
Théorème et définition : soient E un R-espace vectoriel de dimension n ≥ 1, B et B′ deux bases
de E ; on dit que B′ est de même orientation que B si et seulement si la
matrice de passage PB,B′ a un déterminant strictement positif.
La relation ainsi définie sur l’ensemble des bases de E est une relation
d’équivalence, pour laquelle il existe exactement deux classes d’équivalence.
Orienter E, c’est choisir l’une de ces deux classes, dont les éléments sont
appelés bases directes, les autres étant les bases indirectes (ou rétrogrades).
Dém. Tout vient des propriétés des matrices de passages. . . Rappelons que, si B, B′ et B′′ sont trois
bases de E, alors on a la relation
PB,B′′ = PB,B′ × PB′ ,B′′
En effet, si X, X ′ , X ′′ sont les vecteurs colonnes des coordonnées d’un même vecteur x de E respectivement dans B, B′ , B′′ ,
X = PB,B′ X ′ = PB,B′ PB′ ,B′′ X ′′ = (PB,B′ × PB′ ,B′′ ) X ′′ .
On en déduit le résultat en prenant pour x les vecteurs de B′′ , ce qui donne les colonnes de PB,B′′ .
• La relation est réflexive car PB,B = In est de déterminant 1 et 1 > 0 !
−1
• La relation est symétrique car PB′ ,B = PB,B
′ , donc les déterminants de PB,B ′ et PB ′ ,B sont de même
signe puisque ce sont deux réels inverses l’un de l’autre.
• La relation est transitive car le déterminant du produit de deux matrices de déterminant positif est
positif. . .
Nous avons donc bien une relation d’équivalence.
• Il y a au moins deux classes d’équivalences, car si B = (e1 , . . . , en ) est une base de E, alors
B′ = (−e1 , . . . , en ) n’est pas de même orientation que B, puisque det PB,B′ = −1 < 0.
1. Compléments d’algèbre linéaire
Page 12
• Il n’y a que deux classes d’équivalence, car si B, B′ sont comme ci-dessus et si B′′ est un troisième
base de E, alors
det PB,B′′ = − det PB′ ,B′′
donc l’un de ces deux déterminants est positif, c’est-à-dire que B′′ est soit dans la classe de B, soit
dans la classe de B′ .
NB : le choix de l’une des deux orientations est purement conventionnel. Sur une droite, il s’agit
intuitivement de “mettre une flèche” d’un côté ou de l’autre, pour définir un axe. En dimension
2 ou 3, il y a des orientations “usuelles” : sens trigonométrique dans le plan, orientation testée
par diverses méthodes (trois doigts, bonhomme d’Ampère, tire-bouchon. . . ) en dimension 3.
Propriété : soit u ∈ GL (E) ; la base B′ = u (e1 ) , . . . , u (en )
B = (e1 , . . . , en ) si et seulement si det u > 0.
est de même orientation que
Dém. Il suffit de remarquer que, si A désigne la matrice de u dans B, alors
PB,B ′ = MB u (e1 ) , . . . , u (en ) = A
et donc
det PB,B′ = det A = det u,
d’où le résultat !
2) Comatrice (hors programme mais classique)
Soit M ∈ Mn (K) ; on appelle comatrice de M la matrice des cofacteurs des éléments de M :
Com M = (Ai,j )1≤i,j≤n .
On a alors les relations :
M × t (Com M ) = t (Com M) × M = (det M) .In
donc, si det M = 0 :
M −1 =
1
· t (Com M ) .
det M
3) Formules de Cramer (hors programme mais classiques)




x1
b1




Soit (S) : MX = B un système linéaire, où X =  ...  et B =  ...  et M ∈ GLn (K).
xn
bn
Un tel système est dit système de Cramer ; il admet pour unique solution X = M −1 B quel que soit B.
La solution de (S) est donnée par :
∀j ∈ Nn
xj =
det Mj
(formules de Cramer)
det M
où Mj est la matrice de Mn (K) obtenue en remplaçant dans M la colonne j par le second membre B.
Dém. Soient C1 , . . . , Cn les vecteurs colonnes de M et (x1 , . . . , xn ) la solution de (S), ce qui signifie que
n
B=
xj .Cj ; j’obtiens alors, par définition de Mj et par linéarité par rapport à la j-ième variable,
j=1
en notant B la base canonique de Kn :
det (Mj ) = detB (C1 , . . . , Cj−1 , B, Cj+1 , . . . , Cn )
n
= detB C1 , . . . , Cj−1 ,
xk .Ck , Cj+1 , . . . , Cn
k=1
n
=
xk . detB (C1 , . . . , Cj−1 , Ck , Cj+1 , . . . , Cn )
k=1
= xj . det (M)
car pour k = j il y a deux vecteurs identiques dans la famille. Le résultat en découle.
NB : ce résultat n’est pas très efficace en pratique, mais il a un intérêt théorique, faisant apparaître
l’expression des solutions sous forme de “fonctions rationnelles”. . .
Téléchargement