Ch 02 - Compléments d`algèbre linéaire

publicité
2. Compléments d’algèbre linéaire
Dans tout le chapitre, K désigne un corps de caractéristique nulle et E un K-espace vectoriel.
Sauf indication contraire, on admettra que les résultats vus en MPSI (dans le cas particulier où K était
R ou C) s’étendent.
I - Combinaisons linéaires — Bases
On généralise ici les notions étudiées en MPSI au cas d’un ensemble d’indices I non nécessairement fini.
1) Combinaisons linéaires
Définition : le support d’une famille de scalaires (λi )i∈I ∈ K I est {i ∈ I / λi = 0}. On note K (I)
l’ensemble des familles de scalaires à support fini.
Propriété : K (I) est un sous-espace vectoriel de K I , +, . .
Définition : soit F = (xi )i∈I une famille de vecteurs de E. On dit qu’un vecteur x de E est combinaison
(I)
linéaire
des vecteurs de F si et seulement s’il existe une famille (λi )i∈I ∈ K telle que
λi .xi (il s’agit d’une somme finie de vecteurs de E . . . ).
x=
i∈I
2) Bases
a) Familles génératrices
Soit F une famille de vecteurs de E. On dit que F est une famille génératrice de E si et seulement si
tout vecteur de E est combinaison linéaire des vecteurs de F.
b) Sous-espace engendré par une famille de vecteurs
Soit F une famille de vecteurs de E et F l’ensemble des combinaisons linéaires des vecteurs de F.
F est un sous-espace vectoriel de E ; c’est le plus petit sous-espace de E contenant les vecteurs de F.
F est noté Vect F, appelé le sous-espace vectoriel de E engendré par F (F est une famille génératrice
de Vect F !).
NB : une famille F est génératrice de E si et seulement si Vect F = E.
c) Familles libres
Soit F = (xi )i∈I une famille de vecteurs de E. On dit que F est libre si et seulement si la seule
combinaison linéaire nulle des vecteurs deF est celle dont tous les coefficients
sont nuls :
∀(λi )i∈I ∈ K (I)
λi .xi = 0 =⇒ ∀i ∈ I λi = 0 .
i∈I
F est libre si et seulement si toutes ses sous-familles finies sont libres.
Une partie A de E est dite libre si et seulement si la famille (x)x∈A est libre.
Par convention, ∅ est libre.
d) Bases
Soit F une famille de vecteurs de E.
On dit que F est une base de E si et seulement si F est libre et génératrice.
Une famille B = (ei )i∈I de vecteurs de E est une base de E si et seulement si tout vecteur de E s’écrit
de manière unique comme combinaison linéaire des vecteurs de B. Dans ce cas, si x =
λi .ei , la
famille (λi )i∈I est appelée la famille des coordonnées de x dans la base B.
Exemple : X k k∈N est une base de K [X], appelée la base canonique de K [X].
NB : l’existence de bases en dimension quelconque est liée à l’axiome du choix . . .
i∈I
2. Compléments d’algèbre linéaire
Page 2
e) Caractérisation d’une application linéaire par l’image d’une base
Théorème : soient E et F deux K-espaces vectoriels, B = (ei )i∈I une base de E et (yi )i∈I une famille
de vecteurs de F (indexées par le même ensemble I).
Il existe une unique application linéaire u de E dans F telle que : ∀i ∈ I u(ei ) = yi .
En outre :
∗ Im u = Vect(yi )i∈I .
u est surjective si et seulement si la famille (yi )i∈I est génératrice de F .
∗ u est injective si et seulement si la famille (yi )i∈I est libre.
∗ u est bijective si et seulement si la famille (yi )i∈I est une base de F .
NB : dans le cas particulier où E = K (I) , muni de la base canonique (ei )i∈I , où ei = (δ i,j )j∈I , Ker u
est l’ensemble des familles de coefficients des relations de dépendance linéaire de la famille (yi )i∈I
(la famille nulle mise à part !).
II - Structure d’algèbre
1) Définition
On appelle K-algèbre tout quadruplet (A, +, ., ×) où :
1) (A, +, .) est un K-espace vectoriel ;
2) (A, +, ×) est un anneau ;
3) ∀λ ∈ K
∀(x, y) ∈ A2
λ.(x × y) = (λ.x) × y = x × (λ.y)
Une K-algèbre (A, +, ., ×) est dite commutative si et seulement si × est en outre commutative.
NB : le point 3) et la distributivité de × par rapport à + reviennent à dire que l’application
(x, y) → x × y est bilinéaire de E × E dans E.
Exemples : 1) K-algèbre commutative (K[X], +, ., ×) des polynômes à coefficients dans K.
2) K-algèbre (L(E), +, ., ◦) des endomorphismes d’un K-espace vectoriel E.
3) K-algèbre (Mn (K), +, ., ×) des matrices carrées d’ordre n à coefficients dans K.
2) Morphismes d’algèbres — Sous-algèbres
On appelle morphisme d’algèbres tout morphisme d’anneaux linéaire entre deux algèbres.
On appelle sous-algèbre d’une algèbre (A, +, ., ×) tout sous-espace vectoriel B de (A, +, .) qui est un
sous-anneau de (A, +, ×).
Exemples : 1) Les fonctions polynomiales, les fonctions de classe C k sur R, constituent des sousalgèbres de (F (R, R) , +, ., ×).
2) Les matrices diagonales (resp. triangulaires supérieures, inférieures) constituent des
sous-algèbres de (Mn (K), +, ., ×).
3) Algèbre des fonctions polynomiales sur Rn ou Cn
Ici n ∈ N∗ et K = R ou K = C.
On appelle fonction monomiale de Kn dans K toute fonction de la forme
ϕk : (x1 , . . . , xn ) → xk11 · · · xknn
où k = (k1 , . . . , kn ) ∈ Nn .
On appelle algèbre des fonctions polynomiales sur Kn la sous-algèbre de F (Kn , K) engendrée par la
famille (ϕk )k∈Nn .
Propriétés : 1) Cette algèbre est commutative et intègre.
2) (ϕk )k∈Nn est une base de cette algèbre, appelée base canonique.
2. Compléments d’algèbre linéaire
Page 3
III - Sommes directes de sous-espaces vectoriels
Dans tout ce paragraphe, I est un ensemble fini non vide.
1) Somme d’une famille finie de sous-espaces-vectoriels
Soient E un K-espace vectoriel et (Ei )i∈I une famille finie de sous-espaces vectoriels de E. On note E I
l’espace des familles de vecteurs de E indexées par I et
Ei le sous-espace de E I formé des familles
i∈I
(xi )i∈I de E I telles que : ∀i ∈ I
xi ∈ Ei .
Théorème et définition : avec les notations précédentes, l’application ϕ :
Ei
→
(xi )i∈I
→
i∈I
est linéaire. Son image, notée
E
xi
i∈I
Ei , est un sous-espace vectoriel de E
i∈I
appelé somme des Ei , i ∈ I.
Ei est l’ensemble des sommes de la forme
xi , (xi )i∈I ∈
Ei .
i∈I
i∈I
i∈I
Ei est le plus petit sous-espace de E contenant les Ei , i ∈ I.
i∈I
Autrement dit :
Ei = Vect
i∈I
i∈I
Ei .
Cas particulier : si F , G sont deux sous-espaces de E,
F + G = {y + z, (y, z) ∈ F × G} = Vect (F ∪ G) .
2) Somme directe d’une famille finie de sous-espaces vectoriels
Définition : (mêmes
si et seulement si
tout vecteur
notations) les Ei , i ∈ I sont dits en somme directe x de
Ei s’écrit de manière unique sous la forme x =
xi , (xi )i∈I ∈
Ei
i∈I
i∈I
i∈I
(c’est-à-dire si et seulement si
l’application linéaire
ϕ du §1 est injective).
Si c’est le cas, le sous-espace
Ei est noté
Ei , appelé somme directe des Ei , i ∈ I.
i∈I
i∈I
Caractérisation : toujours avec les mêmes notations, les assertions suivantes sont équivalentes :
a) les Ei , i ∈ I sont en somme directe ;
b) ∀ (xi )i∈I ∈
Ei
xi = 0 ⇒ ∀i ∈ I xi = 0 ;
i∈I
c) ∀i ∈ I
i∈I


Ei ∩ 
Ej  = {0} (i.e. l’intersection de chaque sous-espace avec la
j=i
somme des autres est réduite à {0}).
Attention ! Il ne suffit pas que les intersections des sous-espaces pris deux à deux soient réduites à
{0} (voir par exemple trois droites vectorielles distinctes dans un plan).
Dém. Je remarque tout d’abord que les assertions a) et b) sont toutes deux équivalentes à l’injectivité
de l’application linéaire ϕ : a) signifie par définition d’une somme directe que tout élément de Im ϕ
admet au plus un antécédent, tandis que b) signifie que Ker ϕ = {0}. J’en déduis par transitivité de
l’équivalence que a) et b) sont équivalentes.
Je montre ensuite l’équivalence entre b) et c) par double implication :
2. Compléments d’algèbre linéaire
Page 4
• b) ⇒ c) : je suppose
pour prouver c), je fixe arbitrairement i dans I et je considère un vecteur
 b) et, 
x élément de Ei ∩ 
Ej . Ainsi, d’une part x est élément de Ei , d’autre part x s’écrit
j=i
x=
xj
où xj ∈ Ej , pour tout j dans I\ {i} .
j=i
Je pose (habilement) xi = −x : la famille (xj )j∈I vérifie alors, par construction,
Ej et
xj = 0
(xj )j∈I ∈
j∈I
j∈I
donc, d’après b), tous les xj sont nuls, en particulier x = 0. c) en résulte.
• c) ⇒ b): par contraposition, je suppose “non b)”, je dispose donc d’une famille (xi )i∈I dans
Ei
i∈I
de vecteurs dont la somme est nulle alors que les xi ne sont pas tous nuls. Soit donc
 i0 telque
xi0 = 0. xi0 appartient à Ei0 et donc
xj = −xi0 est un vecteur non nul de Ei0 ∩ 
Ej , ce
j=i0
j=i0
qui prouve “non c)” et achève la démonstration.
Cas particulier : deux sous-espaces F , G de E sont en somme directe si et seulement si
F ∩ G = {0} .
NB : E =
E=
i∈I
Ei si et seulement si l’application ϕ est surjective ;
Ei si et seulement si ϕ est un isomorphisme, dans ce cas chaque Ei est un supplémentaire
i∈I
dans E de la somme des autres, à savoir Fi =
Ej (qui est également une somme directe).
j=i
3) Famille de projecteurs associée à une somme directe
Soit E =
Ei ; on associe à cette décomposition de E la famille (pi )i∈I de projecteurs de E où, pour
i∈I
tout i dans I, pi est la projection de E sur Ei parallèlement à Fi =
Ej (voir la remarque ci-dessus).
j=i
Alors, la décomposition de tout vecteur x de E suivant la somme directe
x=
(En effet, soit x =
Ei n’est autre que
i∈I
pi (x) .
i∈I
xj cette décomposition ; pour i fixé dans I, x s’écrit
j∈I
x = xi + yi ,
où xi ∈ Ei
et yi =
xj ∈ Fi ,
j=i
par conséquent xi est bien égal à pi (x), par définition de la projection pi .)
NB : La famille (pi )i∈I d’endomorphismes de E vérifie :
∗
pi = IE (d’après la propriété précédente) ;
i∈I
∗ pour i, j distincts dans I, pi ◦ pj = 0 (car Im pj = Ej ⊂ Fi = Ker pi ).
Exercice : établir réciproquement que, si (pi )i∈I est une famille d’endomorphismes de E vérifiant les
deux propriétés ci-dessus, alors les pi sont des projecteurs de E, E =
Im pi et (pi )i∈I est — au sens
i∈I
précédent — la famille de projecteurs associée à cette décomposition de E.
2. Compléments d’algèbre linéaire
Page 5
Cas particulier de deux sous-espaces supplémentaires
Soient E = F ⊕ G et p, q les projecteurs associés, on a p + q = IE , p ◦ q = q ◦ p = 0.
s = 2p − IE et −s = 2q − IE sont les symétries associées.
Exemple fondamental : dans E = K [X], soit B de degré n + 1 (n ∈ N) et F l’ensemble des multiples
de B : F = {BQ, Q ∈ K [X]}.
F est un sous-espace vectoriel de E, admettant pour supplémentaire G = Kn [X] (sous-espace des
polynômes de degré au plus égal à n). La décomposition de tout polynôme P de E suivant la somme
directe F ⊕ G correspond à la division euclidienne de P par B.
4) Prolongement linéaire d’applications linéaires
Théorème : soient E, F deux K-espaces vectoriels, (Ei )i∈I une famille finie de sous-espaces de E telle
que E =
Ei et, pour tout i dans I, ui une application linéaire de Ei dans F .
i∈I
Il existe alors une unique application linéaire u de E dans F telle que
∀i ∈ I
u|Ei = ui (la restriction de u à Ei est ui ).
En outre, u est définie par
∀x ∈ E
u (x) =
ui [pi (x)] ,
i∈I
où (pi )i∈I est la famille de projecteurs associée à la décomposition E =
Ei .
i∈I
NB : on se permet parfois d’écrire u =
ui ◦ pi car l’ensemble d’arrivée de pi est inclus dans
i∈I
l’ensemble départ de ui est Ei . . .
Dém. Analyse — synthèse. . .
Exemple : si E1 est un sous-espace de E et u1 ∈ L (E1 , F ), on peut prolonger u1 en une application
linéaire de E dans F grâce au théorème précédent, en utilisant un supplémentaire E2 de
E1 dans E (en choisissant par exemple u2 = 0 ∈ L (E2 , F ) !).
u1 (x) si x ∈ E1
est bien un prolongement de u1 à E, mais non linéaire “en
Attention ! u : x →
0
sinon
général” (exercice : CNS sur E1 et u1 pour que u soit linéaire ?).
5) En dimension finie
Ici, E est un K-espace vectoriel de dimension finie.
Les résultats précédents s’appliquent bien sûr dans le cas particulier de la dimension finie.
On a en outre le :
Théorème : soit (Ei )i∈I une famille finie de sous-espaces vectoriels de E. a) les Ei , i ∈ I, sont en somme directe si et seulement si dim
Ei =
dim Ei ;
i∈I
b) dans le cas où les Ei sont en somme directe, E est égal à
dim E =
i∈I
Ei si et seulement si
i∈I
dim Ei .
i∈I
Dém. Soit S =
i∈I
Ei ; l’application ϕ :
Ei
→
(xi )i∈I
→
i∈I
S
est linéaire et surjective.
xi
i∈I
et seulement si ϕ est injective, donc si et seulement si ϕ est
De plus, les Ei sont en somme directe si
un isomorphisme, soit si et seulement si
Ei et S sont de même dimension. Le a) en découle.
i∈I
Le b) est immédiat, compte tenu du a), puisque S est un sous-espace de E, donc E = S si et seulement
si dim S = dim E.
2. Compléments d’algèbre linéaire
Page 6
Exemple : si (ei )i∈I est une famille finie de vecteurs non nuls de E, les droites vectorielles K.ei sont en
somme directe si et seulement si la famille (ei )i∈I est libre.
Définition : (bases adaptées)
a) si F est un sous-espace de E, une base B = (e1 , . . . , en ) de E est dite adaptée à F si
et seulement si les premiers vecteurs de B forment une base de F ;
p
p
Ei , une base B de E est dite adaptée à la décomposition E =
Ei si et
b) si E =
i=1
i=1
seulement si les premiers vecteurs de B forment une base de E1 , les suivants une base
de E2 ,. . .
IV - Quelques isomorphismes classiques
1) Isomorphisme de tout supplémentaire du noyau de u dans son image
Théorème : soient u ∈ L (E, F ) et E ′ un supplémentaire de Ker u dans E ;
alors u définit un isomorphisme de E ′ dans Im u, c’est-à-dire que
u′ : E ′ → Im u est un isomorphisme.
x → u (x)
Dém. L’application u′ est bien définie, linéaire comme u ; de plus :
• u′ est injective : si x ∈ Ker u′ , alors x ∈ E ′ et u (x) = 0, donc x ∈ E ′ ∩ Ker u d’où x = 0 puisque E ′
et Ker u sont supplémentaires ;
• u′ est surjective : soit y ∈ Im u ; par définition de Im u, je dispose d’un élément x de E tel que
u (x) = y ; comme E = E ′ ⊕ Ker u, x s’écrit x = x′ + z avec x′ ∈ E ′ et z ∈ Ker u. J’ai alors :
y = u (x) = u x′ + z = u x′ + u (z) = u′ x′
car x′ ∈ E ′ et z ∈ Ker u.
Donc tout élément de Im u admet au moins un antécédent par u′ .
En conclusion, u′ est linéaire et bijective, donc un isomorphisme de E ′ dans Im u.
Application 1 — théorème du rang
Si E est de dimension finie et u ∈ L (E, F ) alors Im u est de dimension finie et
dim Im u + dim Ker u = dim E.
Corollaire : 1) Lorsque dim E = dim F = n, u est un isomorphisme si et seulement si rg u = n.
2) Le rang est invariant par composition avec un isomorphisme.
Application 2 — interpolation de Lagrange
Soient a0 , . . . , an dans K, distincts deux à deux, et u : K [X] → K n+1
.
P
→ P (a0 ) , . . . , P (an )
n
u est linéaire et Ker u est l’ensemble des multiples du polynôme N =
(X − ak ). N est de degré
k=0
n + 1, donc Kn [X] est un supplémentaire de Ker u dans K [X] (cf. § III-3) in fine). Ainsi, d’après le
théorème précédent, u définit un isomorphisme de Kn [X] dans Im u, qui est donc de dimension n + 1 ;
or Im u est un sous-espace de K n+1 . Ainsi, u est surjective et :
n+1
φ : Kn [X] → K
est un isomorphisme.
P
→ P (a0 ) , . . . , P (an )
(Exercice : montrer ce résultat de façon “élémentaire”.)
On en déduit en particulier, pour tout b = (b0 , . . . , bn ) de K n+1 , l’existence et l’unicité de P dans Kn [X]
tel que
∀j ∈ {0, . . . , n} P (aj ) = bj .
2. Compléments d’algèbre linéaire
Page 7
Pour expliciter P , je considère la base canonique (C0 , . . . , Cn ) de K n+1 et j’ai
n
n
b=
bi .Ci d’où P = φ−1 (b) =
bi .φ−1 (Ci )
i=0
i=0
or on vérifie immédiatement que : ∀i ∈ {0, . . . , n}
φ−1 (Ci ) =
X − ak
k=i
d’où : P =
n
bi .Li
avec ∀i ∈ {0, . . . , n}
Li =
i=0
X − ak
k=i
ai − ak
ai − ak
.
(L0 , . . . , Ln ) est la base de Kn [X] caractérisée par :
1 si i = j
2
∀ (i, j) ∈ {0, . . . , n}
Li (aj ) = δ i,j =
(symbole de Kronecker).
0 si i = j
NB : le déterminant de la matrice de φ dans les bases canoniques est le déterminant d’ordre n + 1,
appelé déterminant de Vandermonde
1 a0 a2 · · · an 0
0 1 a1 a2 . . . an 1
1 Vn+1 (a0 , . . . an ) = .. ..
(aj − ai ) .
..
.. =
. .
.
. 0≤i<j≤n
1 an a2n · · · ann 2) Isomorphisme entre deux supplémentaires d’un même sous-espace
Théorème : soient E ′ un sous-espace vectoriel de E, F1 et F2 deux supplémentaires de E ′ dans E ; la
projection de E sur F1 parallèlement à E ′ définit un isomorphisme de F2 dans F1 .
Dém. Soit p ∈ L (E) cette projection ; F2 est un supplémentaire dans E de E ′ qui n’est autre que
le noyau de p, tandis que F1 est l’image de p : le théorème du paragraphe précédent fournit donc le
résultat.
Application : codimension — notion d’hyperplan
Définition : on appelle sous-espace de codimension finie dans E tout sous-espace E ′ de E admettant
un supplémentaire de dimension finie. La dimension d’un tel supplémentaire est alors
appelée codimension de E ′ , notée codim E ′ (indépendante du choix dudit supplémentaire,
en vertu du théorème précédent !).
On appelle hyperplan de E tout sous-espace de E de codimension 1 (i.e. admettant une
droite pour supplémentaire).
Propriétés : Soit H un hyperplan de E.
1) Si F est un sous-espace de E contenant H, alors F = H ou F = E.
2) Pour tout vecteur a de E\H, E = H ⊕ K.a.
3) Deux hyperplans quelconques de E sont isomorphes.
Dém. Fixons un vecteur b de E tel que E = H ⊕ K.b (il en existe par définition d’un hyperplan !).
1) Soit F un sous-espace de E contenant H. Deux cas se présentent :
• si b ∈ F , alors F contient H et K.b, donc F contient la somme H + K.b qui n’est autre que E tout
entier ( H + K.b est le plus petit — au sens de l’inclusion — des sous-espaces de E contenant H et
K.b) ; d’où F = E dans ce cas ;
• si b ∈
/ F , alors je montre que F = H ; j’ai déjà F ⊃ H, soit donc x un vecteur de F ; comme
E = H ⊕ K.b, je dispose de h dans H et de λ dans K tels que x = h + λ.b et nécessairement λ = 0
1
(sinon b = · (x − h) appartiendrait à F , d’où une contradiction) ; ainsi x = h appartient à H, ceci
λ
pour tout x de F , autrement dit F ⊂ H, ce qui achève la démonstration.
2) Soit a ∈ E\H ; H ∩ K.a = {0} (sinon a serait élément de H) ; de plus F = H + K.a est un
sous-espace de E contenant H et a, donc F = H d’où — grâce au 1) — F = E ; en conclusion, H et K.a
sont supplémentaires, ce qu’il fallait démontrer.
2. Compléments d’algèbre linéaire
Page 8
3) Soient H1 et H2 deux hyperplans de E, distincts (s’ils sont égaux, ils sont isomorphes !). Si j’avais
H1 ⊂ H2 , j’aurais H2 = E d’après 1), d’où une contradiction. Comme les rôles sont symétriques,
j’ai H1 ⊂
/ H2 et H2 ⊂
/ H1 ; il en résulte (classique !) que H1 ∪ H2 n’est pas stable par l’addition,
donc est strictement inclus dans E. Fixons donc a ∈ E\ (H1 ∪ H2 ) ; d’après 2), H1 et H2 sont
des supplémentaires de la même droite K.a ; il sont par conséquent isomorphes d’après le théorème
précédent.
Exemples :
1) Si E est de dimension finie n ≥ 1, les hyperplans de E sont les sous-espaces de dimension n − 1.
Pour tout sous-espace E ′ de E,on a : dim E ′ + codim E ′ = n.
2) Si F est de dimension finie et u ∈ L (E, F ), alors Ker u est de codimension finie dans E et
rg u = dim Im u = codim Ker u.
3) Dans K [X], pour α ∈ K, l’ensemble des multiples de X − α, polynôme de degré 1, admet
pour supplémentaire la droite vectorielle K0 [X] = K ; c’est donc un hyperplan de K [X], égal
à {P ∈ K [X] / P (α) = 0} (le noyau de la forme linéaire P → P (α)).
V - Formes linéaires. Dualité
1) Hyperplans et formes linéaires
Théorème : Soit E un K-espace vectoriel, E = {0}.
1) Si ϕ est une forme linéaire non nulle sur E, H = Ker ϕ est un hyperplan de E
(dit l’hyperplan d’équation ϕ (x) = 0).
De plus, toute forme linéaire ψ nulle sur H est colinéaire à ϕ.
2) Si H est un hyperplan de E, alors il existe des formes linéaires sur E dont H est le
noyau. De plus, si H = Ker ϕ, alors l’ensemble des formes linéaires ψ sur E telles que
H = Ker ψ est {λ.ϕ, λ ∈ K ∗ } (autrement dit l’équation de H est unique à un coefficient
multiplicatif non nul près).
1
Dém. 1) Soit ϕ forme linéaire non nulle sur E et b dans E tel que ϕ (b) = 0 ; je pose a =
· b, alors
ϕ (b)
ϕ (a) = 1. Montrons que tout vecteur x de E s’écrit de manière unique x = h + λ.a avec (h, λ) ∈ H × K
(où H = Ker ϕ).
Analyse : si le couple (h, λ) existe, nécessairement ϕ (x) = ϕ (h) + λϕ (a) = λ car ϕ (h) = 0 et ϕ (a) = 1,
la seule solution possible est donc donnée par λ = ϕ (x) et h = x − ϕ (x) .a.
Synthèse : je pose λ = ϕ (x) et h = x − ϕ (x) .a. J’ai bien x = h + λ.a,ϕ (h) = ϕ (x) − λϕ (a) = 0 donc
h ∈ H, et λ ∈ K.
En conclusion, E = H ⊕ K.a, ce qui prouve que H est un hyperplan de E.
Supposons maintenant ψ forme linéaire sur E, nulle sur H, c’est-à-dire que H ⊂ Ker ψ. H étant un
hyperplan et Ker ψ un sous-espace vectoriel de E, deux cas se présentent :
• soit Ker ψ = E ; alors ψ = 0 = 0.ϕ est bien colinéaire à ϕ ;
• soit Ker ψ = H = Ker ϕ ; je construis comme ci-dessus un vecteur a de E tel que ϕ (a) = 1 et
j’observe la forme linéaire δ = ψ − ψ (a) .ϕ ; il est clair que H ⊂ Ker δ et que a ∈ Ker δ ; ainsi
Ker δ contient H et K.a, donc leur somme qui n’est autre que E tout entier, donc δ = 0. Ainsi
ψ = ψ (a) .ϕ est là encore colinéaire à ϕ.
2) Soit H un hyperplan de E et a ∈ E\H ; j’ai vu au § II — 2) que E = H ⊕ K.a ; soient alors u
l’application linéaire de E dans K.a qui à tout x de E associe sa projection sur K.a parallèlement à H,
θ l’isomorphisme de K dans K.a qui à tout scalaire λ associe λ.a. Soit enfin ϕ = θ −1 ◦ u ; ϕ est une
forme linéaire sur E et, pour tout x de E : ϕ (x) = 0 ⇔ u (x) = 0 ⇔ x ∈ H.
Autrement dit, Ker ϕ = H.
2. Compléments d’algèbre linéaire
Page 9
Supposons pour finir que ϕ est une forme linéaire sur E telle que H = Ker ϕ. Il est alors immédiat que
toute forme linéaire ψ de la forme λ.ϕ, avec λ ∈ K ∗ , vérifie Ker ψ = Ker ϕ = H. Réciproquement, soit
ψ forme linéaire sur E de noyau H ; d’après le 1) in fine, ψ est de la forme λ.ϕ, où λ est un scalaire,
nécessairement non nul (puisque Ker ψ = E). Cela achève la démonstration.
NB : si ϕ est une forme linéaire non nulle sur E et H = Ker ϕ, alors ϕ est surjective (son image est un
sous-espace vectoriel de K différent de {0} !) et ses lignes de niveau (les ensembles d’équation
ϕ (x) = k, k ∈ K) sont les hyperplans affines de E de direction H.
Cas où E est de dimension finie non nulle :
• il existe des hyperplans de E (les sous-espaces de dimension dim E − 1) et donc des formes linéaires
non nulles sur E ;
• pour tout vecteur non nul e de E, il existe une forme linéaire ϕ sur E telle que ϕ (e) = 1 ;
• le vecteur nul est le seul vecteur de E sur lequel toute forme linéaire s’annule.
2) Espace dual d’un K -espace vectoriel
Définition : le dual d’un K-espace vectoriel E est le K-espace vectoriel noté E ∗ des formes linéaires
sur E.
Attention ! E ∗ = L (E, K), à ne pas confondre avec E\ {0} . . .
Propriété : si E est de dimension finie n, alors E ∗ est de même dimension finie n, par conséquent
E ∗ est isomorphe à E.
3) Bases duales
Théorème et définition : soit E un K-espace vectoriel de dimension finie n ≥ 1.
• si B = (e1 , . . . , en ) est une base de E, on définit pour tout i de Nn la forme linéaire e∗i ∈ E ∗ par
∀ (i, j) ∈ N2n
(autrement dit,
e∗i
est la
ie
e∗i (ej ) = δ i,j
(symbole de Kronecker)
forme linéaire coordonnée associée à B : au vecteur x =
n
xk .ek , e∗i
k=1
associe sa composante xi suivant le vecteur de base ei ).
Alors, B∗ = (e∗1 , . . . , e∗n ) est une base de E ∗ , appelée la base duale de B. Elle vérifie :
n
n
∗
∗
ek (x) .ek et ∀ϕ ∈ E ϕ =
ϕ (ek ) .e∗k .
∀x ∈ E x =
k=1
k=1
• Réciproquement, pour toute base C = (ϕ1 , . . . , ϕn ) de
C = B∗ (B est la base anté-duale de C).
E∗
il existe une unique base B de E telle que
Dém. Notons que les e∗i sont bien définies, en tant qu’applications linéaires définies par l’image d’une
base de l’espace de départ.
• B∗ est une famille de n vecteurs de E ∗ , qui est de dimension n ; il suffit donc, pour montrer que B∗
est une base de E ∗ , de vérifier que c’est une famille libre. Soit donc (λ1 , . . . , λn ) dans K n tel que
n
λi .e∗i = 0 (la forme linéaire nulle). Je fixe j dans Nn et j’écris l’image du vecteur ej :
i=1
n
λi .e∗i (ej ) = 0 (le zéro de K)
i=1
d’où, par définition de e∗i : λj = 0 et ceci pour tout j de Nn . J’en conclus que B∗ est libre, donc est
une base de E ∗ .
2. Compléments d’algèbre linéaire
Page 10
• Soit maintenant C = (ϕ1 , . . . , ϕn ) une base de E ∗ ; je cherche e1 , . . . , en dans E vérifiant :
∀ (i, j) ∈ N2n
(1)
ϕi (ej ) = δi,j
or l’application Φ : E →
est linéaire (vérification immédiate) entre deux
x → (ϕ1 (x) , . . . , ϕn (x))
espaces de même dimension finie n ; pour prouver que Φ est bijective, il me suffit donc de vérifier
qu’elle est injective. Soit donc x ∈ Ker Φ ; toutes les ϕi s’annulent donc en x et donc toute forme
linéaire sur E s’annule en x (car s’écrivant comme combinaison linéaire des ϕi par hypothèse).
Il en résulte que x = 0 (cf. § 1) in fine). Finalement Φ est un isomorphisme de E dans K n .
Soit (ε1 , . . . , εn ) la base canonique de K n ; les relations (1) s’écrivent encore :
Kn
∀j ∈ Nn
(2)
Φ (ej ) = εj
Je montre alors par analyse—synthèse l’existence et l’unicité de B = (e1 , . . . , en ) vérifiant (2) :
Analyse : si B existe, nécessairement ej = Φ−1 (εj ) pour tout j.
Synthèse : je peux poser, pour tout j, ej = Φ−1 (εj ) puisque Φ est bijective ; la famille B ainsi
construite est bien une base de E comme image d’une base de K n par l’isomorphisme Φ−1 et sa
base duale est bien C d’après (2) qui équivaut à (1).
En conclusion, B convient et c’est la seule solution d’après l’analyse.
Exemples :
1) Dans K n , la base duale de la base canonique (ε1 , . . . , εn ) est formée des projections canoniques :
ε∗i :
Kn
→ K ,
(x1 , . . . , xn ) → xi
(en effet xi est bien la composante de (x1 , . . . , xn ) =
n
i ∈ Nn
xk .εk suivant le vecteur εi ).
k=1
Toute forme linéaire ϕ sur K n est de la forme ϕ : x = (x1 , . . . , xn ) →
n
λk .xk , (λ1 , . . . , λn ) ∈ K n
k=1
et l’on a alors :
ϕ=
n
λk .ε∗k
et ∀i ∈ Nn
λi = ϕ (εi ) ,
k=1
la matrice de ϕ dans les bases canoniques respectives de K n et K est donc la matrice-ligne
L = λ1 λ2 . . . λn ;


x1


notant X =  ... , on identifie la matrice LX∈M1,1 (K) avec son unique élément
xn
ϕ (x) =
n
λk .xk .
k=1
2) À la lumière de l’exemple précédent, on constate que,si C = (ϕ1 , . . . , ϕn) est une famille de formes
linéaires sur K n , ϕi (i ∈ Nn ) ayant pour matrice Li = λi,1 λi,2 . . . λi,n dans les bases canoniques,
et si B = (e1 , . . . , en ) est un système de vecteurs de K n , de matrice A = (ai,j ) dans la base canonique,
alors la matrice des ϕi (ej ), 1 ≤ i, j ≤ n n’est autre que le produit ΛA, où Λ = (λi,j ) a pour lignes
les Li .
Il en résulte que :
∗ B est une base de K n et C = B∗ si et seulement si A est inversible et Λ = A−1 .
∗ C est une base du dual de K n et C = B∗ si et seulement si Λ est inversible et A = Λ−1 .
3) Dans Kn [X], pour a fixé dans K, la formule de Taylor :
n
P (k) (a)
∀P ∈ Kn [X] P (X) =
· (X − a)k
k!
k=0
2. Compléments d’algèbre linéaire
Page 11
fournit la base duale de la base 1, (X − a) , (X − a)2 , . . . , (X − a)n : la forme linéaire coordonnée
associée à (X − a)k est P →
P (k) (a)
.
k!
4) Dans Kn [X] toujours, soient a0 , . . . , an sont n + 1 scalaires distincts deux à deux et, pour tout k
dans {0, . . . , n}, ϕk la forme linéaire P → P (ak ) et Lk le polynôme de Lagrange défini par :
X − ap
Lk (X) =
.
ak − ap
p=k
2
Les relations : ∀ (i, j) ∈ {0, . . . , n}
ϕi (Lj ) = Lj (ai ) = δ i,j
montrent que (L0 , . . . , Ln ) est une base de Kn [X] dont (ϕ0 , . . . , ϕn ) est la base duale.
4) Formes linéaires et sous-espaces vectoriels
Théorème : si F est un sous-espace vectoriel de E de dimension p, l’ensemble des formes linéaires
s’annulant sur F est un sous-espace vectoriel de E ∗ , de dimension n − p.
Si Φ = ϕ1 , . . . , ϕq est une famille libre de formes linéaires sur E de dimension n, alors
q
F =
Ker ϕi est un sous-espace vectoriel de E de dimension n − q. Les formes linéaires
i=1
s’annulant sur F sont les combinaisons linéaires de ϕ1 , . . . , ϕq .
NB : la détermination de F correspond à la résolution d’un système linéaire homogène.
VI - Trace d’une matrice carrée, d’un endomorphisme
1) Trace d’une matrice carrée
Définition : soit A = (ai,j ) ∈ Mn (K) ; on appelle trace de A la somme des éléments de la diagonale
principale de A :
n
Tr A =
ak,k
k=1
Propriétés : 1) L’application Tr est une forme linéaire sur Mn (K).
2) ∀ (A, B) ∈ Mn (K)2 Tr (BA) = Tr (AB).
3) ∀P ∈ GLn (K) ∀A ∈ Mn (K) Tr P −1 AP = Tr A
(deux matrices semblables ont même trace).
Dém. 1) Vérification immédiate.
2) Soient A = (ai,j ) et B = (bi,j ) ; j’ai


n
n

Tr (AB) =
ai,j bj,i 
i=1
et
Tr (BA) =
j=1
n
i=1
d’où le résultat par réindexation.


n

bi,j aj,i 
j=1
3) D’après 2) :
Tr P −1 AP = Tr P −1 (AP ) = Tr (AP ) P −1 = Tr AP P −1 = Tr A .
Attention ! En général Tr(AB) = (Tr A)(Tr B) ; Tr(ABC) = Tr(BAC).
NB : le calcul précédent montre que, avec les mêmes notations :
n
n ai,j bi,j
Tr At B = Tr t AB =
i=1 j=1
qui n’est autre que le produit scalaire canonique de A et B dans Mn (K).
On vérifie que, pour ce produit scalaire, le sous-espace des matrices symétriques et celui des
matrices antisymétriques sont supplémentaires orthogonaux.
2. Compléments d’algèbre linéaire
Page 12
2) Trace d’un endomorphisme
Théorème et définition : soit u un endomorphisme d’un K-espace vectoriel E de dimension finie ;
la trace de la matrice de u dans une base de E ne dépend pas du choix de
cette base, on l’appelle trace de u, notée Tr u.
Dém. Soient B et C sont deux bases de E et P la matrice de passage de B à C ; si A est la matrice de
u dans B, alors la matrice de u dans C est P −1 AP , qui a la même trace que A d’après le § 1).
Propriétés : 1) L’application Tr est une forme linéaire sur L (E).
2) ∀ (u, v) ∈ L (E)2 Tr (v ◦ u) = Tr (u ◦ v).
3) Le rang d’un projecteur est égal à sa trace.
Dém. 1) et 2) découlent du paragraphe précédent.
3) Soit p un projecteur
de rang
r ; dans une base adaptée à la décomposition E = Im p ⊕ Ker p,
Ir 0
p admet pour matrice
, d’où Tr p = r = rg p.
0 0
VII - Matrices équivalentes
1) Définition
Deux matrices de mêmes dimensions A et B dans Mn,p (K) sont dites équivalentes si et seulement
s’il existe deux matrices inversibles P ∈ GLp (K) et Q ∈ GLn (K) telles que : B = Q−1 AP .
Cela signifie que A et B représentent dans des bases bien choisies la même application linéaire de K p
dans K n .
NB : ne pas confondre avec la notion de matrices semblables, qui concerne uniquement les matrices
carrées ; A et B dans Mn (K) sont semblables si et seulement s’il existe P ∈ GLn (K) telle que
B = P −1 AP .
2) Caractérisation à l’aide du rang
Théorème : toute matrice M ∈ Mn,p (K) de rang r est équivalente à la matrice
Ir
0r,n−r
1 si i = j ≤ r
= (αi,j )1≤i≤n où αi,j =
Jr =
.
0p−r,r 0p−r,n−r
0 sinon
1≤j≤p
Corollaire : deux matrices de Mn,p (K) sont équivalentes si et seulement si elles ont même rang.
Téléchargement