Chap. 19 ALGEBRE LINEAIRE EN DIMENSION FINIE ∑ ∑ ( ∑ ∑

publicité
Algèbre_linéaire_ dim. finie_ PCSI
Chap. 19 ALGEBRE LINEAIRE EN DIMENSION FINIE
Introduction
Dans ce chapitre, on définit la dimension d'un -espace vectoriel de la forme Vect F, F finie. On en étudie ensuite les
propriétés. L'étude d'un -espace vectoriel de dimension n se ramène à celle de n, une fois choisie une base de
cardinal n et tous les calculs peuvent alors se faire matriciellement.
On met également en place le mécanisme matriciel permettant de faire des changements de base. Enfin, on étudie le
rang d'une application linéaire et on prouve qu'il est égal au rang du système linéaire associé à sa matrice.
§1
Espace vectoriel de dimension finie
On pourrait définir la dimension d'un sev comme étant le nombre de paramètres dans une écriture paramétrique, c.a.d
t
que la dimension du sev Vect F serait égale au cardinal de la famille génératrice F. Ainsi une droite u et un plan
t
t
u + v dans n seraient de dimension 1 et 2 respectivement. Le problème c'est que ce cardinal peut dépendre de la
famille génératrice F choisie. On doit déjà se restreindre à une famille F qui est libre car alors aucun des vecteurs de F
n'est superflu. On va prouver effectivement que les familles à la fois libres et génératrices dans un sev ont toutes le
même cardinal.
1.1
Dimension
1.1.1 Définition (espace de dimension finie)
Un -ev est dit de dimension finie s'il possède une famille génératrice finie.
Un -ev est donc de dimension finie s’il peut s’écrire sous la forme Vect F avec F une famille finie de vecteurs.
1.1.2 Propriété
Soit E un -ev de dimension finie, engendré par une famille F de cardinal p.
Alors toute famille de cardinal ≥ p + 1 est liée.
Preuve
On écrit F = (u1 , ... , up) et on considère une famille G = (v1 , ... , vp + 1) de p + 1 vecteurs. Montrons que G est liée.
Comme E = Vect F, on peut décomposer les vecteurs de G :
p
vj =
∑ ai , j ui
,1≤ j≤p+1
i=1
(noter que cette écriture n’est pas forcément unique).
On cherche les p + 1-uplets (λ1 , ... , λp + 1) tels que
p+1
∑
p+1
∑
j=1
p+1
λ j vj =
∑
p
λj
j=1
∑ ai , j ui
i=1
p
=
p+1
∑(∑
i=1
λ j vj = 0
j=1
ai , j λj ) ui
j=1
Il suffit donc que
p+1
∑
ai , j λj = 0 , 1 ≤ i ≤ p.
j=1
On reconnaît un système linéaire homogène de p équation et d’inconnues λ1 , ... , λp + 1. On sait que le rang d’un tel
système est ≤ p (nombre de lignes). Il y a donc au plus p inconnues principales et donc au moins un paramètre. En
attribuant une valeur non nulle à ce paramètre, on obtient une solution non triviale pour (λ1 , ... , λp + 1). Cela prouve que
la famille G est liée.
Toute famille de cardinal ≥ p + 1 est donc aussi liée puisque contenant une sous-famille de cardinal p + 1 liée.
- page 1 -
Algèbre_linéaire_ dim. finie_ PCSI
1.1.3 Corollaire
Dans un -ev de dimension finie, le cardinal de toute famille libre est inférieur ou égal au cardinal de toute famille
génératrice.
1.1.4 Propriété
Dans un -ev E de dimension finie non réduit au vecteur nul, on peut extraire une base d’une
famille génératrice finie.
Preuve
Soit F une famille génératrice finie. Si F est réduit à {0}, c’est que E est réduit à {0} contrairement à l’hypothèse. Donc
F contient au moins un vecteur non nul.
Si F est libre, alors c’est une base de E. Sinon, parmi les vecteurs de F, l’un au moins s’exprime comme combinaison
linéaire des autres et on peut le retirer sans changer le Vect. En répétant ce procédé autant de fois que possible, on peut
extraire de F une famille libre sans changer le Vect de départ. On obtient ainsi une famille à la fois génératrice et libre.
1.1.5 Remarque
Il existe une autre façon de construire une base :
On démarre avec un vecteur u1 non nul. La famille (u1) est donc libre.
De deux choses l’une : ou bien, pour tout vecteur x de E, la famille (u1 , x) est liée et alors tout vecteur x est colinéaire à
u1 ; E est alors une droite vectorielle et (u1) est une base. Ou bien, on peut trouver un vecteur u2 tel que (u1 , u2) soit libre
dans E. On continue à rajouter ainsi des vecteurs : uk + 1 ∉ Vect(u1 , ... , uk) tant que c’est possible. Comme le cardinal
d’une famille libre est plafonné, le procédé doit s’arrêter. C’est à dire qu’il existe p tel que (u1 , ... , up) soit libre et tel
que pour tout vecteur x de E, la famille (u1 , ... , up , x) soit liée. Dans ce cas, c’est que x ∈ Vect(u1 , ... , up) et la famille
(u1 , ... , up) est à la fois libre et génératrice dans E : c’est donc une base de E.
1.1.6 Propriété
Tout -ev E de dimension finie, non réduit à 0, possède des bases. Toutes les bases sont finies et ont
même cardinal.
Preuve
E contient une famille génératrice finie F par définition dont on peut extraire une base B d’après (1.1.4).
Considérons alors une autre base B’. D’après (1.1.3), le cardinal de la famille libre B’ est majoré par le cardinal de la
famille génératrice B. En inversant les rôles, le cardinal de la famille libre B est majoré par le cardinal de la famille
génératrice B’. On a donc card B = card B’.
1.1.7 Définition (dimension d’un -ev E)
Soit E un -ev de dimension finie non réduit à 0. Le cardinal commun à toutes les bases est
appelé dimension de E et noté dim E ou simplement dim E.
Par convention, un -ev réduit à son vecteur nul est de dimension 0.
1.1.8 Propriété
Le -ev n est de dimension n.
Le -ev Mn , p () est de dimension np.
Preuve
En effet, dans n, on dispose de la base canonique qui est de cardinal n :
e1 = (1,0, ... , 0) , e2 = (0,1,0, ... , 0) , ... , en = (0, ..., 0 ,1)
Tout n-uplet (x1, ... , xn) se décompose de façon unique sous la forme
(x1, ... , xn) = x1(1,0, ... , 0) + ... + xn(0,0, ... , 1)
- page 2 -
Algèbre_linéaire_ dim. finie_ PCSI
1.1.9 Propriété
Soit A ∈ Mn , p (); alors le sev Ker A de p formé par les solutions homogènes du système linéaire de matrice A est de
dimension p − rg(A).
Preuve
On a vu que la méthode du pivot qui conduit à exprimer rg(A) inconnues principales en fonction de n inconnues
secondaires, aboutit à Ker A = Vect(F) où card F est égal au nombre d'inconnues secondaires, c.a.d card F = p − rg(A)
et qu'en plus F est libre. Ainsi F est une famille à la fois génératrice et libre dans Ker A, donc une base et dim Ker A =
card F = p − rg(A).
1.2
Caractérisation des bases
1.2.1 D’après les résultats du § 1.1, dans un espace de dimension n, toute famille libre est de cardinal ≤ n et toute famille
génératrice est de cardinal ≥ n.
Le théorème suivant indique pour montrer qu’une famille est une base, on peut se contenter de prouver qu’elle est soit
libre, soit génératrice, sous réserve bien sûr qu’elle ait le cardinal attendu.
1.2.2 Théorème
Soit E un -espace vectoriel de dimension n.
i) Soit F une famille libre de vecteurs de E, de cardinal n, alors F est une base de E, c.a.d qu'on a
automatiquement E = Vect F.
ii) Si E = Vect F et card F = n, alors F est une base de E, c.a.d qu'une famille génératrice de
cardinal n est automatiquement libre.
Preuve (en classe)
1.2.3 Propriété (base de 3)
ttt
ttt
Toute famille ( u , v , w ) de 3 avec u , v , w non coplanaires est une base de 3 (donc en particulier une famille
génératrice).
1.2.4 Propriété (famille de degré échelonné dans [X])
i) Soit (Pk) une famille finie de polynômes non nuls telle que deg Pk ≠ deg Pl pour k ≠ l . Alors la
famille (Pk) est libre dans [X].
ii) En particulier, toute famille (Pk)k = 0…n de degré échelonné dans n[X] (c.a.d telle que deg Pk = k
pour k = 0, … , n) constitue une base de n[X].
Preuve (en classe)
1.2.5 Exemples
1) (1 , X , … , Xn) base canonique de n[X].
2) Pour a fixé dans , Pk (X) = (X − a)k , 0 ≤ k ≤ n .
Les coordonnées dans cette base sont données par la formule de Taylor.
3) P0= 1 et Pk (X) = X (X − 1) … (X − k + 1) pour 1 ≤ k ≤ n
Dans la pratique, on cherchera une base de n [X] dans laquelle les calculs demandés sont les plus simples possibles.
- page 3 -
Algèbre_linéaire_ dim. finie_ PCSI
1.2.6 Théorème (de la base incomplète)
Soit E un -ev de dimension finie n.
Etant donné une famille libre F de p ≤ n vecteurs de E, on peut la compléter par n − p vecteurs pour obtenir une
base de E. On peut même la compléter par des vecteurs convenables tirés d'une base arbitraire fixée de E.
Preuve
Soit B = (e1, ... , en) une base de E. Lorsque p = n, c’est que F est une base d’après (1.2.2) et il n’y a rien à prouver. On
suppose la propriété vraie pour un entier p ∈ ’1,n÷ et on la démontre pour l’entier p − 1.
Supposons donc card F = p − 1. Forcément, l’un des ei n’est pas dans Vect F sinon, Vect F contiendrait une base et F
serait une famille génératrice et libre, donc une base de E mais de cardinal p − 1 < n. Supposons pour fixer les idées que
e1 ∉ Vect F. Alors la famille F ’ composée des vecteurs de F et de e1 est encore libre et de cardinal p. Comme la
propriété est vraie pour les familles de cardinal p, on peut compléter F ’ par des vecteurs de B , forcément n − p d’entre
eux, pour obtenir une base de E. Du coup, B peut-être complétée avec ces mêmes vecteurs auxquels on adjoint e1 pour
obtenir la même base.
1.3
Calculs autour de la dimension des sev
1.3.1 Propriété
Tout sev F d'un -ev E de dimension finie n est lui-même de dimension finie ≤ n.
Preuve
Toute famille libre de F est une famille libre de E, donc de cardinal ≤ n. Si F est non nul, on procède comme en 1.1.5 :
on construit de proche en proche une famille libre (x1, … , xk) de vecteurs de F telle que xk ∉ Vect (x1, … , xk −1) en
démarrant avec un vecteur x1 non nul de E. On s'arrête lorsqu'on ne peut plus agrandir la famille. Si (x1, … , xp) est la
famille finale, alors pour tout vecteur x de F , la famille (x1, … , xp , x) est liée et x ∈ Vect(x1, … , xp). La famille (x1, …
, xp) est donc libre et génératrice dans F, c’est une base de F. De plus, p ≤ n, donc dim F ≤ dim E.
1.3.2 Propriété
Si F et G sont deux sev d'un -ev de dimension finie E tels que dim F = dim G et F ⊂ G alors F = G.
Preuve
Soit F une base de F. Alors card F = dim F = dim G. Par conséquent, F est une famille libre de G avec dim G vecteurs;
c'est donc une base de G et donc F engendre G et F = G.
1.3.3 Définitions
Soit E un -espace vectoriel quelconque
i) On appelle droite vectorielle d'un espace vectoriel E, tout sev de dimension 1
ii) On appelle plan vectoriel d'un espace vectoriel E, tout sev de dimension 2
Tout vecteur non nul x d'une droite vectorielle D en est une base. On note
D = x = {λx , λ ∈ }.
De même pour un plan P , si u1 et u2 sont deux vecteurs non colinéaires, la famille (u1 , u2) est une base du plan et on
note
P = u1 ⊕ u1 = {λ1u1 + λ2u2 , λ1 et λ2 dans }
On appelle hyperplan vectoriel d'un espace vectoriel E de dimension finie n, tout sev de dimension n − 1
- page 4 -
Algèbre_linéaire_ dim. finie_ PCSI
1.3.4 Propriété
Soient F et G deux sev supplémentaires d'un -ev E de dimension finie.
Alors dimK F ⊕ G = dim F + dim G = dimE .
Toute réunion d'une base de F et d'une base de G donne une base de E.
Preuve (en classe)
1.3.5 Théorème
Soient E un un -ev de dimension finie n et F un sev de E de dimension p ≤ n.
Alors F admet au moins un supplémentaire dans E. De plus tous les supplémentaires de F
dans E sont de dimension n − p.
Preuve (en classe)
1.3.6 Exemple
Soit H un sev de dimension n − 1 dans un espace vectoriel E de dimension n. On considère un vecteur x ∉ H; alors H
et la droite vectorielle x sont des sev supplémentaires :
comme x ∉ H, la somme H + x est directe dans E. Mais dim (H ⊕ x) = n, d'où E = H ⊕ x .
1.3.7 Théorème (formule de Grassmann)
Soient F et G deux sev d'un -ev E de dimension finie.
Alors dim(F + G ) = dim F + dim G − dim(F ∩ G)
Preuve
Soit F' un supplémentaire de F ∩ G dans F. On a F + G = F' ⊕ G :
F' ∩ G ⊂ F ∩ G; or, F' ∩ (F ∩ G) = {0}, donc F' ∩ G = {0}
Soit x = y + z ∈ F + G ; y s'écrit y1 + y2 avec y1 ∈ F' et y2 ∈ F ∩ G; donc x = y1 + (y2 + z) avec y2 + z ∈ G. On en déduit
que F' + G ⊃ F + G ; comme il est clair que F' + G ⊂ F + G, on a en fait F' + G = F + G d'où F + G = F' ⊕ G
On en déduit que dim (F + G ) = dim (F' ⊕ G ) = dim F' + dim G = (dim F − dim (F ∩ G) ) + dim G.
1.3.8 Propriété (sous-espaces de matrices)
i) Sn(), An() ainsi que l’espace des matrices triangulaires supérieures (resp. inférieures) sont des sous -espaces
vectoriels de Mn().
ii) dim Sn() = n(n + 1)/2 , dim An() = n(n − 1)/2
Preuve (en classe)
- page 5 -
Algèbre_linéaire_ dim. finie_ PCSI
1.4
Rang d’une famille
1.4.1 Définition (rang d’une famille)
Soit E un -ev quelconque et F = (x1, … , xp) une famille de vecteurs de E.
On appelle rang de la famille F , noté rg(F), le nombre entier dim(Vect F ).
Noter que cette définition a un sens car le sev Vect F étant engendré par une famille finie, il est bien de dimension finie.
1.4.2 Propriété
i)
F ⊂ F ' rg F ≤ rg F ' ≤ card F '
ii) rg F = cardinal d'une famille libre maximale extraite de F
rg F = card F ssi F est libre
iii) rg (F ∪ F ') ≤ rg F + rg F ' avec égalité ssi Vect F et Vect F ' sont en somme directe.
Preuve
i) Si F ⊂ F ' , alors Vect F ⊂ Vect F ' et donc dim Vect F ≤ dim Vect F ' (3.3.1)
ii) F engendre Vect F; on sait alors qu'une famille libre maximale de F est une base de Vect F ; le cardinal de cette
famille est donc égal à dim Vect F .
iii) dim (Vect (F ∪ F ')) = dim (Vect F + Vect F ') = dim (Vect F ) + dim (Vect F ' ) − dim (Vect F ∩ Vect F ')
d'où rg (F ∪ F ') = rg F + rg F ' − dim (Vect F ∩ Vect F ')
- page 6 -
Algèbre_linéaire_ dim. finie_ PCSI
§2
Applications linéaires en dimension finie
2.1
Image d’une base
2.1.1 Rappel
Si u est une application linéaire de E dans F et si B = (e1 , e2 , … , ep) est une base de E, alors Im u = Vect u(B)
où u(B) désigne l’image de la famille B, c.a.d la famille (u(e1) , ... , u(ep)), cette famille pouvant le cas échéant contenir
plusieurs fois le même vecteur (penser au cas où u est nulle par exemple).
2.1.2 Propriété
Soit B = (e1 , e2 , … , ep) une base d'un -ev E de dimension p et F un -ev quelconque.
Etant donné une famille quelconque G = (y1 , y2 , … , yp) de vecteurs de F, il existe une unique
application linéaire u ∈ L(E,F) telle que u(ei) = yi pour i = 1 , … , p.
Preuve
p
Analyse : on a forcément u( ∑ xi ei ) =
i=1
p
p
i=1
i=1
∑ xi u(ei ) = ∑ xi yi d'où l'unicité sous réserve d'existence.
p
∑ xi ei existe et est unique. On définit
Synthèse : F étant une base, la décomposition d'un vecteur x sous la forme
p
bien une application u en posant u( ∑ xi ei ) =
i=1
i=1
p
∑ xi yi . Il n'est pas difficile de vérifier que u est bien linéaire.
i=1
2.1.3 Corollaire
Une application linéaire est parfaitement déterminée par l'image d'une base.
Une application linéaire u ∈ L(E,F) est nulle ssi elle s'annule sur une base de E.
Deux applications linéaires dans L(E,F) sont égales ssi elles coïncident sur une base de E.
2.1.4 Propriété (caractérisation des isomorphismes)
Soient E un -ev de dimension finie, F un -ev quelconque et u ∈ L(E,F).
Alors, u est un isomorphisme ssi il existe une base B = (e1 , … , en) de E telle que la famille u(B) = (u(e1) , … , u(en))
soit une base de F.
Dans ce cas, l’image de toute base de E est une base de F et dim F = dim E , F étant donc de dimension finie.
Preuve
Soit B une base quelconque. La famille u(B) est libre car u est injective (2.3.7 chap.17) ; de plus Vect u(B) = Im u
= F car u est surjective. La famille u(B) est donc libre dans F et engendre F ; c’est une base de F.
u est surjective puisque Im u contient une base (expliquer pourquoi).
Pour montrer que u est également injective, on montre que Ker u est réduit au vecteur nul de E.
n
Soit x dans E tel que u(x) = 0. On décompose x dans la base B : x =
i=1
n
On a alors u(x) =
∑ λ i ei .
∑ λi u(ei ) = 0. Comme u(B) est une base, donc libre, la combinaison linéaire est triviale et on a
i=1
λi = 0 pour tout i et donc x = 0. Donc Ker u = {0} et u est injective.
Si B est une base de E, u(B) est une base de F et donc dim F = card (u(B)) = card B = dim E.
2.1.5 Définition
On dit que deux -ev sont isomorphes s’il existe un isomorphisme du premier sur le second.
- page 7 -
Algèbre_linéaire_ dim. finie_ PCSI
2.1.6 Corollaire
i) Tout -espace vectoriel E de dimension n est isomorphe à n. L’isomorphisme consistant à
associer un vecteur de E avec son n-uplet de coordonnées dans une base fixée.
ii) Deux espaces vectoriels de dimension finie sont isomorphes ssi ils ont même dimension.
La dimension permet donc de classifier les espaces vectoriels de dimension finie "à isomorphisme près".
Preuve
n
i) On fixe une base B = (e1 , … ,en) de E; on définit u : n t E, (x1 , … , x n) #
∑ xi ei . Par construction, l'image de
i=1
n
la base canonique de est la base B; u est donc un isomorphisme.
ii) Si dim E = dim F = n, alors on a des isomorphismes u : n t E et v : n t F ; v u−1 est alors un isomorphisme de
E sur F. Réciproquement, si E et F sont isomorphes, ils ont même dimension d'après 2.1.4.
retenir l’idée :
Une fois choisie une base, faire des calculs sur les vecteurs revient à faire des calculs sur les n-uplets de
coordonnées dans n.
2.2
Rang d’une application linéaire
2.2.1 Définition
Soient E un -espace vectoriel de dimension finie et F un -ev quelconque et u ∈ L(E, F).
Le rang de u, noté rg(u) est la dimension de Im(u) :
rg(u) = dim u(E) = dimK Im(u) ∈ 2.2.2 Propriété
Soit u ∈ L(E,F) avec E de dimension finie.
i) Pour toute base B de E, on a rg(u) = dim Im(u) = dim Vect(u(B)) = rg(u(B)) d’après la définition du rang de la
famille u(B) (1.4.1).
ii) rg(u) ≤ dim E et si F est de dimension finie, on a aussi rg(u) ≤ dim F .
Preuve
ii) Si B est une base de E, alors rg(u) = dim Im(u) = dim Vect(u(B)) ≤ card u(B) = card B = dim E .
D’autre part Im u est inclus dans F, donc dim Im u ≤ dim F et rg(u) ≤ dim F.
2.2.3 Propriété
Soit u ∈ L(E,F) avec E de dimension finie. Alors pour tout sev E’ de E, on a dim u(E’) ≤ dim E’.
Lorsque u est injective, il y a même égalité dim u(E’) = dim E’. C’est en particulier le cas pour les isomorphismes.
« une application linéaire fait chuter la dimension des sev »
« une application linéaire injective conserve la dimension des sev ».
Preuve
Soit F une base de E’. On a u(E’) = Vect u(F) , d’où dim u(E’) ≤ card u(F) = card F = dim E’. On a égalité ssi u(E’) est
une famille libre et c’est effectivement le cas lorsque u est injective.
2.2.4 Propriété
Soit u ∈ L(E,F) avec E de dimension finie.
i) u est injective ssi rg(u) = dim E .
ii) u est surjective ssi rg(u) = dim F .
iii) Le rang de u ne change pas si on compose u, à droite ou à gauche, par un isomorphisme.
- page 8 -
Algèbre_linéaire_ dim. finie_ PCSI
Preuve
i) Si u est injective, alors l'image d'une base B de E est une famille libre de F (2.3.7 chap. 17) et on a donc
rg(u) = dim Vect(u(B)) = card u(B) = card B = dim E
Réciproquement, si rg(u) = dim E, c’est que u(B) est une base de u(E). Ecrivons B = (e1 , .. , en). Soit x ∈ Ker u.
On écrit x =
p
p
i=1
i=1
∑ xi ei , d’où u(x) = 0 = ∑ xi u(ei).
Comme u(B) est libre, la combinaison linéaire est triviale et tous les xi sont nuls. Donc x = 0 et Ker u = {0} et u est
injective.
ii) rg(u) = dim F dim Im(u) = dim F Im(u) = F. Cela équivaut à la surjectivité de u.
iii) Si v : F t G est injective, alors rg(v u) = dim(v u(E)) = dim u(E) = rg u d'après (2.2.3), v étant injective.
Si w : E' t E est surjective, alors rg (u w) = dim (u w(E')) = dim u(E) = rg u
§3
Applications linéaires et calcul matriciel
Il s’agit dans ce paragraphe d’établir un dictionnaire entre les aspects vectoriels (on fait du calcul sur les vecteurs) et les
aspects matriciels (on fait du calcul sur les matrices). On se ramène au cas des espaces n une fois choisies des bases
dans les espaces de départ et d’arrivée. Le choix de ces bases a un côté arbitraire. On doit donc se poser la question de
la traduction des résultats quand on change de base s. Savoir s’il existe une base dans laquelle les calculs sont les plus
simples possibles est au coeur du programme d’algèbre linéaire de seconde année.
3.1
Matrice d’une application linéaire
3.1.1 Définition
Soit u ∈ L(E,F) où E, F sont deux -espaces vectoriels de dimension finie.
On note p = dim E, n = dim F . On se donne une base B = (e1 , ... , ep) de E et une base G = ( f1 , ... , fn ) de F.
On sait que u est parfaitement déterminée par la données des u(ej) qu’on peut exprimer dans la base G. On écrit donc,
n
u(ej) =
∑ ai,j fi
, 1≤j≤p
i=1
La matrice
u(e1) ∫ u(ej) ∫ u(ep)
 ª
a
 ª
a
a1,1
(ai , j)1 ≤ i ≤ n =
1≤j≤p
i,1
n,1
∫
a1, j
∫
ª
∫
ai,j
ª
∫
ª
∫
an, j
a1, p
ai, p
ª
∫
an, p
 ªf
f
ª
f
1
i
∈ Mn , p()
n
s’appelle la matrice de u (relativement aux bases B et B'), noté mat(u , B, B') ou matB , B’(u).
Si B = B’, on note simplement matB(u).
Le nombre de lignes est donc la dimension de l’espace d’arrivée et le nombre de colonnes est la dimension de l’espace
de départ.
On peut retenir
vecteurs colonne de la matrice de u = images des vecteurs de la base de départ exprimés dans la base d'arrivée
3.1.2 Exemple
2
Soit u : 2[X] t 2[X] , P # XP' − 2P(X + 1) ; la matrice de u relativement à la base canonique (1, X, X ) au départ et
à l’arrivée, est (expliquer pourquoi) :
A =
 −2
0
0
−2 −2 
−1 −4 
0 0 
- page 9 -
Algèbre_linéaire_ dim. finie_ PCSI
p
3.1.3 On a vu en (2.1.6) que le choix des bases B et B’ induit des isomorphismes ϕ et ψ entre E et d’une part et entre F et
n
d’autre part. Les isomorphismes consistent à envoyer un vecteur de E (resp. de F) sur son p-uplet (resp. n-uplet) de
p
n
coordonnées. L’image de B est la base canonique de et l’image de B’est la base canonique de .
p
n
L’application u induit une application linéaire u’ entre et ayant même matrice que u, selon le schéma ci-dessous :
u
E → F
|
|
ϕ
|
|
↓
ψ
↓
p
u'
→ n
u’(x1 , ... , xp) = ψ(u(x1 e1 + … + xp ep)) = n-uplet des coordonnées de u(x1 e1 + … + xp ep) dans B'
3.1.4 Propriété (calcul matriciel de l'image)
p
n
Soient u ∈ L(E,F), A = matB , B’(u) et u’ l’application linéaire entre et induite par u.
Pour x ∈ E , on note y = u(x); on pose,
XB = ϕ(x) = vecteur colonne des coordonnées de x dans B .
YB' = ψ(y) = vecteur colonne des coordonnées de y dans B' = u’(XB).
Alors,
YB' = AXB
Preuve
p
x=
∑ xj ej , XB = (x1 , ... , xp)
j=1
y = u(x) =
p
∑ xj u(ej)
j=1
p
=
n
n
∑ xj ∑ ai,j
j=1
fi =
i=1
p
∑ ( ∑ ai,j xj)
i=1
fi
j=1
 ª
a
=
 ª
a
a1,1
p
On a donc YB' = (y1, ... , yn) avec yi =
∑ ai,j xj . On a donc YB'
j=1
i,1
n,1
∫
a1, j
∫
a1, p
ª
∫
ai,j
ª
∫
ai, p
ª
∫
an, j
ª
∫
an, p
  xª 
  x  = AX
 ª 
 x
1
i
B
p
Le principe est le suivant : une fois choisies les bases B et B' , on travaille avec les p-uplets ou n-uplets de coordonnées
p
n
dans B et B' et cela revient à travailler dans et .
p
Noter que la formule u(x) =
p
∑ xj u(ej) a pour contrepartie matricielle AX = ∑ xj Cj .
j=1
j=1
3.1.5 Propriété (matrice d’une composée et matrice d’un automorphisme)
Les bases B et B' étant fixées,
i) L'application L(E,F) t Mn,p () , u # matB , B ' (u) est un isomorphisme (non canonique) de -ev.
ii) Composer des endomorphismes revient à multiplier leurs matrices :
pour u ∈ L(E,F), v ∈ L(F,G) et des bases B, B' et B" de E, F et G respectivement, on a
mat(v u , B , B") = mat(v, B’, B") mat(u, B, B’)
(noter que l'ordre des matrices est le même que celui de la composition v u).
iii) Lorsque u et v sont des endomorphismes de E et que B est une base de E, on a donc :
matB (v u) = matB(v) matB(u)
- page 10 -
Algèbre_linéaire_ dim. finie_ PCSI
iv) La bijection (iii) entre L(E) et Mn() induit une bijection entre les groupes linéaires GL(E) et GLn() avec
en plus,
matB (u− 1 ) = matB (u) − 1
u ∈ GL(E) ssi pour toute base B de E, matB(u) ∈ GLn().
Pour toute base B , matB(id) = In . Réciproquement, si matB(u) = In , alors u = idE .
Preuve
i) Linéarité : d’une part, (u + v)(ej) = u(ej) + v(ej) et (λu)(ej) = λ u(ej) et d’autre part, une combinaison linéaire de
matrice se fait colonne par colonne, chaque colonne correspondant ici aux u(ej) exprimées dans B ’.
La bijectivité vient du fait qu'une application linéaire est uniquement déterminée par les images u(ej) .
L'isomorphisme est non canonique car il repose sur le choix des bases.
ii) Soient u ∈ L(E , F), v ∈ L(F, G) avec dim E = q , dim F = p et dim G = n; soient B, B’ et B" des bases respectives
de E , F et G induisant des isomorphismes ϕ : E t q , ϕ’ : F t p et ϕ" : G t n.
Soit x dans E. On note y = v(x) et z = u(y) et X, Y, Z les vecteurs colonne des coordonnées de x, y, z dans B, B’ et B"
respectivement. On note A = mat(v, B’, B") et B = mat(u, B, B’).
On a d’après 3.1.4, BX = Y, AY = Z d’où
Z = AY = A(BX) = (AB)X
en utilisant l’associativité du produit matriciel.
Cela montre que AB = mat(v u)
iii) Cas particulier de (ii).
iv) Une fois fixée une base B de E, l’application L(E) t Mn() , u # matB(u) est bijective et la matrice d’une
composée est le produit des matrices.
En particulier, si u est un automorphisme de E, on a
matB (u) matB (u− 1) = matB (u u− 1) = matB (idE) = In
ce qui montre que matB (u) est inversible et que
matB (u− 1) = matB (u) − 1
3.1.6 Corollaire
Soient E et F deux -ev de dimension finie. Alors L(E,F) est de dimension finie sur et
dim L(E,F ) = dim E dim F
3.1.7 Dictionnaire vectoriel/matriciel
Soient u ∈ L(E,F) de matrice A relativement à des bases B et B’. On a le dictionnaire
suivant entre les calculs vectoriels et matriciels :
u:EtF
A : p t n
Ker u , y = u(x)
Ker A , YB' = AXB
ϕ(Ker u) = Ker A
Im u
Im A
ψ(Im u) = Im A
En effet, en utilisant 3.1.4, y = u(x) ssi YB' = AXB .
Ker u = {x ∈ E / u(x) = 0} ; u(x) = 0 AX = 0 X ∈ Ker A
y ∈ Im u ∃ x ∈ E, u(x) = y ∃ X ∈ Mn,1(), AX = Y X ∈ ImA
3.1.8 R eprendre l’exemple3.1.2 et calculer le noyau à l’aide d’un calcul matriciel.
- page 11 -
Algèbre_linéaire_ dim. finie_ PCSI
3.2
Matrices de passage
3.2.1 Si on change de base, la matrice change aussi. On désire savoir comment change la matrice de u lorsqu'on change les
bases B et B' . Considérons l'exemple suivant :
Soit u tel que mat(u ,(e1 , e2)) =
( 31 −25 ) ; vérifier que mat(u ,(e , e )) = ( −25 13 ) .
2
1
On pose maintenant e'1 = e1 + e2 , e'2 = e1 − e2 ; (e'1 , e'2) est une base car l'endomorphisme e1 # e'1 , e2 # e'2 a pour
1 1
1 1 1
matrice dans la base canonique P = 1 −1 qui est inversible d'inverse
. Déterminer mat(u , (e'1 , e'2)).
2 1 −1
(
)
(
)
3.2.2 Propriété (caractérisation matricielle des bases)
Soit E un -espace vectoriel de dimension n et soit B = (e1 , … , en) une base de E.
On considère une famille B’ = ( f1 , … , fn) de E . On écrit
n
fj =
∑ ai,j ei
,1≤j≤n
i=1
La famille B est une base ssi la matrice (ai,j) ∈ GLn().
Preuve
Considérons l’application linéaire u de n dans lui même, définie par u(ej) = fj . Par définition, on a matB(u) = (ai,j).
On sait qu’un endomorphisme de n est un automorphisme ssi l’image d’une base est une base (2.1.4), donc ssi l’image
de B est une base. C’est aussi un automorphisme ssi matB(u) est inversible. Or par construction, B a pour image B’.
Donc B’ est une base ssi matB(u) est inversible.
3.2.3 Exemple
Une famille de degré échelonné de n + 1 polynômes dans n[X] est une base de n[X]. En effet la matrice de passage est
triangulaire supérieure inversible.
3.2.4 Définition (matrice de passage)
Soit E un -espace vectoriel de dimension n.
On appelle matrice de passage de la base B à la base B', la matrice de Mn() dont les vecteurs colonne
sont les coordonnées des vecteurs de B' exprimées dans la base B .
On note PB , B ' (attention à l'ordre des bases).
La définition a encore un sens pour toute famille B’ de n vecteurs, la propriété 3.2.2 indiquant que PB , B ' est inversible
ssi la famille B’ est une base.
3.2.5 Propriété (règles de calcul sur les matrices de passage)
Pour toutes bases B, B' et B" de E, on a,
i) PB , B ' = matB', B (idE).
ii) PB , B ' PB' , B " = PB , B "
iii) PB , B = In
iv) Les matrices de passage sont dans GLn(K) et (PB , B ') − 1 = PB ' , B
Preuve (en classe)
- page 12 -
Algèbre_linéaire_ dim. finie_ PCSI
3.2.6 Propriété (Formules de changement de base)
i) Si x∈ E et si X, X' désignent les vecteurs colonne des coordonnées de x resp. dans les bases B et B',
alors on a
X = PB , B ' X '
ii) Si u ∈ L(E,F) et si B et B' sont deux bases de E et C et C' sont deux bases de F , alors
matB', C' (u) = PC', C matB , C (u) PB , B ' = PC , C' −1 matB , C (u) PB , B '
iii) Si u ∈ L(E) , matB' (u) = PB, B'− 1 matB (u) PB , B ' = PB ', B matB (u) PB , B '
On peut retenir la formule (iii) sous la forme A' = P − 1AP mais à condition de savoir ce que représentent P, A, A' !
Preuve (en classe)
3.2.7 Exemple
Soit u une application linéaire de E dans F, de matrice
( 11 −10 03 ) relativement aux bases (e , e , e ) de E et ( f , f ) de
1
2
3
1
2
F. On pose f '1 = f1 , f '2 = f1 + f2 et e'1 = e2 + e3, e'2 = e1 + e3 , e'3 = e1 + e2 . Déterminer mat(u , e' , f ').
3.2.8 Remarque (importante en pratique)
Si B = P− 1AP, alors Bn = P− 1AnP
ce qui permet de calculer facilement Bn si A est diagonale ou triangulaire.
d'où l'importance du problème de trouver une base où la matrice de u soit la plus simple possible.
3.3
Rang d’une matrice
3.3.1 Rappels
i) Soit A dans Mn , p(). Le rang de A noté rg(A) est le nombre de pivots dans la réduite échelonnée par lignes de A.
On a rg(A) ≤ n et rg(A) ≤ p.
Ker A = sev des solutions homogènes.
X # AX est surjective (resp. injective) ssi rg A = n (resp. ssi rg A = p)
ii) Dans la résolution du système homogène AX = 0, le nombre de paramètres dans l’expression des solutions est égal à
p − rg(A). On a donc (théorème du rang pour les systèmes),
rg(A) + dim(Ker A) = p = nombre de colonnes de A
iii) Il existe des matrices inversibles P et Q de tailles respectives n et p telles que
A = PR = R’Q
avec R échelonnée réduite par lignes et R’ échelonnée réduite par colonnes.
Cela résulte de la traduction matricielle des opérations élémentaires.
3.3.2 Propriété
Soit A ∈ Mn , p()
i) Si P ∈ GLn(), alors rg(PA) = rg A . En particulier, deux matrices équivalentes par lignes ont
même rang.
ii) Si Q ∈ GLp(), alors rg(AQ) = rg A . En particulier, deux matrices équivalentes par colonnes
ont même rang.
iii) Une matrice carrée A ∈ Mn() est inversible ssi rg A = n.
- page 13 -
Algèbre_linéaire_ dim. finie_ PCSI
Preuve
i) PAX = 0 AX = 0. Donc Ker(PA) = Ker A. D’où rg(PA) = p − dim Ker(PA) = p − dim Ker A = rg A.
−1
ii) AQX = 0 QX ∈ Ker A . On en déduit que Ker(AQ) est l’image de Ker A par l’application linéaire Y # Q Y .
Comme il s’agit d’un automorphisme, il conserve la dimension. Donc dim Ker A = dim Ker(AQ). Le théorème du
rang pour les systèmes donne alors rg A = rg(AQ).
iii) A inversible X # AX bijective X # AX injective et surjective rg A = n = p.
On sait aussi définir le rang d’une application linéaire en dimension finie. On peut donc parler du rang de X # AX.
On a vu que le rang d’une application linéaire (voir 2.2.4) jouit des mêmes propriétés que celles énoncées en 3.3.2.
On va voir que ces deux notions coïncident ce qui permettra d’énoncer le théorème du rang pour les applications
linéaires.
3.3.3 Exemple
 1 2 1 −1 0 
0 −1 1 1 0 
A = 
 1 1 2 2 2
 −1 1 −4 1 3 
La réduite échelonnée par lignes est (le vérifier !)
 1 0 3 0 −1 
0 1 −1 0 1 
R = 
0 0 0 1 1 
0 0 0 0 0 
Expliquer pourquoi les colonnes où ne figurent pas de pivot sont forcément combinaisons linéaires des colonnes à pivot
qui les précèdent.
3.3.4 Propriété
Soit u ∈ L(E,F) de matrice A relativement à des bases B et B’. Alors rg(u) = rg(X # AX).
Preuve
En effet, Im u est engendrée par les vecteurs colonnes de la matrice A. Donc rg(u) = dim Vect(vecteurs colonnes de A) =
rg(X # AX).
3.3.5 Théorème
Soit A ∈ Mn , p(). On note u l’application linéaire de p dans n canoniquement associée à A.
On a rg A = rg u = dim Vect(vecteurs colonne de A)
Preuve
Il existe une matrice inversible P telle que A = PR avec R la réduite échelonnée par lignes de A.
On a rg A = rg PR = rg R.
rg u = rg(X # AX) = rg(X # PRX) = rg(X # RX) (propriété du rang des applications linéaires).
Il suffit donc de prouver la propriété lorsque u est l’application X # RX.
R est de la forme
0
1
×
0
0
×
×
0
0
∂
0
0
1
∂
×
×
∂
∂
∂
∂
0
1
×
×
0
∂
0
0
0
1
0
∂
∂
∂
0
1
∂
0
0
0
∂
∂
0
0
0
0
0
0
rg R = r = nombre de pivots dans R.
rg(X # RX) = dim Vect(vecteurs colonne de R)
- page 14 -
0
Algèbre_linéaire_ dim. finie_ PCSI
Les colonnes qui ne comportent par de pivots (et qui correspondent aux inconnues non principales) sont combinaisons
linéaires des colonnes à pivot qui les précèdent.
On a donc
dim Vect(colonnes de R) = nombre de pivots
d’où rg(X # RX) = rg R .
3.3.6 Théorème (théorème du rang pour les applications linéaires)
Soient E et F deux -espaces vectoriels de dimension finie et u ∈ L(E, F).
dim Ker u + rg u = dim E
Preuve
On fixe des bases B et B’ de E et F respectivement. Soit A = mat(u, B, B’).
Ker u = Ker A et rg u = rg(X t AX) = dim Vect (colonnes de A) via l’identification des vecteurs de E (resp. de F) avec
les p-uplets de coordonnées dans B (resp. les n-uplets de coordonnées dans B’).
D’après 3.3.5, on a rg(X t AX) = rg(A).
D’où dim Ker u + rg u = dim Ker A + rg(A) = dim E.
3.3.7 Corollaire (caractérisation des automorphismes en dimension finie)
Soient E un -ev de dimension finie et u ∈ L(E); alors il y a équivalence entre
i) u est injectif
ii) u est surjectif
iii) u ∈ GL(E)
Preuve
i) ii) Si Ker u = {0}, alors dim E = rg(u) et cela équivaut à u surjective d'après 2.2.4.
ii) iii) Si u surjectif, alors rg(u) = dim E et donc Ker u = {0}
iii) i) évident
3.3.8 Remarques
1) Le théorème 3.3.7 est encore vrai si l’espace d’arrivée est de dimension infinie.
En revanche, il est faux en général si l’espace de départ n’est pas de dimension finie.
a) E = -ev des suites réelles ; (un) # (0, u0, u1, … ) est injective mais non surjective.
b) E = C∞(,) ; u : E t E , f # f ' est surjective mais non injective.
2) Mettre ce théorème en parallèle avec : si E est un ensemble fini alors u : E t E bijective u injective u
surjective.
3) Si dim E = n + 1 , dim F = n, alors rg u ≤ n et donc dim Ker u ≥ 1 : analogue du “principe des tiroirs“.
4)
‹ En général, lorsque E = F, Ker u et Im u ne sont pas en somme directe.
Exemple u : 2 t 2 , (x,y) # (0,x); on a Ker u = (0,1) et Im u = Ker u.
3.3.9 Théorème
Soit A ∈ Mn , p(). Alors rg A = rg AT.
Le sous-espace engendré par les colonnes de A a donc même dimension que le sous-espace engendré
par les lignes de A.
On peut donc calculer le rang à l'aide d'opérations élémentaires sur les colonnes
Preuve
On écrit comme en (3.3.5), A = PR ; d’où AT = RT PT avec PT qui est inversible.
On a alors, rg(AT) = rg(RT) = dim Vect(colonnes de RT) = dim Vect(lignes de R) = nombre de pivots de R = rg A.
3.3.2
3.3.5
- page 15 -
Téléchargement