Dimension finie 1 Espaces vectoriels de dimension finie

publicité
Lycée Berthollet
PCSI2 2016-17
Programme de colle de la semaine du 2 au 5 mai 2017
Note aux colleurs : la fin du programme, chapitre “matrices et applications linéaires”, à partir
de la section 2.3 “caractérisation des matrices inversibles” a été vue en autonomie par les élèves,
à partir du document que j’ai inséré ici. Ils n’en savent donc pas plus que ce que vous pouvez
en lire dans ce programme de colle. Cependant, les élèves doivent connaître précisément les
résultats correspondants, qui sont tous très naturels.
Équations linéaires
Structure de l’ensemble des solutions d’une équation (E) linéaire avec second membre (la
notion de sous-espace affine est hors programme) : définition de l’équation en termes d’une
application linéaire u (u(x) = b). Elle a des solutions ssi le second membre b est dans Im u et
dans ce cas, si x0 est un antécédent de b (une “solution particulière”), l’ensemble des solutions
est x0 + Ker u (la “solution générale” de (E) est la somme d’une “solution particulière” de (E)
et de la “solution générale” de l’équation homogène associée à (E)). Description paramétrique
des solutions, retour sur les exemples du cours (equations différentielles...).
Dimension finie
On rappelle que les seules familles libres ou génératrices au programme sont les familles
finies. On note encore K pour R ou C.
1
1.1
Espaces vectoriels de dimension finie
Dimension finie et construction de bases
Définition d’un espace de dimension finie (existence d’une partie génératrice finie). Théorème de la base extraite (en dimension finie, on peut extraire une base de E de toute famille
génératrice de E). Conséquence : tout espace vectoriel de dimension finie admet une base.
Théorème de la base incomplète (en dimension finie, on peut compléter toute famille libre de
E en une base de E. De plus, les vecteurs ajoutés peuvent être choisis parmi les vecteurs d’une
famille génératrice donnée).
1.2
Définition de la dimension
Lemme clé : dans un espace engendré par n vecteurs, toute famille d’au moins n +1 vecteurs
est liée. Conséquence : théorème de la dimension (toutes les bases d’un e.v. E de dimension
finie ont le même cardinal, appelé dimension de E). Dimensions de Kn , Kn [X], Mn,p (K). Si
dim E = n et dim F = p, alors dim L (E, F) = np (exhibition d’une base). Notions de droites et
de plans vectoriels, exemple des solutions d’une EDLH1 ou d’une EDLH2.
1.3
Familles de vecteurs et dimension
En dimension n, toute famille libre a au plus n vecteurs et toute famille génératrice en a
au moins n, de plus une famille de n vecteurs est une base ssi elle est libre ssi elle est génératrice. Rang d’une famille finie de vecteurs (i.e. dimension du sous-e.v. qu’ils engendrent).
Caractérisation des familles libres par leur rang.
Calcul pratique du rang par manipulation des colonnes de la matrice des coordonnées de ces
vecteurs dans une base donnée à l’aide des trois faits suivants : si on ajoute à un des vecteurs de
la famille une CL des autres, cela ne change pas le sous-espace engendré, de même si on multiplie l’un des vecteurs par une constante non nulle et si on supprime un vecteur de cette famille
lorsqu’il est nul. Application de ces remarques à la méthode du pivot : toute opération élémentaire sur les colonnes traduit une opération sur les vecteurs de la famille qui laisse invariant la
rang, d’après les résultats précédents ; à la fin de la “descente”, le nombre de vecteurs colonnes
non nuls est le rang de la famille initiale (on remarque que des vecteurs ayant des vecteurs colonnes les représentant dans une base donnée qui sont “échelonnés” est automatiquement libre.
1.4
Sous-espaces et dimension
Un sous-espace F d’un e.v. E de dimension finie n est de dimension finie p ≤ n et si p = n,
alors F = E. Tout sous-espace F d’un e.v. E de dimension finie possède un supplémentaire G.
Si F ⊕ G ⊂ E et E est de dimension finie, alors dim(F ⊕ G) = dim F + dim G. Conséquences :
tous les supplémentaires de F ont la même dimension ; F et G sont supplémentaires ssi leur
intersection est {0} et dim F + dim G = dim E. Formule de Grassmann pour la somme non
forcément directe de deux sous-espaces.
2
2.1
Applications linéaires et dimension finie
Isomorphismes en dimension finie
Deux e.v. de dimension finie sont isomorphes ss’ils ont la même dimension. Si E et F
sont deux espaces de même dimension finie (en particulier si E = F est de dimension finie) et
u ∈ L (E, F), alors u est bijective ssi elle est injective ssi elle est surjective. Si E est de dimension
finie et u ∈ L (E), alors elle est inversible ssi elle est inversible à gauche ssi elle est inversible à
droite.
2.2
Rang d’une application linéaire
Une application linéaire u est de rang fini ssi son image est de dimension finie, on appelle
alors rang de u (rg (u)) la dimension de l’image. Si v est un morphisme injectif (resp. surjectif)
d’espace de départ (resp. d’arrivée) adéquat, v ◦ u (resp. u ◦ v) a même rang que u. En particulier, composer une application linéaire par un isomorphisme ne change pas le rang de cette
application linéaire.
2
2.3
Théorème du rang
Si u ∈ L (E, F) et S est un supplémentaire de Ker u dans E, alors u induit un isomorphisme
de S sur Im u. Si E est de dimension finie, alors u est de rang fini et dim E = dim Ker u + rg u.
Matrices et applications linéaires
1
1.1
1.1.1
Matrice d’une application linéaire dans un couple de bases
Définition et linéarité
Définition
p
Rappel : matrice Mat e ((xi )i=1 ) d’une famille de vecteurs dans une base e de E (coordonnées
des vecteurs présentées en colonnes dans la base e), cas particulier d’un vecteur (Mat e (x)).
p
Matrice de u ∈ L (E, F) dans le couple de bases (e, f ) où e = (e j ) j=1 est une base de E et
f = ( fi )ni=1 est une base de F : Mat e, f (u) = Mat f (u(e)).
1.1.2
Isomorphisme d’espaces vectoriels
L’application Mat e, f est un isomorphisme d’espaces vectoriels de L (E, F) vers Mn,p (K)
(bien noter que p est la dimension de E et n celle de F et que cet isomorphisme dépend du
choix des bases).
Pour x ∈ E, expression de Y = Mat f (u(x)) en fonction de A = Mat e, f (u) et de X = Mat e (x) :
Y = AX. En utilisant la bijectivité de Mat e, f , Mat e, f (u) est l’unique matrice A vérifiant celle
égalité pour tout x ∈ E.
1.2
1.2.1
Application aux calculs de noyaux et d’images
Noyau
Pour déterminer Ker u, on résout le système AX = 0. La méthode du pivot, ou plus généralement, l’échelonnement de la matrice, fournit alors une base du noyau. Plus précisément,
en notant z1 , ..., zk les inconnues secondaires, Ni la solution obtenue en prenant z j = δi, j pour
j ∈ [[1, k]] et ni ∈ E le vecteur défini par Mat e (ni ) = Ni , la famille (n1 , ..., nk ) est une base de
Ker u.
1.2.2
Image
Pour l’image, en échelonnant les vecteurs colonnes de la matrice A à l’aide d’opérations
élémentaires, par exemple par la méthode du pivot, on obtient un famille de vecteurs colonnes
dont ceux qui sont non nuls sont les vecteurs coordonnées, dans la base f , d’une base de Im u.
3
1.3
1.3.1
Composition et produit matriciel
Matrices et composition
Mat e,g (v ◦ u) = Mat f ,g (v)Mat e, f (u). Si E, F sont de dimension finie munis de bases e et f ,
u ∈ L (E, F) est un isomorphisme ssi Mat e, f (u) est carrée inversible.
1.3.2
Cas des endomorphismes
Cas des endomorphismes : notation Mat e (u) := Mat e,e (u). L’application Mat e est un isomorphisme d’anneaux de L (E) vers Mn (K). Par conséquent, un endomorphisme est bijectif ssi
sa matrice dans une base e est inversible. Cela prouve aussi la remarque concernant l’inversibilité à gauche ou à droite qui suffit pour qu’une matrice carrée soit inversible.
1.4
1.4.1
Changements de bases
Matrices de passage
0
Pour e et e0 deux bases de E, la matrice de passage de e à e0 est la matrice Pee = Mat e (e0 ) =
Mat e0 ,e (Id) (noter l’“inversion”). Cette matrice est inversible d’inverse Pee0 . Plus généralement,
00
0
00
si e00 est une autre base, on a Pee Pee0 = Pee .
1.4.2
Changement de base pour un vecteur
0
Avec les notations P = Pee , X = Mat e (x) et X 0 = Mat e0 (x), formule X = PX 0 .
1.4.3
Changement de bases pour une application linéaire
f0
Si de plus on a un espace F de bases f et f 0 et on note Q = Pf , et si on a u ∈ L (E, F) et on
note A = Mat e, f (u) et A0 = Mat e0 , f 0 (u), on a la formule A0 = Q−1 AP. Cas des endomorphismes :
si A = Mat e (u) et A0 = Mat e0 (u) alors A0 = P−1 AP.
2
Application linéaire canoniquement associée à une matrice
Dans toute cette section, pour q ∈ N? , on identifie les vecteurs de Kq à des matrices colonnes
(i.e. Kq à Mq,1 (K)).
2.1
Définitions
Pour A ∈ Mn,p (K), l’application linéaire canoniquement associée à A est uA ∈ L (K p , Kn )
admettant A pour matrice dans les bases canoniques. Grâce à l’identification entre vecteurs et
matrices colonnes, elle s’écrit X 7−→ AX. On définit le noyau (resp. image, resp. rang) de A
comme celui (resp. celle, resp. celui) de uA . Les vecteurs colonnes de A sont alors les images
des vecteurs de la base canonique par uA et ils engendrent l’image de A (en particulier, leur rang
est celui de A).
4
2.2
Lien avec les systèmes linéaires
Le noyau est exactement l’ensemble des solutions de AX = 0. L’image est l’ensemble des
seconds membres B tels que AX = B admette des solutions. Le noyau est invariant par multiplication à gauche par une matrice inversible, donc par toute opération élémentaire sur les lignes.
L’image est invariante par multiplication à droite par une matrice inversible donc par toute opération élémentaire sur les colonnes. Cela conforte dans ce cas particulier les méthodes de calcul
de noyaux, d’images et de rangs vus précédemment par des équivalences sur les lignes ou les
colonnes.
2.3
Caractérisation des matrices inversibles
Soit n ∈ N? . Pour une matrice A ∈ Mn (K), l’application uA est alors un endomorphisme de
Kn . On déduit immédiatement des résultats sur les endomorphismes d’un espace vectoriel de
dimension finie la proposition suivante.
Proposition 1 Pour toute A ∈ Mn (K), les assertions suivantes sont équivalentes :
1. A ∈ GLn (K) (i.e. uA est bijective)
2. Ker A = {0} (i.e. uA est injective)
3. Im A = Kn (i.e. uA est surjective)
4. rg A = n (i.e. rg (uA ) = n)
2.4
Théorème du rang
Soient n, p ∈ N? . On déduit directement du théorème du rang pour les applications linéaires,
le résultat suivant.
Théorème 2 ∀A ∈ Mn,p (K), rg A + dim Ker A = p.
qui a en particulier comme conséquences :
Corollaire 3 Le rang d’une matrice est invariant par multiplication, à gauche ou à droite, par
une matrice inversible.
Démonstration: On a vu précédemment que la multiplication à droite d’une matrice A par une
matrice inversible ne change pas Im A et donc pas rg A qui est la dimension de cette image.
Lorsqu’on multiplie A à gauche par une matrice inversible, on ne change ni son nombre de
colonnes, ni son noyau, donc pas son rang d’après le théorème du rang ci-dessus.
2
Corollaire 4 Le rang d’une matrice est invariant par toute opération élémentaire sur ses lignes
ou sur ses colonnes.
Démonstration: On a vu qu’une opération élémentaire sur les lignes se traduit par une multiplication à gauche par une matrice élémentaire (qui est inversible), ce qui ne change pas le rang
d’après le corollaire précédent. De la même manière, une opération élémentaire sur les colonnes
se traduisant par une multiplication à droite par une matrice élémentaire (qui est inversible), ne
change pas le rang.
2
5
2.5
Autres résultats concernant le rang
Le rang est de plus invariant par transposition :
Théorème 5 ∀A ∈ Mn,p (K), rg tA = rg A.
Démonstration: Soit A ∈ Mn,p (K). On sait qu’il existe une (unique) matrice échelonnée réduite
par lignes A0 telle que A ∼ A0 . On a alors tA ∼ tA0 . Ces équivalences nous assurent que rg A = rg A0
L
C
et rg tA = rg tA0 . Il nous suffit donc de montrer que rg tA0 = rg A0 .
Pour cela, on utilise le fait que la matrice A0 est échelonnée réduite. En appelant k le nombre
de ses pivots, sa structure en escalier assure que toute les lignes d’indice strictement supérieur
à k sont nulles. En notant (e1 , e2 , . . . , en ) la base canonique de Kn et en rappelant que Im A est
engendrée par les vecteurs colonnes de A, cela signifie que Im A ⊂ Vect (e1 , . . . , ek ). Par ailleurs,
comme la matrice est échelonnée réduite, ses vecteurs colonnes correspondant aux colonnes des
pivots sont exactement e1 , . . . , ek , donc Im A ⊃ Vect (e1 , . . . , ek ). Ainsi Im A = Vect (e1 , . . . , ek ) et
est de dimension k puisque la famille (e1 , . . . , ek ) est libre, étant une sous famille d’une base. Par
ailleurs, la matrice tA0 est échelonnée par colonne, donc son rang est le nombre de ses colonnes
non-nulles, qui est k (rappelons que les vecteurs non nuls de cette matrice étant échelonnés, ils
forment une famille libre de K p ). Ainsi rg tA0 = rg A0 , ce qui achève la preuve.
2
Remarquons qu’on tire de la démonstration ci-dessus le résultat supplémentaire suivant
Proposition 6 Le rang d’un système linéaire (i.e. le nombre de ses pivots) est égal au rang
de la matrice (non-augmentée) du système (au sens défini dans ce chapitre, i.e. le rang de la
famille de ses vecteurs colonnes).
Démonstration: Avec les notations ci-dessus, si A est la matrice (non-augmentée) du système,
on vient de voir que le rang de A est le nombre de pivots obtenus en échelonnant-réduisant A,
soit le rang du système.
2
Enfin, on peut appliquer tous ces résultats pour calculer le rang d’une application linéaire
entre deux espaces de dimension finie quelconques, en passant par sa matrice dans un couple
de base donné, grâce au résultat suivant :
Théorème 7 Soient E, F deux espaces vectoriels de dimension finie munis de bases respectives
e et f et u ∈ L (E, F). on a alors
rg u = rg Mat e, f (u).
Démonstration: On a vu que les deux peuvent se calculer par un échelonnement par colonnes
de Mat e, f (u), le rang étant alors égal au nombre de vecteurs colonnes non nuls de la matrice
échelonnée.
2
Toutes les définitions et tous les énoncés sont exigibles. Les démonstrations exigibles sont sur
la page suivante.
6
Démonstrations de cours exigibles
— Dans un ev E de dimension finie : tout sous-espace possède un supplémentaire et pour
une somme directe de sous-ev, dim(F ⊕ G) = dim F + dim G. Conséquences : tous les
supplémentaires de F ont la même dimension et F et G sont supplémentaires ssi leur
intersection est {0} et dim F + dim G = dim E ;
— Si u ∈ L (E, F) et S est un supplémentaire de Ker u dans E, alors u induit un isomorphisme de S sur Im u. Si E est de dimension finie, alors u est de rang fini et dim E =
dim Ker u + rg u ;
— Mat e, f est un isomorphisme d’espace vectoriel de L (E, F) vers Mn,p (K) ;
— Pour x ∈ E, expression de Y = Mat f (u(x)) en fonction de M = Mat e, f (u) et de X =
Mat e (x) ;
— Définition des matrices de passage et formules X = PX 0 et A0 = Q−1 AP.
7
Téléchargement