Dimension finie 1 Espaces vectoriels de dimension finie

Lycée Berthollet PCSI2 2016-17
Programme de colle de la semaine du 2 au 5 mai 2017
Note aux colleurs : la fin du programme, chapitre “matrices et applications linéaires”, à partir
de la section 2.3 “caractérisation des matrices inversibles” a été vue en autonomie par les élèves,
à partir du document que j’ai inséré ici. Ils n’en savent donc pas plus que ce que vous pouvez
en lire dans ce programme de colle. Cependant, les élèves doivent connaître précisément les
résultats correspondants, qui sont tous très naturels.
Équations linéaires
Structure de l’ensemble des solutions d’une équation (E)linéaire avec second membre (la
notion de sous-espace affine est hors programme) : définition de l’équation en termes d’une
application linéaire u(u(x) = b). Elle a des solutions ssi le second membre best dans Im uet
dans ce cas, si x0est un antécédent de b(une “solution particulière”), l’ensemble des solutions
est x0+Keru(la “solution générale” de (E)est la somme d’une “solution particulière” de (E)
et de la “solution générale” de l’équation homogène associée à (E)). Description paramétrique
des solutions, retour sur les exemples du cours (equations différentielles...).
Dimension finie
On rappelle que les seules familles libres ou génératrices au programme sont les familles
finies. On note encore Kpour Rou C.
1 Espaces vectoriels de dimension finie
1.1 Dimension finie et construction de bases
Définition d’un espace de dimension finie (existence d’une partie génératrice finie). Théo-
rème de la base extraite (en dimension finie, on peut extraire une base de Ede toute famille
génératrice de E). Conséquence : tout espace vectoriel de dimension finie admet une base.
Théorème de la base incomplète (en dimension finie, on peut compléter toute famille libre de
Een une base de E. De plus, les vecteurs ajoutés peuvent être choisis parmi les vecteurs d’une
famille génératrice donnée).
1.2 Définition de la dimension
Lemme clé : dans un espace engendré par nvecteurs, toute famille d’au moins n+1 vecteurs
est liée. Conséquence : théorème de la dimension (toutes les bases d’un e.v. Ede dimension
finie ont le même cardinal, appelé dimension de E). Dimensions de Kn,Kn[X],Mn,p(K). Si
dimE=net dimF=p, alors dimL(E,F) = np (exhibition d’une base). Notions de droites et
de plans vectoriels, exemple des solutions d’une EDLH1 ou d’une EDLH2.
1.3 Familles de vecteurs et dimension
En dimension n, toute famille libre a au plus nvecteurs et toute famille génératrice en a
au moins n, de plus une famille de nvecteurs est une base ssi elle est libre ssi elle est géné-
ratrice. Rang d’une famille finie de vecteurs (i.e. dimension du sous-e.v. qu’ils engendrent).
Caractérisation des familles libres par leur rang.
Calcul pratique du rang par manipulation des colonnes de la matrice des coordonnées de ces
vecteurs dans une base donnée à l’aide des trois faits suivants : si on ajoute à un des vecteurs de
la famille une CL des autres, cela ne change pas le sous-espace engendré, de même si on multi-
plie l’un des vecteurs par une constante non nulle et si on supprime un vecteur de cette famille
lorsqu’il est nul. Application de ces remarques à la méthode du pivot : toute opération élémen-
taire sur les colonnes traduit une opération sur les vecteurs de la famille qui laisse invariant la
rang, d’après les résultats précédents ; à la fin de la “descente”, le nombre de vecteurs colonnes
non nuls est le rang de la famille initiale (on remarque que des vecteurs ayant des vecteurs co-
lonnes les représentant dans une base donnée qui sont “échelonnés” est automatiquement libre.
1.4 Sous-espaces et dimension
Un sous-espace Fd’un e.v. Ede dimension finie nest de dimension finie pnet si p=n,
alors F=E. Tout sous-espace Fd’un e.v. Ede dimension finie possède un supplémentaire G.
Si FGEet Eest de dimension finie, alors dim(FG) = dimF+dimG. Conséquences :
tous les supplémentaires de Font la même dimension ; Fet Gsont supplémentaires ssi leur
intersection est {0}et dimF+dimG=dimE. Formule de Grassmann pour la somme non
forcément directe de deux sous-espaces.
2 Applications linéaires et dimension finie
2.1 Isomorphismes en dimension finie
Deux e.v. de dimension finie sont isomorphes ss’ils ont la même dimension. Si Eet F
sont deux espaces de même dimension finie (en particulier si E=Fest de dimension finie) et
uL(E,F), alors uest bijective ssi elle est injective ssi elle est surjective. Si Eest de dimension
finie et uL(E), alors elle est inversible ssi elle est inversible à gauche ssi elle est inversible à
droite.
2.2 Rang d’une application linéaire
Une application linéaire uest de rang fini ssi son image est de dimension finie, on appelle
alors rang de u (rg(u)) la dimension de l’image. Si vest un morphisme injectif (resp. surjectif)
d’espace de départ (resp. d’arrivée) adéquat, vu(resp. uv) a même rang que u. En parti-
culier, composer une application linéaire par un isomorphisme ne change pas le rang de cette
application linéaire.
2
2.3 Théorème du rang
Si uL(E,F)et Sest un supplémentaire de Kerudans E, alors uinduit un isomorphisme
de Ssur Imu. Si Eest de dimension finie, alors uest de rang fini et dimE=dimKer u+rgu.
Matrices et applications linéaires
1 Matrice d’une application linéaire dans un couple de bases
1.1 Définition et linéarité
1.1.1 Définition
Rappel : matrice Mate((xi)p
i=1)d’une famille de vecteurs dans une base ede E(coordonnées
des vecteurs présentées en colonnes dans la base e), cas particulier d’un vecteur (Mate(x)).
Matrice de uL(E,F)dans le couple de bases (e,f)e= (ej)p
j=1est une base de Eet
f= ( fi)n
i=1est une base de F: Mate,f(u) = Mat f(u(e)).
1.1.2 Isomorphisme d’espaces vectoriels
L’application Mate,fest un isomorphisme d’espaces vectoriels de L(E,F)vers Mn,p(K)
(bien noter que pest la dimension de Eet ncelle de Fet que cet isomorphisme dépend du
choix des bases).
Pour xE, expression de Y=Mat f(u(x)) en fonction de A=Mate,f(u)et de X=Mate(x):
Y=AX. En utilisant la bijectivité de Mate,f, Mat e,f(u)est l’unique matrice Avérifiant celle
égalité pour tout xE.
1.2 Application aux calculs de noyaux et d’images
1.2.1 Noyau
Pour déterminer Keru, on résout le système AX =0. La méthode du pivot, ou plus géné-
ralement, l’échelonnement de la matrice, fournit alors une base du noyau. Plus précisément,
en notant z1, ..., zkles inconnues secondaires, Nila solution obtenue en prenant zj=δi,jpour
j[[1,k]] et niEle vecteur défini par Mate(ni) = Ni, la famille (n1, ..., nk)est une base de
Keru.
1.2.2 Image
Pour l’image, en échelonnant les vecteurs colonnes de la matrice Aà l’aide d’opérations
élémentaires, par exemple par la méthode du pivot, on obtient un famille de vecteurs colonnes
dont ceux qui sont non nuls sont les vecteurs coordonnées, dans la base f, d’une base de Imu.
3
1.3 Composition et produit matriciel
1.3.1 Matrices et composition
Mate,g(vu) = Mat f,g(v)Mat e,f(u). Si E,Fsont de dimension finie munis de bases eet f,
uL(E,F)est un isomorphisme ssi Mate,f(u)est carrée inversible.
1.3.2 Cas des endomorphismes
Cas des endomorphismes : notation Mate(u):=Mat e,e(u). L’application Mateest un iso-
morphisme d’anneaux de L(E)vers Mn(K). Par conséquent, un endomorphisme est bijectif ssi
sa matrice dans une base eest inversible. Cela prouve aussi la remarque concernant l’inversibi-
lité à gauche ou à droite qui suffit pour qu’une matrice carrée soit inversible.
1.4 Changements de bases
1.4.1 Matrices de passage
Pour eet e0deux bases de E, la matrice de passage de eàe0est la matrice Pe0
e=Mate(e0) =
Mate0,e(Id)(noter l’“inversion”). Cette matrice est inversible d’inverse Pe
e0. Plus généralement,
si e00 est une autre base, on a Pe0
ePe00
e0=Pe00
e.
1.4.2 Changement de base pour un vecteur
Avec les notations P=Pe0
e,X=Mate(x)et X0=Mat e0(x), formule X=PX0.
1.4.3 Changement de bases pour une application linéaire
Si de plus on a un espace Fde bases fet f0et on note Q=Pf0
f, et si on a uL(E,F)et on
note A=Mate,f(u)et A0=Mat e0,f0(u), on a la formule A0=Q1AP. Cas des endomorphismes :
si A=Mate(u)et A0=Mat e0(u)alors A0=P1AP.
2 Application linéaire canoniquement associée à une matrice
Dans toute cette section, pour qN?, on identifie les vecteurs de Kqà des matrices colonnes
(i.e. KqàMq,1(K)).
2.1 Définitions
Pour AMn,p(K), l’application linéaire canoniquement associée à Aest uAL(Kp,Kn)
admettant Apour matrice dans les bases canoniques. Grâce à l’identification entre vecteurs et
matrices colonnes, elle s’écrit X7−AX. On définit le noyau (resp. image, resp. rang) de A
comme celui (resp. celle, resp. celui) de uA. Les vecteurs colonnes de Asont alors les images
des vecteurs de la base canonique par uAet ils engendrent l’image de A(en particulier, leur rang
est celui de A).
4
2.2 Lien avec les systèmes linéaires
Le noyau est exactement l’ensemble des solutions de AX =0. L’image est l’ensemble des
seconds membres Btels que AX =Badmette des solutions. Le noyau est invariant par multipli-
cation à gauche par une matrice inversible, donc par toute opération élémentaire sur les lignes.
L’image est invariante par multiplication à droite par une matrice inversible donc par toute opé-
ration élémentaire sur les colonnes. Cela conforte dans ce cas particulier les méthodes de calcul
de noyaux, d’images et de rangs vus précédemment par des équivalences sur les lignes ou les
colonnes.
2.3 Caractérisation des matrices inversibles
Soit nN?. Pour une matrice AMn(K), l’application uAest alors un endomorphisme de
Kn. On déduit immédiatement des résultats sur les endomorphismes d’un espace vectoriel de
dimension finie la proposition suivante.
Proposition 1 Pour toute A Mn(K), les assertions suivantes sont équivalentes :
1. A GLn(K)(i.e. uAest bijective)
2. KerA={0}(i.e. uAest injective)
3. ImA=Kn(i.e. uAest surjective)
4. rgA=n (i.e. rg(uA) = n)
2.4 Théorème du rang
Soient n,pN?. On déduit directement du théorème du rang pour les applications linéaires,
le résultat suivant.
Théorème 2 AMn,p(K),rgA+dim KerA=p.
qui a en particulier comme conséquences :
Corollaire 3 Le rang d’une matrice est invariant par multiplication, à gauche ou à droite, par
une matrice inversible.
Démonstration: On a vu précédemment que la multiplication à droite d’une matrice Apar une
matrice inversible ne change pas ImAet donc pas rgAqui est la dimension de cette image.
Lorsqu’on multiplie Aà gauche par une matrice inversible, on ne change ni son nombre de
colonnes, ni son noyau, donc pas son rang d’après le théorème du rang ci-dessus. 2
Corollaire 4 Le rang d’une matrice est invariant par toute opération élémentaire sur ses lignes
ou sur ses colonnes.
Démonstration: On a vu qu’une opération élémentaire sur les lignes se traduit par une multi-
plication à gauche par une matrice élémentaire (qui est inversible), ce qui ne change pas le rang
d’après le corollaire précédent. De la même manière, une opération élémentaire sur les colonnes
se traduisant par une multiplication à droite par une matrice élémentaire (qui est inversible), ne
change pas le rang. 2
5
1 / 7 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !