04 - Algèbre linéaire (révisions de sup) Notes de cours

publicité
Algèbre linéaire (révisions de sup).
Chap. 04 : notes de cours.
Espaces vectoriels réels ou complexes.
Définitions et théorèmes généraux liés aux espaces vectoriels :
• K-espace vectoriel et corps de base, lois de composition internes et externes.
• Exemples de référence de - ou -espaces vectoriels.
• Combinaison linéaire de deux, plusieurs vecteurs (ou d’une famille quelconque de vecteurs).
• Sous-espace vectoriel d’un espace vectoriel : définition et caractérisation.
• Famille libre ou liée de vecteurs : définition et caractérisation diverses des familles liées, cas où l’un
des vecteurs est nul.
• Sous-espace vectoriel engendré par une famille de vecteurs : définition et notation « Vect ».
• Rang d’une famille de vecteurs : définition, calcul avec la méthode du pivot.
Espaces vectoriels de dimension finie :
• Base d’un espace vectoriel : définition.
• Définition d’un espace vectoriel de dimension finie à l’aide d’une famille génératrice finie, existence
d’une base dans un tel espace.
• Dimension d’un espace de dimension finie.
• Exemples classiques et bases dites « canoniques » des espaces de référence.
• Utilisation de la dimension finie pour la détermination de bases, l’égalité de sous-espaces vectoriels.
• Théorème de la base incomplète.
Applications linéaires.
Définitions et propriétés générales des applications linéaires :
• Définition d’une application linéaire entre deux K-espaces vectoriels.
• Vocabulaire : endomorphisme, isomorphisme, automorphisme, espaces vectoriels L(E,F), L(E).
• Image et noyau d’une application linéaire, caractérisation de l’injectivité et de la surjectivité (notations
« ker(u) », « Im(u) »).
• Conservation du rang d’une famille de vecteurs par une application linéaire injective, par
isomorphisme.
Applications linéaires en dimension finie :
• Famille génératrice de l’image d’une application linéaire à l’aide d’une famille génératrice de l’espace
de départ.
• Rang d’une application linéaire et théorème du rang.
• Caractérisations des isomorphismes à l’aide de la dimension entre espaces vectoriels de dimension
finie.
• Unique application linéaire entre deux espaces vectoriels E et F transformant une base de E en une
famille donnée de vecteurs de F (« une application linéaire est entièrement déterminée par la
connaissance des images des vecteurs d’une base de l’espace de départ, lorsqu’il est de dimension
finie »).
• Dimension de L(E,F) et L(E) lorsque E et F sont des espaces vectoriels de dimension finie.
Matrices.
Matrices comme éléments de Mn(K) :
• Les ensembles Mn,p(K) et Mn(K) et les règles d’addition, de combinaison linéaire et de multiplication.
• Dimension de ces espaces vectoriels.
• Matrice transposée d’une matrice, matrices carrées symétriques et antisymétriques.
• Supplémentarité dans Mn(K) des sous-espaces vectoriels Sn(K) et An(K), et dimension de ces
sous-espaces vectoriels.
• Matrices carrées triangulaires supérieures, inférieures, sous-espaces vectoriels de Mn(K) formés par
ces matrices et dimension de ces sous-espaces vectoriels.
Chapitre 04 : Algèbre linéaire (révisions de sup) – Notes de cours.
-1-
Matrices et espaces vectoriels : uniquement avec des espaces vectoriels de dimension finie
• Dans un espace vectoriel E, matrice (carrée) de passage entre deux bases de E, matrice (colonne)
des coordonnées d’un vecteur de E dans une base de E.
• Formule de changement de base liant les coordonnées d’un même vecteur dans deux bases de E.
• Matrice d’une application linéaire entre deux espaces vectoriels E et F, dans des bases de ces
espaces, relation via cette matrice entre les coordonnées dans une base de E d’un vecteur de E et
celle de son image dans une base de F (« Y = M . X »)
• Relation entre les matrices d’une application linéaire dans différentes bases des espaces de départ et
d’arrivée (« M ' = Q −1 .M .P »).
• Relation entre les matrices d’un endomorphisme d’un espace vectoriel E dans différentes bases de E
(« M ' = P −1 .M .P »)
• Application linéaire (endomorphisme) canoniquement associée à une matrice de Mn,p(K) (de Mn(K)).
Déterminants.
Déterminant des matrices carrées :
• Déterminant d’une matrice carrée comme unique application sur Mn(K), linéaire par rapport aux
colonnes d’une matrice, antisymétrique et valant 1 pour la matrice In.
• Traduction de cette définition du déterminant en termes d’opérations sur les colonnes d’une matrice :
factorisation par un scalaire dans une colonne ou dans toute la matrice, échange de deux colonnes,
cas d’égalité de deux colonnes, ajout à une colonne d’une combinaison linéaire des autres colonnes.
• Déterminant d’un produit de matrices, d’une matrice triangulaire ou diagonale.
• Déterminant d’une transposée (« det( t A) = det( A) »), et en conséquence, toutes les propriétés
énoncées pour les colonnes d’une matrice sont vraies aussi pour les lignes.
• Développement d’un déterminant suivant une ligne ou une colonne.
• Caractérisation des matrices inversibles à l’aide du déterminant et déterminant de l’inverse.
• Exemples de déterminants de matrices : les déterminants tridiagonaux et principe de leur calcul à
l’aide de suites récurrentes linéaires doubles.
Déterminants d’endomorphismes et de familles de vecteurs en dimension finie :
• Déterminant d’un endomorphisme d’un espace vectoriel de dimension finie, d’une famille de n vecteurs
d’un espace vectoriel de dimension n dans une base de cet espace.
• Traduction pour les endomorphismes et les familles de vecteurs des propriétés des déterminants pour
les matrices.
Chapitre 04 : Algèbre linéaire (révisions de sup) – Notes de cours.
-2-
Algèbre linéaire (révisions de sup).
Chap. 04 : notes de cours.
Espaces vectoriels réels ou complexes.
Définition 1.1 et 1.2 : K-espace vectoriel et corps de base
Remarque :
Pour un espace vectoriel, il faut deux lois de composition, l’une interne et l’autre externe, la plupart du
temps notées + et .
On revient rarement à la définition d’un espace vectoriel et on utilise plus couramment la structure de
sous-espace vectoriel d’un espace vectoriel plus gros.
(hors programme) Pour une algèbre, il faut trois lois, deux internes et une externe, notées souvent +, ., ×,
mais la troisième est parfois la loi o.
Exemples (théorème 1.1) :
espaces de n-uplets n, n,
espaces de fonctions F(I, ), F(I, ), C0(I, ), Cn(I, ), C∞(I, ), (ou à valeurs dans ), F(I,E), où E est un
K-espace vectoriel,
espaces de polynômes n[X], n[X], [X], [X],
espaces de suites , ,
espaces de matrices Mn,p( ), Mn,p( ), Mn( ), Mn( ),
espaces d’applications linéaires ou d’endomorphismes L(E,F), L(E), où E et F sont des K-espaces
vectoriels.
Dans tous ces exemples, F(I, ), F(I, ), C0(I, ), Cn(I, ), C∞(I, ), n[X], n[X], [X], [X], Mn( ),
Mn( ), et L(E), peuvent être naturellement munis d’une structure d’algèbre.
Exemples :
n
Dans ( ,+,.), les lois qui en font classiquement un -espace vectoriel sont définies par :
n
n
∀ u = (u1, .., un) ∈ , ∀ v = (v1, …, vn) ∈ , ∀ λ ∈ ,
• u + v = w, avec : ∀ 1 ≤ i ≤ n, wi = ui + vi, soit : (u1, .., un) + (v1, …, vn) = (u1 + v1, …, un + vn),
• λ.u = w’, avec : ∀ 1 ≤ i ≤ n, w’i = λ.ui, soit : λ.(u1, .., un) = (λ.u1, …, λ.un).
Dans F(I, ), les lois qui en font classiquement un -espace vectoriel sont définies par :
2
∀ (f,g) ∈ (F(I, )) , ∀ λ ∈ ,
• f + g = h, avec : ∀ x ∈ , h(x) = f(x) + g(x), soit : (f + g)(x) = f(x) + g(x),
• λ.f = k, avec : ∀ x ∈ , k(x) = λ.f(x), soit : (λ.f)(x) = λ.f(x).
Définition 1.3 : combinaison linéaire
C’est une expression mêlant les deux lois de l’espace, du type (λ.x + µ.y) où x et y sont des vecteurs (de
l’espace E dans lequel on travaille) et λ et µ des scalaires (dans le corps de base de l’espace E).
Attention : lorsque la famille est finie, on généralise cette définition sans problème, mais lorsque la
famille est infinie, une combinaison linéaire de vecteurs ne comporte toujours qu’un nombre fini de
coefficients non nuls.
Exemple :
3
Dans ( ,+,.) on a : 2.(2,1,-1) + 3.(0,-1,2) = (4,-1,4).
Définition 1.4 et théorème 1.2 : sous-espace vectoriel
• On dit que F est un sous-espace vectoriel du K-espace vectoriel(E,+,.) si F est inclus dans E et si F est
un espace vectoriel pour les lois + et . de E.
• Un ensemble F est un sous-espace vectoriel d’un espace vectoriel E si et seulement si il est inclus
dans E, non vide et stable par combinaison linéaire.
Exemple d’un sous-espace vectoriel :
Si on note : F = 2[X], F est un sous-espace vectoriel de [X].
En effet :
• F ⊂ [X],
• F ≠ ∅, puisque F contient le polynôme nul qui est bien à coefficients réels et de degré inférieur ou égal à 2,
2
2
• ∀ (P,Q) ∈ F , ∀ (λ,µ) ∈ , [λ.P + µ.Q] est un polynôme à coefficients réels de degré inférieur ou égal à 2.
Chapitre 04 : Algèbre linéaire (révisions de sup) – Notes de cours.
-3-
Définitions 2.1 et 2.2, théorèmes 2.1 et 2.2 : caractérisation de familles libres ou liées
• Une famille de vecteurs dans un espace vectoriel est libre si et seulement si toute combinaison linéaire
nulle des vecteurs de cette famille entraîne la nullité des coefficients de cette combinaison linéaire.
• Une famille qui n’est pas libre est liée.
• Une famille est liée si et seulement si il existe une combinaison linéaire nulle des vecteurs de la famille
avec des coefficients non tous nuls.
• Une famille est liée si et seulement si l’un des vecteurs de la famille peut s’exprimer comme
combinaison linéaire des autres vecteurs de la famille.
• Si une famille contient le vecteur nul, ou si deux des vecteurs de la famille sont égaux, elle est liée.
Exemple : la famille (sin, cos) est libre dans F( , )
C’est bien une famille d’éléments de F( , ).
2
Puis pour : (λ,µ) ∈ , si on a : λ.sin + µ.cos = 0 (fonction nulle), alors :
∀ x ∈ , λ.sin(x) + µ.cos(x) = 0 (réel), et en particulier :
• pour : x = 0, on en déduit : λ.0 + µ.1 = 0, donc : µ = 0, et :
• pour : x =
π
2
, on a de même : λ.1 + µ.0 = 0, soit : λ = 0.
La famille (sin, cos) est bien libre dans F( , ).
Exemple : condition suffisante pour qu’une famille de polynômes soit libre
Dans K[X], une famille (P1, …, Pn) est libre lorsque les polynômes sont tous de degrés différents, en particulier s’ils
sont « échelonnés en degrés ».
2
3
Par exemple : (X – 1, X, 1, X – X) est libre dans [X].
Définition 2.4 : sous-espace vectoriel engendré par une famille, famille génératrice d’un espace :
• L’ensemble des combinaisons linéaires des vecteurs d’une famille donnée (dans un espace vectoriel E
de référence) constitue un sous-espace vectoriel de E appelé sous-espace vectoriel de E engendré par
la famille.
• Lorsque le sous-espace engendré est égal à E lui-même, on dit que la famille est génératrice de
l’espace E.
Définition 2.3 et théorème 3.6 : rang d’une famille
• Pour une famille donnée (en général finie) de vecteurs d’un espace E, le rang de cette famille est le
plus grand nombre de vecteurs que l’on peut extraire de cette famille et constituant une famille libre.
C’est aussi dans ce cas la dimension du sous-espace vectoriel de E engendré par la famille.
Exemple : calcul du rang de deux familles à l’aide de la méthode du pivot (dans
6
• Soient : x = (1,2,3,4,5,6), y = (-1,-1,0,1,3,2), z = (2,0,-1,3,2,5), dans .
En partant de : λ.x + µ.y + ν.z = 0, on obtient les systèmes suivants :
 1.λ − 1.µ + 2.ν
 2.λ − 1.µ + 0.ν

 3.λ + 0.µ − 1.ν

 4.λ + 1.µ + 3.ν
5.λ + 3.µ + 2.ν

6.λ + 2.µ + 5.ν
1.λ − 1.µ + 2.ν

1.µ − 4.ν


3.µ − 5.ν
⇔ 
= 0
5.µ − 1.ν


= 0
8.µ − 8.ν


= 0
8.µ − 7.ν
= 0
= 0
= 0
1.λ − 1.µ + 2.ν

1.µ − 4.ν


7.ν
⇔ 
= 0
19.ν


= 0
24.ν


= 0
25.ν
= 0
= 0
= 0
3
,
3[X])
1.λ − 1.µ + 2.ν

1.µ − 4.ν


7.ν
⇔ 
= 0
0


= 0
0


= 0
0
= 0
= 0
= 0
= 0
= 0
= 0
= 0
= 0
= 0
,
et en remontant le dernier système, on conclut que : λ = µ = ν = 0 : la famille est libre.
Le nombre de lignes non nulles dans le dernier système (échelonné) donne aussi le rang de la famille, qui est ici 3.
On aurait également pu appliquer la méthode du pivot à la matrice représentant les trois vecteurs dans la base
6
canonique de , ce qui aurait donné :
1 −1 2 
1 −1



2 −1 0 
0 1
 3 0 − 1
0 3
 = rg 
rg 
3
4 1
0 5



2
5 3
0 8
6 2 5 
0 8



2 
1 −1 2 
1 −1 2 





− 4
 0 1 − 4
0 1 − 4
0 0
0 0
− 5
7 
7 
 = rg 
 = rg 
 = 3,
−1
0 
 0 0 19 
0 0




− 8 
0 
 0 0 24 
0 0
 0 0 25 
0 0
− 7 
0 



Chapitre 04 : Algèbre linéaire (révisions de sup) – Notes de cours.
-4-
c’est-à-dire à nouveau le nombre de lignes non nulles dans la dernière matrice.
En fait, c’est exactement le même principe.
• Dans 3[X], on cherche le rang de la famille (X + 1, X – X + 3, X , X + 2.X).
Pour cela, on part de : λ1.P1 + λ2.P2 + λ3.P3 + λ4.P4 = 0, ce qui donne les systèmes suivants, en exprimant les
coordonnées de la combinaison linéaire dans la base canonique de 3[X] :
2
1.λ1 + 3.λ 2 + 0.λ3 + 0.λ 4
0.λ − 1.λ + 0.λ + 2.λ
 1
2
3
4

 1.λ1 + 1.λ 2 + 0.λ3 + 1.λ 4
0.λ1 + 0.λ 2 + 1.λ3 + 0.λ 4
=
=
=
=
1.λ1 + 3.λ 2 + 0.λ3 + 0.λ 4
 0.λ − 1.λ + 0.λ + 2.λ
 1
2
3
4
⇔ 
λ
λ
λ
λ
0
.
+
0
.
+
1
.
+
0
.
2
3
4
 1
0.λ1 + 0.λ 2 + 0.λ3 − 3.λ 4
2
3
2
0
1.λ1 + 3.λ 2 + 0.λ3 + 0.λ 4 = 0
1.λ1 + 3.λ 2 + 0.λ3 + 0.λ 4

 0.λ − 1.λ + 0.λ + 2.λ
0
0.λ1 − 1.λ 2 + 0.λ3 + 2.λ 4 = 0
 1
2
3
4
⇔ 
⇔ 
0
0.λ1 − 2.λ 2 + 0.λ3 + 1.λ 4 = 0
0.λ1 + 0.λ 2 + 0.λ3 − 3.λ 4
0.λ1 + 0.λ 2 + 1.λ3 + 0.λ 4 = 0
 0.λ1 + 0.λ 2 + 1.λ3 + 0.λ 4
0
= 0
= 0
, en intervertissant les deux dernières lignes.
= 0
= 0
=
=
=
=
0
0
0
0
Autrement dit le rang est ici 4 (4 lignes échelonnées non nulles) et la famille est libre.
Matriciellement cela donne :
1 3

0 −1
rg 
1 1

0 0

0 0
1 3


0 2
0 −1
= rg 

0 1
0 −2


0 0
1 0 

0 0
1 3


0 2
0 −1
= rg 

0 1
0 0


0 0
1 0 

0 0 
1 3


0 2 
0 −1
= rg 

0 −3
0 0


0 0
1 0 

0 

2 
= 4.
0 

0 − 3 
0
0
1
Notez que pour suivre ce qu’on fait pour passer d’un système au suivant, il serait bien de connaître les opérations
effectuées, et donc pour rendre une copie plus lisible on peut indiquer ces opérations (même rapidement) !
Espaces vectoriels de dimension finie.
Définitions 2.5, 3.1 et 3.2, théorème 3.2 : base d’un espace vectoriel, espace vectoriel de dimension
finie
• On appelle base d’un espace vectoriel E une famille de vecteurs de E formant une famille à la fois libre
et génératrice de E.
• Lorsqu’un espace E admet une famille génératrice finie, on dit qu’il est de dimension finie et dans un
tel cas, E admet alors une base formée d’un nombre fini de vecteurs.
• Toutes les bases de E ont alors le même nombre d’éléments appelé dimension de E et noté dim(E).
• On dit parfois plus rapidement qu’un espace est de dimension finie lorsqu’il admet une base
comportant un nombre fini de vecteurs.
Exemples : espaces vectoriels classiques de dimension finie, avec justification
n
• Les espaces K sont des K-espaces vectoriels de dimension finie égale à n.
ème
En effet, on peut en proposer une base (εi)1≤i≤n définie par : εi = (0,…,0,1,0,…,0), où le 1 est situé en i
position.
• Les ensembles Kn[X] avec : n ∈ , sont des K-espaces vectoriels de dimension finie égale à n+1.
n
En effet, on peut en proposer une base qui est (1, X, …, X ) et qui comporte bien n+1 vecteurs.
• L’ensemble Mn,p(K) des matrices à coefficients dans K avec n lignes et p colonnes forme un K-espace vectoriel
de dimension n.p.
On peut à nouveau en proposer une base avec la famille (Ea,b)1≤a≤n,1≤b≤p, où Ea,b est la matrice formée de 0 avec un
ème
ème
seul coefficient non nul valant 1, situé à l’intersection de la a
ligne et de la b
colonne.
Le coefficient générique de Ea,b est : δa,i.δb,j, où δu,v désigne le symbole de Kronnecker.
Ces bases sont dites « canoniques » car elles sont immédiatement déduites de la forme générique des éléments
de ces espaces.
3
Un espace vectoriel quelconque n’a pas de base « canonique » (exemple : un plan vectoriel dans ).
Théorème 3.3 : propriétés des familles libres, génératrices, des bases en dimension finie
• Dans un espace E de dimension finie n, toute famille libre de vecteurs de E admet au plus n vecteurs,
toute famille génératrice de E admet au moins n vecteurs, et toute base admet exactement n vecteurs.
• Une famille de vecteurs de E est alors une base de E si et seulement si elle comporte n vecteurs et est
soit libre, soit génératrice de E.
Chapitre 04 : Algèbre linéaire (révisions de sup) – Notes de cours.
-5-
Théorème 3.5 : dimension d’un sous-espace vectoriel, égalité de sous-espaces vectoriels en
dimension finie
• Si E est un espace vectoriel de dimension finie n, et si F est un sous-espace vectoriel de E, alors F est
de dimension finie, inférieure ou égale à n.
• Si F et G sont des sous-espaces vectoriels d’un espace vectoriel E de dimension finie, ils sont égaux si
et seulement si l’un est inclus dans l’autre et s’ils sont de même dimension.
2
Exemple : justifier que 2[X] et Vect(X + X + 1, 2.X – 1, 3) sont égaux
2
Il est immédiat que : F = Vect(X + X + 1, 2.X – 1, 3) ⊂ 2[X], puisque :
• les trois polynômes générateurs sont dans 2[X],
• 2[X] est stable par combinaison linéaire donc toute combinaison linéaire de ces trois vecteurs (donc tout
élément de F) est encore dans 2[X].
De plus la famille est échelonnée en degrés donc elle est libre, et étant libre et génératrice de F, elle en constitue
une base.
On en déduit que : dim(F) = 3.
Mais comme de plus : dim( 2[X]) = 3, on conclut à l’égalité des deux espaces vectoriels.
Théorème 3.4 : de la base incomplète
Dans un espace vectoriel E de dimension finie, toute famille libre de vecteurs de E peut être complétée
en une famille formant une base de E, les vecteurs manquants pouvant au besoin être extraits d’une
base de E donnée par ailleurs.
Applications linéaires.
Définitions 4.1, 4.2, 4.3 et théorème 4.1 : applications linéaires, morphismes, groupe linéaire
• Etant donnés deux espaces vectoriels E et F, une application linéaire de E dans F est une application
de E dans F qui préserve les combinaisons linéaires, autrement dit qui transforme une combinaison
linéaire de vecteurs de E en la combinaison linéaire correspondante de leurs images dans F.
• On définit ainsi des espaces vectoriels d’applications linéaires L(E,F), L(E).
• Une application linéaire est aussi appelée morphisme d’espaces vectoriels avec les précisions
suivantes :
- un endomorphisme est une application linéaire d’un espace vectoriel E dans lui-même,
- un isomorphisme est une application linéaire bijective d’un espace vectoriel E dans un autre espace F,
- un automorphisme est une application linéaire bijective d’un espace vectoriel E dans lui-même.
• L’ensemble des automorphismes de E, noté Gl(E) forme un groupe pour la loi o de composition des
applications et est appelé groupe linéaire de E.
Définition 4.4, théorèmes 4.2 et 4.3 : image et noyau d’une application linéaire
• Pour une application linéaire u d’un espace vectoriel E dans un autre espace F, on appelle :
- noyau de u l’ensemble des vecteurs de E qui ont pour image 0 soit : ker(u) = {x ∈ E, u(x) = 0}, et :
- image de u l’ensemble des images de tous les vecteurs de E par u ou encore l’ensemble des vecteurs
de F qui ont un antécédent par u dans E, soit : Im(u) = {u(x), x ∈ E} = {y ∈ F, ∃ x ∈ E, y = u(x)}.
• Ces deux ensembles sont des sous-espaces vectoriels, respectivement de E et de F..
• Une application linéaire u entre espaces vectoriels est injective si et seulement si : ker(u) = {0}.
• Une application linéaire u d’un espace vectoriel E dans un espace vectoriel F est surjective si et
seulement si : Im(u) = F.
Théorème 5.1 : famille génératrice de l’image d’une application linéaire en dimension finie, rang
d’une application linéaire,
• Si u est une application linéaire d’un espace vectoriel E de dimension finie dans un espace vectoriel
F, et si (e1, … ,ep) est une famille génératrice de E, alors les vecteurs (u(e1), …, u(ep)) forment une
famille génératrice de Im(u), qui est donc de dimension finie, même si F ne l’est pas.
• On appelle alors rang de u, noté rg(u), la dimension de Im(u), soit : rg(u) = dim(Im(u)).
Exemple :
3
4
Soit l’application linéaire définie de
dans
par :
3
∀ a = (x,y,z) ∈ , u(a) = (2.x – z, x + 2.y + z, y + 3.z, -x – y + 2.z).
Alors Im(u) admet pour famille génératrice (ε1, ε2, ε3), avec :
ε1 = u((1, 0, 0)) = (2, 0, 0, -1),
ε2 = u((0, 1, 0)) = (0, 2, 1, -1),
Chapitre 04 : Algèbre linéaire (révisions de sup) – Notes de cours.
-6-
ε3 = u((0, 0, 1)) = (-1, 1, 3, 2).
En calculant le rang de cette famille, on obtient la dimension de Im(u) dons le rang de u.
Remarque : c’est aussi le rang de la matrice représentative de (ε1, ε2, ε3) dans la base canonique de
4
, c’est-à-
 2 0 − 1


2 1
0
, autrement dit la matrice représentative de u dans les bases canoniques de
dire de : A = 
0 1
3


−1 −1 2 


3
et
4
.
Théorème 5.3 : « du rang »
Si u est une application linéaire d’un espace vectoriel E de dimension finie dans un espace vectoriel F,
alors : dim(E) = dim(Im(u)) + dim(ker(u)) = rg(u) + dim(ker(u)).
Théorème 5.4 : caractérisation des isomorphismes entre espaces de dimension finie
Si u est une application linéaire entre deux espaces vectoriels E et F de dimension finie, il y a
équivalence entre les propositions suivantes :
• u est un isomorphisme de E sur F,
• u est injective et : dim(E) = dim(F),
• u est surjective et : dim(E) = dim(F).
En particulier, pour : u ∈ L(E), toujours avec E de dimension finie, on a les équivalences :
(u bijective) ⇔ (u injective) ⇔ (u surjective).
Exemple :
L’application ϕ de n[X] dans lui-même, définie par : P a X.P’ + P, définit un automorphisme de [X].
• En effet elle est linéaire, par linéarité de la dérivation des polynômes.
• De plus si P est non nul de degré : 0 ≤ k ≤ n, et de coefficient dominant ak (donc non nul), alors ϕ(P) est de degré
k
au plus k, mais le coefficient de X dans ϕ(P) est : (k+1).ak.
Autrement dit ϕ(P) est de degré k donc est non nul.
L’application ϕ est donc injective, puisque par contraposée : (ϕ(P) = 0) ⇒ (P = 0), et : ker(ϕ) = {0}.
• Enfin, c’est une endomorphisme d’un espace vectoriel de dimension finie (ici n+1) donc l’injectivité de ϕ entraîne
sa bijectivité et ϕ est un automorphisme de n[X].
Théorème 5.5 : conservation du rang d’une famille par isomorphisme (ou application injective)
Si u est un isomorphisme (ou une application linéaire injective) entre deux espaces vectoriels E et
F, alors l’image d’une famille de rang p de vecteurs de E est une famille de rang p de vecteurs de F.
Théorème 5.6 : dimension de L(E,F), de L(E)
• Si E et F sont des espaces vectoriels de dimension finie, alors l’ensemble des applications linéaires de
E dans F, noté L(E,F) a une structure naturelle d’espace vectoriel de dimension (dim(E).dim(F)).
• En particulier, si E est un espace vectoriel de dimension finie, L(E) a pour dimension (dim(E))2.
Matrices.
Définitions 6.1, 6.2, théorèmes 6.1 et 6.2 : les espaces vectoriels de matrices, produit matriciel
• L’ensemble Mn,p(K) des matrices à n lignes et p colonnes à coefficients dans K peut être muni d’une
structure de K-espace vectoriel de dimension n.p.
• Pour : A ∈ Mn,p(K), B ∈ Mp,q(K), on définit la matrice produit : C ∈ Mn,q(K), de A par B, par :
∀ 1 ≤ i ≤ n, ∀ 1 ≤ j ≤ q, ci , j =
p
∑a
k =1
i ,k
.bk , j .
• L’ensemble Mn(K) des matrices carrées à n lignes et n colonnes à coefficients dans K peut être muni
d’une structure de K-algèbre de dimension n2, avec les lois +, ., ×.
• L’ensemble des matrices carrées inversibles de Mn(K) est un groupe pour la multiplication des
matrices noté Gln(K), et appelé groupe linéaire d’ordre n.
Définitions 6.3, 6.4 et théorème 6.3 : matrice transposée, matrice symétrique, antisymétrique, les
espaces Sn(K) et An(K)
• On appelle transposée d’une matrice A de Mn,p(K) la matrice notée : A’ = tA, appartenant à Mp,n(K),
Chapitre 04 : Algèbre linéaire (révisions de sup) – Notes de cours.
-7-
définie par :
∀ 1 ≤ i ≤ p, ∀ 1 ≤ j ≤ n, a ' i , j = a j ,i ,
et on a : ∀ A ∈ Mn,p(K), t ( t A) = A .
• Une matrice carrée est dite symétrique lorsque : t A = A , et antisymétrique si : t A = − A .
• L’ensemble des matrices symétriques n×n à coefficients dans K, noté Sn(K) et celui des matrices
antisymétriques, noté An(K) forment des sous-espaces vectoriels supplémentaires de Mn(K), de
dimensions respectives : dim(Sn(K)) =
n.(n + 1)
n.(n − 1)
, dim(An(K)) =
.
2
2
Exemple : démontrer explicitement cette supplémentarité en décomposant toute matrice de Mn(K)
On va raisonner par analyse-synthèse, et pour cela, soit : M ∈ Mn(K).
• Analyse (« que dire des solutions SI elles existent ? ») :
SI M peut se décomposer en : M = S + A , avec S symétrique et A antisymétrique, alors : t M = S − A ,
donc par combinaisons linéaires :
1
1
S = .( M + t M ) , et : A = .( M − t M ) .
2
2
Autrement dit, SI S et A existent, elles ne peuvent valoir que ce qui précède, d’où unicité d’une éventuelle solution
(on n’a pas encore montré que S et A répondaient bien au problème).
• Synthèse (« montrons qu’il y a effectivement des solutions ») :
Puisque S et A ne peuvent valoir que ce qu’on a trouvé, montrer qu’il y a une solution au problème revient ici à
vérifier que S et A conviennent, ce qui dans le contexte revient à vérifier que :
1
1
S = .( t M + t ( t M )) = .( t M + M ) = S ,
2
2
1 t
1 t
t
t t
A est bien antisymétrique : A = .( M − ( M )) = .( M − M ) = − A .
2
2
1
1
t
t
leur somme donne bien M : S + A = .( M + M ) + .( M − M ) = M .
2
2
S est bien symétrique :
t
Conclusion : toute matrice dans Mn(K) admet une unique décomposition suivant Sn(K) et An(K), et ces espaces
sont bien supplémentaires dans Mn(K).
Définition 7.2 : matrice de changement de base (matrice de passage), cas de trois bases
• Dans un espace vectoriel E de dimension finie n, muni de deux bases : B = (ei), et : B’ = (e’i), la
matrice de passage P de la base B à la base B’ la matrice obtenue en écrivant en colonnes les
coordonnées des vecteurs de B’ exprimés dans la base B.
Plus précisément, si on note : ∀ 1 ≤ j ≤ n, e j ' =
n
∑p
i =1
i, j
.ei , la matrice P est la matrice : (pi,j) ∈ Mn(K),
notée parfois : P = PB,B’.
• Cette matrice de passage vérifie de plus : PB,B’ = mat(idE,B’,B).
• P est une matrice inversible et P-1 est la matrice de passage de B’ à B.
• Enfin, si : B = (ei), B’ = (e’i), et : B’’ = (e’’i), sont trois bases de E, alors : PB,B’’ = PB,B’.PB’,B’’.
Définition 7.1 et théorème 7.1 : matrice des coordonnées d’un vecteur dans une base et formules de
changement de base
• Dans un espace vectoriel E de dimension finie n muni d’une base : B = (e1, …, en), un vecteur x de E
admet une unique décomposition selon la base B de la forme : x =
n
∑ x .e
i =1
i
i
.
 x1 
 
La matrice des coordonnées de x dans B est la matrice colonne : X ∈ Mn,1(K), définie par : X =  M  ,
x 
 n
appelée matrice représentative de x dans la base B.
• Si E est muni de deux bases : B = (ei), et : B’ = (e’i), et si P désigne la matrice de passage de B à
B’, alors un vecteur x de E admet deux matrices colonnes représentatives dans les bases B et B’,
Chapitre 04 : Algèbre linéaire (révisions de sup) – Notes de cours.
-8-
notées X et X’ qui sont alors liées par la relation : X = P.X ' .
Théorème 5.2 et définition 8.1 : caractérisation d’une application linéaire par les images des
vecteurs d’une base, matrice d’une application linéaire dans des bases
• Si E et F sont des espaces vectoriels, avec E de dimension finie n, et si : B = (e1, …, en) ; est une
base de E et (a1, …, an) une famille de vecteurs de F, il existe une unique application linéaire u de E
dans F telle que : ∀ 1 ≤ j ≤ n, u (e j ) = a j .
Autrement dit, une application linéaire de E dans F est entièrement déterminée par la donnée des
images des vecteurs d’une base de l’espace de départ.
• Si F est également de dimension finie p et : B’ = (e’1, …, e’p), est une base de F, la donnée des
vecteurs ai est équivalente à celle de leurs coordonnées dans la base B’ : ∀ 1 ≤ j ≤ n, a i =
p
∑a
i =1
i, j
.ei .
La matrice A définie par ces coordonnées détermine donc entièrement u : c’est la matrice représentative
de u dans les bases B et B’ et elle est construite en inscrivant, en colonnes, les coordonnées
exprimées dans B’ des images par u des vecteurs de B.
Exemples :
• On donne dans 3[X], les images des vecteurs de la base canonique par l’endomorphisme u :
u(1) = X + 1,
3
u(X) = X – 2.X – 1,
2
2
u(X ) = X + X,
3
u(X ) = 2.X.
2
3
Alors : ∀ P ∈ 3[X], P = a0 + a1.X + a2.X + a3.X ,
3
2
3
2
u(P) = a0.(X + 1) + a1.(X – 2.X – 1) + a2.(X + X) + a3.(2.X) = a1.X + a2.X + (a0 – 2.a1 + a2 + 2.a3).X + (a0 – a1),
et l’image de tout polynôme est bien déterminée par la donnée des images des vecteurs de la base.
1 −1

1 − 2
La matrice de u dans la base canonique est : mat(u,Bc) = 
0 0

0 1

0 0

1 2
.
1 0

0 0 
dans
:
• On donne, pour u linéaire de
u((1, 0, 0)) = (0, 2, 3, -1),
u((0, 1, 0)) = (1, 1, 0, 1),
u((0, 0, 1)) = (2, 1, 1, 1).
Alors u est entièrement déterminée par ces données puisque :
3
∀ a = (x,y,z) ∈ , u(a) = x.(0, 2, 3, -1) + y.(1, 1, 0, 1) + z.(2, 1, 1, 1) = (y+2.z, 2.x+y+z, 3.x+z, -x+y+z),
3
4
0

2
3
4
et la matrice de u dans les bases canoniques de
et
est : mat(u, B3, B4) = 
3

−1

1 2

1 1
.
0 1

1 1 
Théorème 8.2 : traduction matricielle du lien entre un vecteur et son image par un morphisme,
Si E et F sont des espaces vectoriels de dimension finie p et n, munis de bases B et C, et : u ∈ L(E,F),
de matrice représentative A dans les bases B et C, alors pour un vecteur x de E, et en notant X la
matrice colonne de ses coordonnées dans la base B, Y la matrice colonne des coordonnées de son
image : y = u (x) , dans la base C, on a : Y = A. X .
Théorème 8.5 : lien entre les matrices d’un même endomorphisme dans différentes bases
• Soient deux espaces vectoriels E et F de dimension finie p et n, B et B’ deux bases de E, C et C’
deux bases de F, P et Q les matrices de passage respectives de B à B’ et de C à C’.
Pour tout : u ∈ L(E,F), si on note : A = mat(u,B,C), et : A’ = mat(B’,C’), toutes ces matrices sont liées
par la relation : A' = Q −1 . A.P .
• En particulier, dans un espace vectoriel de dimension finie muni de deux bases B et B’, avec P la
matrice de passage de B à B’, tout endomorphisme u de E ayant A et A’ comme matrices
Chapitre 04 : Algèbre linéaire (révisions de sup) – Notes de cours.
-9-
représentatives dans B et B’ est tel que : A' = P −1 . A.P .
Définition 8.2 : application linéaire ou endomorphisme canoniquement associé à une matrice
Si A est une matrice à p n lignes et p colonnes, soit : A ∈ Mn,p(K), il est possible d’attacher à A de façon
canonique une application linéaire.
Cette application linéaire u est définie de Kp dans Kn, est appelée application linéaire canoniquement
associée à A, et est définie par : mat(u,Bp,Bn) = A, où Bp et Bn désignent les bases canoniques
respectives de Kp et Kn.
Si A est une matrice carrée appartenant à Mn(K), on parle alors d’endomorphisme canoniquement
associé à A qui est donc défini comme un endomorphisme de Kn.
Exemples :
 1 2 − 1


• La matrice : A =  2 0 2  , est canoniquement associée à l’endomorphisme u de
1 1 1 


3
défini également par :
u((1, 0, 0)) = (1, 2, 1),
u((0, 1, 0)) = (2, 0, 1),
u((0 ,0 ,1)) = (-1, 2, 1).
 0 1 −1 1


• La matrice : B =  1 1 2 0  , est canoniquement associée à l’application linéaire de
 2 4 1 3


4
dans
3
définie
par :
u((1, 0, 0, 0)) = (0 ,1 ,2),
u((0, 1, 0, 0)) = (1, 1, 4),
u((0, 0, 1, 0)) = (-1, 2, 1),
u((0, 0, 0, 1)) = (1, 0, 3).
Théorème 8.1 : dimension de Mn,p(K)
L’espace Mn,p(K) est de dimension n.p.
Déterminants.
Remarque générale :
La construction du déterminant sur Mn(K) ou sur En, où (E,+,.) est un K-espace vectoriel de dimension
n est différente en MPSI et PCSI.
La présentation faite dans la partie « cours complet » reprend la présentation théorique qui a pu être
faite en MPSI, et elle nécessite des notions délicates (notamment sur le groupe symétrique)
développées dans cette partie.
Cette présentation est suivie de compléments (comatrice par exemple).
La présentation qui suit en revanche est conforme au programme de PCSI.
Le programme de PSI quant à lui se borne à indiquer « exemples de déterminants » sans présentation
théorique.
Définition : déterminant sur Mn(K)
Soit : n ≥ 1.
Il existe une unique application notée det de Mn(K) dans K telle que :
• det est linéaire par rapport à toutes les colonnes de sa variable,
• det est antisymétrique par rapport aux colonnes de sa variable,
• det(In) = 1.
Théorème : conséquence de la définition du déterminant
Soient : n ≥ 1, A ∈ Mn(K), et : λ∈ K
• Si on échange deux colonnes de A, alors le déterminant de la matrice obtenue est : – det(A).
• Si on remplace une colonne de A par elle-même additionnée d’une combinaison linéaire des autres
colonnes, le déterminant de la matrice obtenue est inchangé.
• Si on multiplie une colonne de A par un scalaire λ, le déterminant de la matrice obtenue est : λ.det(A).
Chapitre 04 : Algèbre linéaire (révisions de sup) – Notes de cours.
- 10 -
Autrement dit, si on peut factoriser une constante λ dans une colonne de A, sortir ce λ de det(A) revient
à multiplier le déterminant restant par λ.
• det(λ.A) = λn.det(A) (factorisation de λ dans toutes les colonnes de λ.A).
• Si A présente deux colonnes égales ou proportionnelles, alors : det(A) = 0.
Théorème : déterminant d’une matrice triangulaire, diagonale
Si A est une matrice carrée triangulaire (supérieure ou inférieure) ou diagonale, son déterminant est égal
au produit de ses éléments diagonaux.
Théorème : déterminant d’un produit de matrices
Soit : n ≥ 1, et soit : (A,B) ∈ Mn(K)2.
Alors : deet ( A.B ) = det( A). det( B ) .
Théorème : caractérisation des matrices inversibles, déterminant de l’inverse d’une matrice
Soit : n ≥ 1, et soit : A ∈ Mn(K).
A est inversible si et seulement si : det( A) ≠ 0 .
Dans ce cas, on a : det( A −1 ) =
1
.
det( A)
Théorème : déterminant d’une transposée
Soit : n ≥ 1, et soit : A ∈ Mn(K).
Alors : det( t A) = det( A) .
Remarque :
Toutes les propriétés vues sur le déterminant des matrices concernant les lignes de la matrice est
encore valable pour les colonnes.
Théorème : développement d’un déterminant suivant une ligne ou une colonne
Soit : n ≥ 1, et soit : A ∈ Mn(K).
Pour : 1 ≤ i,j ≤ n, on note Ai,j dans Mn-1(K) la matrice déduite de A en supprimant sa ième ligne et sa jème
colonne.
Alors :
• ∀ 1 ≤ i ≤ n, det( A) =
n
∑ (−1)
i+ j
j =1
• ∀ 1 ≤ j ≤ n, det( A) =
n
∑ (−1)
i =1
i+ j
. det( Ai , j ) , soit le développement suivant la ligne i,
. det( Ai , j ) , soit le développement suivant la colonne j.
Théorème et définition : déterminant d’un endomorphisme d’un espace vectoriel de dimension finie
Soit E un K-espace vectoriel de dimension finie n, et soit : u ∈ L(E).
Soit A la matrice représentative de u dans une base B de E.
La valeur det(A) est indépendante de la base B choisie et on pose : det(u ) = det( A) .
On appelle cette valeur le déterminant de u qui est donc égale au déterminant de la matrice
représentative de u dans n’importe quelle base de E.
Théorème : propriétés du déterminant pour les endomorphismes
Soit E un K-espace vectoriel de dimension finie n.
Alors :
• ∀ u ∈ L(E), ∀ λ ∈ K, det(λ .u ) = λn . det(u ) .
• ∀ (u,v) ∈ L(E)2, det(uov) = det(u ). det(v) .
• ∀ u ∈ L(E), (u ∈ Gl(E), soit u est inversible) ⇔ ( det(u ) ≠ 0 ), et dans ce cas : det(u −1 ) =
Chapitre 04 : Algèbre linéaire (révisions de sup) – Notes de cours.
1
.
det(u )
- 11 -
Téléchargement