Applications linéaires

publicité
Applications linéaires
I) Applications linéaires - Généralités
1.1) Introduction
L'idée d'application linéaire est intimement liée à celle d'espace vectoriel.
Elle traduit la stabilité par combinaison linéaire.
Définition
Soit E et F deux espaces vectoriels (on supposera que l'addition est notée de la même façon
dans ces deux espaces). Soit une application de E dans F.
On dit que f est une application linéaire de E dans F si elle possède les propriétés suivantes :
, , , , On a alors la caractérisation suivante :
Théorème
Soit E et F deux espaces vectoriels. Soit f une application de E dans F.
f est une application linéaire si et seulement si
, , , ,
Sens direct :
Si est une AL, alors et et .
Donc
Sens réciproque
Si , , , , ,
on aura en particulier pour 1
1 1 1
1
et pour 0
0 0 0
0 Une forme plus condensée
Théorème
Soit E et F deux espaces vectoriels. Soit f une application de E dans F.
f est une application linéaire si et seulement si
, , , Sens direct :
Si est une AL, alors et Donc
Sens réciproque
Si , , , ,
on aura en particulier pour 1
1 1
et pour 0
0 0 0 1.2) Compatibilité avec la structure d'espace vectoriel
Deux résultats sont utiles. Ils concernent les opposés et l'élément neutre.
Théorème
Soit une AL de E dans F. Alors
On a évidemment
, 1 1
Théorème
Soit une AL de E dans F, alors
0 0
On a pour tout dans E,
0 0
Une conséquence importante : autre caractérisation d’une AL
Théorème
Soit E et F deux espaces vectoriels. Soit f une application de E dans F.
f est une application linéaire si et seulement si
, , , Sens direct :
Si est une AL, alors et Donc
Sens réciproque
Si , , , ,
on aura en particulier pour 1
1 1 1
1
et pour 0
0 0 Or si , alors pour 1 et , on a
0
Or
0 0 0
Donc
Et donc en prenant 0
0 0 0 1.3) Exemples d'applications linéaires
Exemple 1
On considère l'ensemble ₂
et l'application de cet ensemble dans définie de la façon suivante
Si ,
.
est une application de l’espace vectoriel " dans l’espace vectoriel .
On a
# $
%
$
& #
'
%
&
$ $ #
$
& (
%
)
Exemple 2
On considère les ensembles ³ et ² (qui sont des ev) et l'application de ³ dans ² définit par :
$, %, ' ³, + 2$ %, ' %
Faisons la démonstration en deux étapes.
Soit $, %, ' et , , deux vecteurs de - .
On a
.
$, %, ' , , / $ , % , ' .2
$ % , ' % /
2$ 2 % , ' % 2$ %, ' % 2 , .
$, %, '/ , , Si λ est un réel quelconque et $, %, ' un vecteur de - , on a
.0
$, %, '/ .
0$, 0%, 0'/
20$ 0%, 0' 0% 0
2$ %, ' %
0
$, %, '
L'application est linéaire.
Exemple 3
On considère l’ensemble des fonctions dérivables sur . Soit 1
cet ensemble.
Nous savons que cet ensemble est un sous espace vectoriel de l’espace vectoriel 2
, des fonctions
de dans . A ce titre c’est un espace vectoriel.
Soit l’application de 1
dans 2
, qui à toute fonction de 1() fait correspondre la fonction
3 de 2 , .
Soit et 4 deux fonctions de 1
et α et β deux nombres réels.
4 43 3 43 4
L’application est donc linéaire.
On a
Exemple 4
On considère l’espace vectoriel des polynômes de degré inférieur ou égal à 3 : - 567.
On définit sur cet espace vectoriel une application notée ϕ définie de la façon suivante :
Si 9 - 567, :
9 est la fonction ; définie pour tout réel $ par :
;
$ $93 $ 29
$
Nous savons que si 9 est un polynôme de degré inférieur ou égal à 3, 9< est un polynôme de degré
inférieur ou égal à 2. L’application $ = $93 $ est une application polynôme de degré inférieur ou égal
à 3.
; apparaît alors comme la somme de deux polynômes de degré inférieur ou égal à 3. Donc ; est une
application de l’espace vectoriel - 567 dans lui-même.
Soit 9> et 9" deux éléments de - 567 et ;> :
9> , ;" :
9" . Soit α un nombre réel quelconque.
On aura pour tout réel $ ?
;> $ $9>3 $ 29> $ ;" $ $9"3 $ 29" $
Soit 9 9> 9" et ; : 9.
On a pour tout réel $:
;
$ $93 $ 29
$ $
9> 9" 3 $ 2
9> 9" $
$.9>3 $ 9"3 $ / 29> $ 29" $ .$9>3 $ 29> $/ .$9"3 $ 9" $ /
;> $ ;" $
On a donc
; ;> ;"
:
9> 9" :
9> :
9" L’application : est une application linéaire de - 567 dans - 567.
On dit que c’est un endomorphisme de - 567.
Et donc
Exemple 5
Au collège on appelait application linéaire toute application de dans de la forme :
$ $
Une application linéaire est bien… linéaire.
En effet a une structure d’espace vectoriel.
On a pour tout couple de réels $, % et pour tout nombre réel λ :
0$ % 0$ % 0$ % 0
$ %
Mais dans , ces applications sont les seules applications linéaires…
Una application affine n’est pas linéaire.
Prenons $ $ .
0$ % 0$ % 0$ % 0$ %
La fonction carrée n’est pas linéaire : si 4
$ $ " on a par exemple :
4
2 2" 4
Donc
4
1 4
1 1" 1" 2
4
1 1 B 4
1 4
1
On note C
, D l'ensemble des applications linéaires de l’espace vectoriel E dans l’espace vectoriel F.
On a alors le résultat suivant :
1.4) L'ensemble des applications linéaires
Théorème
C
, D) a une structure d'espace vectoriel sur .
On peut en effet définir la somme de deux applications linéaires de E dans F de la façon suivante :
Si C
, D , 4 C
, D, l’application somme est notée 4 et est définie par
$ , 4
$ $ 4
$
On peut également définir le produit par un réel d’une application de C
, D de la façon suivante :
Si C
, D et si , l’application notée est définie par :
$ , $ $
On peut remarquer que ces deux définitions sont celles que l’on rencontre habituellement pour parler
de fonction somme de deux fonctions, et fonction produit par un réel.
L’ensemble des applications linéaires de E dans F est un sous-ensemble de l’espace vectoriel des
fonctions de E dans F (les applications linéaires sont des fonctions particulières de E dans F).
Il est non vide, puisque la fonction nulle de E dans F est une application linéaire.
Notons E cette application nulle de E dans F. C’est l'application définie par :
$ , E $ 0
Soit
$, % un couple d'éléments de E et α un nombre réel.
E $ % 0
Et
E $ E % 0 0 0
Donc
E $ % E $ E %
Montrons que l'ensemble C
, D est stable par addition :
Soit et 4 deux éléments de C
, D, soit $ et % deux éléments de E et α un réel.
On a par définition de l’application somme :
4
$ % $ % 4
$ %
Or les applications et 4 sont linéaires donc
$ % 4
$ % $ % 4
$ 4
%
$ 4
$ % 4
%
$ 4
$ % 4
%
4
$ 4
%
On en déduit que
4
$ % 4
$ 4
%
L’application 4 est donc linéaire : l’ensemble C
, D est stable par addition.
De même montrons que l'ensemble C
, D est stable par la multiplication par un nombre réel.
Soit f un élément de C
, D; un nombre réel, soit $ et % deux éléments de E et α un nombre réel.
On a par définition de l’application :
$ % $ %
Or l’application est linéaire, donc :
$ % $ %
$ %
$ %
On a donc
$ % $ %
L’application est linéaire.
1.5) Des cas particuliers importants
De façon générale une application linéaire d'un espace vectoriel E dans un espace vectoriel F est
appelée morphisme d'espaces vectoriels (parce qu'elle se « moule » dans la forme d'espace vectoriel).
Si E = F, on dit qu'il s'agit d'un endomorphisme.
Définition
Si est un espace vectoriel, on appelle endomorphisme toute application linéaire de dans .
On note C
l'espace vectoriel des endomorphismes de .
Un autre cas intéressant est celui des applications linéaires bijectives d'un ev dans un ev D.
Définition
Soit et D deux espaces vectoriels. On appelle isomorphisme toute application linéaire bijective
de dans D. On note GC
, D l'ensemble des isomorphismes de dans D.
Enfin un endomorphisme bijectif est appelé automorphisme.
Définition
Soit un espace vectoriel. On appelle automorphisme toute application linéaire bijective de dans . On note GC
l'ensemble des automorphismes de .
On considère trois espaces vectoriels , D et H. Soit I
, D et 4 I
D, H. On considère
l'application J de dans H définie par
J 4K
1.6) Composition des applications linéaires
Nous savons que si est une application de dans D et 4 une application de D dans H, alors J est une
application de dans H.
E
J 4K
F
G
Montrons que cette application J est un élément de I
, H.
On considère deux éléments $ et % de E et un réel α. On a par définition de la composition :
J
$ % 4 K $ %
4
$ %
La fonction est linéaire donc :
4.
$ %/ 4
$ %
La fonction 4 est linéaire donc :
4.
$ %/ 4
$ 4
%
On a donc
J
$ % 4. $ / 4. %/
4 K $ 4 K %
J
$ J
%
La fonction J est bien linéaire.
On a donc le théorème suivant :
Théorème :
Soit C
, D et 4 C
D, H, alors J 4 K appartient à C
, H.
On considère un isomorphisme d'un espace vectoriel dans un espace vectoriel D.
Puisque est une bijection, elle admet une bijection réciproque notée ⁻¹. Montrons que cette
bijection réciproque est une application linéaire (et donc un isomorphisme) de D sur .
On a par définition :
% $ N $ ⁻¹
%
Soit %> et %" deux éléments de D et α un nombre réel. Soit $> ⁻¹
%> et $" ⁻¹
%" .
On a donc :
O> %> %" O> .
$> $" /
Or l’application est linéaire, donc :
O> .
$> $" / ⁻¹
$₁ $₂
Par définition de O> , on a :
O> .
$> $" / $> $" O> %> O> %" Donc
O> %> %" O> %> O> %" 1.7) Application réciproque d'un isomorphisme
Théorème
La bijection réciproque d'un isomorphisme est un isomorphisme
II) Applications linéaires en dimension finie
On considère l'espace vectoriel ⁿ qui est composé des Q-uplets de réels de la forme $> , . . . , $R .
On peut associer à tout Q-uplet le vecteur colonne (c'est-à-dire un élément de R,> ) composé des
mêmes nombres que ceux du Q-uplet :
$>
$"
$> , $" , … , $R = T U V
$R
2.1) Un isomorphisme bien utile
Il est facile de vérifier que cette application est linéaire. Elle est évidemment bijective.
On dit que c'est l'isomorphisme canonique de ⁿ dans R,> .
Considérons une matrice W à Q lignes et X colonnes (W R,Y ).
Soit $> , . . . , $Y un vecteur de Y .
$>
On lui associe canoniquement à la matrice colonne 6 Z U [ qui appartient donc à Y,> .
$Y
Le produit matriciel de W par 6 est possible et donne une matrice colonne à Q lignes.
2.2) Application linéaire associée à une matrice
2 3 1
Par exemple si W ",- avec W 2 0 4
$
Pour tout triplet $, %, ' de ³, on associe canoniquement 6 #%&
'
On a
$
' 2$ 3%
2 3 1 %
W6 # & 2 0 4 '
4' 2$
On a en fait procédé aux étapes suivantes :
$
' 2$ 3%
$, %, ' #%& 2$ 3% ', 2$ 4'
4' 2$
'
De façon générale, on crée ainsi une application de Y dans ⁿ dont nous allons montrer qu'elle est
linéaire.
Bien entendu, les deux isomorphismes permettant de passer des vecteurs lignes aux vecteurs
colonnes et réciproquement sont des applications linéaires. Compte tenu de la propriété concernant la
composée d'applications linéaires, il suffit de prouver que l'application qui fait correspondre au
$>
$>
$"
$"
vecteur colonne T U V le vecteur colonne AT U V est une application linéaire.
$Y
$Y
Nous ne ferons cette démonstration que dans le cas particulier où X 3.
$
$
Soit l'application qui à tout #%& de -,> fait correspondre le vecteur colonne A#%&.
'
'
On a donc
$
$ $>
]#%&^ W #%& Z%> [
'
' '>
$>
$"
Soit Z%> [ et Z%" [ deux éléments de -,> et 0 un nombre réel. On a
'>
'"
$>
$"
$>
$"
%
%
%
%
]Z > [ 0 Z " [^ W ]Z > [ 0 Z " [^
'>
'"
'>
'"
$>
$"
W Z%> [ 0W Z%" [
'>
'"
$>
$"
]Z%> [^ 0 ]Z%" [^
'>
'"
La démonstration est bien évidemment identique si X est quelconque.
Un cas particulier important : les endomorphismes associés aux matrices carrées.
On dispose d’une matrice carrée d’ordre Q. Montrons comment on crée une application linéaire à
partir de cette matrice.
Nous ne montrerons la démarche que sur un exemple. On procèderait de même façon dans le cas
général.
1 3 0
On considère la matrice W Z0 2 2[.
1 1 1
Pour créer une application linéaire de ³ dans ³ , on fait d’abord correspondre à tout triplet $, %, ',
$ 3%
$
$
$
1 3 0
le vecteur colonne #%&, puis le vecteur colonne W #%& Z0 2 2[ #%& Z 2% 2' [. On fait
'
'
'
$%'
1 1 1
ensuite correspondre à ce vecteur colonne le vecteur ligne canoniquement associé :
$ 3%
Z 2% 2' [ $ 3% 2% 2' $ % '
$%'
On a ainsi défini une application linéaire de ³ dans ³, c'est-à-dire un endomorphisme de ³ par :
$, %, ' $ 3%, 2% 2', $ % '
2.3) Inversibilité et bijectivité
Quel rapport y-a t'il entre une application linéaire bijective et une matrice inversible ?
L'inversibilité n'est envisageable que dans le cas des matrices carrées.
Soit W une matrice carrée inversible d’ordre Q.
On considère alors l'endomorphisme associé à la matrice W comme on l’a vu dans la partie
précédente.
Appelons : l'isomorphisme canonique de R :
$>
$
"
$> , $" , … , $R R , :.
$> , $" , … , $R / T U V
$R
$>
à $" d
Et donc : O> T U Vc $> , $" , … , $R $R
_
b
$>
$>
à $" d
$"
Soit 4 l'endomorphisme de R,> défini par : 4 T U Vc W T U V
On a en rassemblant les différentes étapes :
_
$R
b
$R
$>
$>
$" f
$" egh
$> , $" , … , $R T U V W T U V ijk $> , $" , … , $R $R
$R
e
On a donc
:⁻¹ K 4 K :
4 : K K :⁻¹
On peut écrire aussi
La bijectivité de est équivalente à la bijectivité de 4.
$>
$> <
$
$ <
"
Posons T " V W T U V
U
$R
$R <
$> <
$ <
Dire que g est bijective c'est dire que quel que soit le vecteur colonne T " V de R,> , il existe un
U
$R <
$>
$>
$> <
à
d
$"
$"
$ <
vecteur colonne et un seul T U V de R,> tel que 4 T U Vc T " V.
U
$R
$R
$R <
_
b
(l'existence correspond à la surjectivité, l'unicité l'injectivité).
$>
$> <
$"
$ <
Autrement dit T " V R,> , il existe un unique T U V de R,> tel que :
U
$R
$R <
$>
$> <
à $" d
$ <
4 T U Vc T " V
U
$R
$R <
_
b
C’est ce que nous allons montrer dans le cas où W est inversible.
$>
$>
$> <
$> <
$"
$"
$" <
$" <
Si W est inversible, l'égalité W T U V T V est équivalente à W⁻¹ T V T U V
U
U
$R
$R
$R <
$R <
On a bien
$> <
$> <
d
$
<
$
<
W WO> T " Vc T " V
U
U
$R <
$R <
_
b
$> <
$> <
$ <
$ <
Donc WO> T " V est bien un antécédent de T " V par l’application 4.
U
U
$R <
$R <
Montrons que cet antécédent est unique.
à
$>
%>
$"
%"
Pour cela démontrons que si T U V et T U V ont la même image par 4 alors ils sont égaux.
%R
$R
$>
%>
$>
%>
à $" d
à %" d
$"
%"
Si 4 T U Vc 4 T U Vc alors W T U V W T U V donc
%R
%R
$R
$R
_
b
_
b
$>
%>
$
%
"
"
WO> W T U V WO> W T U V
%R
$R
Et donc
%>
$>
$"
%"
TU VTUV
%R
$R
On a donc un premier résultat partiel :
Si la matrice A est inversible, l'application g et donc aussi l'application f est bijective.
Nous démontre à partir des systèmes linéaires la réciproque de cette propriété.
On peut alors énoncer le théorème suivant :
Théorème
Soit A une matrice carrée d'ordre n et f l'endomorphisme de ⁿ associé à A.
f est bijectif (c'est-à-dire est un automorphisme) si et seulement si la matrice A est
inversible
On a ainsi un critère simple pour tester la bijectivité de f.
2.4) Noyau d'une application linéaire
Définition
Soit E et F deux espaces vectoriels et une application linéaire de E dans F. On appelle noyau de
l'application l'ensemble des vecteurs de E dont l'image est le vecteur nul de F.
On note cet ensemble +n
.
On a donc +n
o , 0 p
2 3 1
Considérons la matrice W et l'application linéaire de ³ dans ² associée à cette
1 1 2
matrice.
Déterminons l’image par d’un triplet $, %, ' par . On a :
$
' 2$ 3%
2 3 1 %
# & (
)
% 2' $
1 1 2 '
On a donc
Exemple :
: $, %, ' = 2$ 3% ', $ % 2'
Le noyau de est donc l'ensemble des triplets $, %, ' de ³ tels que
2$ 3% ', $ % 2' 0,0
Ce qui donne
2$ 3% ' 0 r
q
$ % 2' 0
On transforme ce système par le pivot de Gauss :
I" s 2I" I>
2$ 3% ' 0r
q
5% 5' 0
On en tire
2$ 3% ' 0r
q
% '
Donc
2$ 3
' ' 0r
q
% '
Et donc
Ce qui donne
q
2$ 2' 0r
% '
$'
u% 'r
L'ensemble des vecteurs $, %, ' de ³ qui remplissent la relation $, %, ' 0,0 est donc
constitué par les vecteurs du type :
$, %, ' ', ', ' '
1, 1,1
Il s'agit donc du sev engendré par le vecteur 1, 1,1. On a
+n
v+ 1, 1,1
On a le théorème suivant :
Théorème
Soit E et F deux espaces vectoriels et C
, D, alors +n
est un sev de E
On a par définition +n
w Nous avons vu que 0 0 , donc +n
B x.
Soit et deux vecteurs appartenant à +n
et α un réel. On a :
0 0 0
Donc
ker 2.5) Noyau et injectivité
Théorème
Soit E et F deux espaces vectoriels et une application linéaire de E dans F.
est injective si et seulement si +n
o0 p
Ce théorème est très important.
Sens direct
Dire que est injective c'est dire que chaque élément de E a une image qui lui est propre, ou encore
que si deux éléments de E ont la même image, ils sont égaux.
Prenons dans +n
. On a 0 , mais on a aussi 0 0 donc 0 et d'après
l'injectivité 0 .
Donc le seul élément de +n
est 0 .
Sens réciproque
Supposons que +n
ne contienne que 0 . Cela signifie que si un vecteur est tel que 0
alors ce vecteur est nul.
Prenons deux vecteurs et qui ont la même image.
On a donc , donc 0 et par linéarité 0 .
Ce qui conduit alors à 0 et en définitive à . Donc est bien injective.
2.6) Image d'une application linéaire
Définition
Soit E et F deux espaces vectoriels et C
, D.
On appelle image de et l'on note {X
(ou parfois ) le sous-ensemble de F constitué par
l'ensemble des images des éléments de E par f.
Remarque :
Le noyau est un sous-ensemble de l'ensemble de départ, l'image est un sous-ensemble de l'ensemble
d'arrivée.
On a
{X
o
, p
Dire qu'un vecteur de F appartient à {X
c'est dire qu'il existe au moins un vecteur de E tel que
.
Théorème
{X
est un sous-espace vectoriel de F
Démonstration :
{X
n'est pas vide. En effet 0 {X
puisque 0 0 .
{X
est inclus dans F par définition.
Soit ₁ et ₂ deux éléments de {X
et α un nombre réel, montrons que > " est un élément de
{X
.
Il faut donc trouver un vecteur de E dont l'image est > " .
₁ {X
donc il existe ₁ tel que ₁ ₁.
₂ {X
donc il existe ₂ tel que ₂ ₂.
Posons ₁ ₂.
On a
₁ ₂ ₁ ₂ ₁ ₂
Donc ₁ ₂ {X
Exemple 1 :
1) On considère l'application de ² dans ³ définie par :
$, % $ %, $ %, 2$
a) Montrer que est une application linéaire associée à une matrice que l'on déterminera.
b) Déterminer le noyau de .
c) Déterminer l'image de $
On cherche une matrice W qui transforme par multiplication un vecteur colonne % en un vecteur
$%
colonne Z$ %[.
2$
Déterminons le format de W.
Comme W permet de créer une correspondance entre ² et ³, ce doit être une matrice de
$%
? ?
? ? $
-," . Donc W Z? ?[. Il faut donc que Z? ?[ % Z$ %[
2$
? ?
? ?
1 1
On a clairement W Z1 1[
2 0
L'application f est donc linéaire comme application associée à une matrice.
b) Le noyau de est l'ensemble des vecteurs de ² dont l'image est égale au vecteur nul de ³.
+n
o
$, % ², $, % 0,0,0p
o
$, % ², $ %, $ %, 2$ 0,0,0p
$%0
o
$, % ², ~$ % 0r€
2$ 0
Ce système conduit évidemment à $ % 0.
Donc le seul vecteur du noyau est le vecteur nul de ².
+n
o
0,0p
L'application f est donc injective.
c) Déterminons l'image.
On a
{X
o
$, %, $, % ²p
On prend un élément quelconque , , de ³. La question est de savoir s'il appartient à {X
ou
sinon quelle(s) condition(s) il doit remplir pour appartenir à {X
.
Dire que , , appartient à {X
, c'est dire que l'on peut trouver deux réels $ et % tels que
$, % , , On a alors
$% Ce qui conduit au système $ % r
2$ La troisième équation donne
$ %, $ %, 2$ , , En remplaçant dans la deuxième on trouve
$
% $ 2
2
2
2
Pour que système soit possible, il faut que les valeurs trouvées pour $ et % remplissent aussi la
première équation. A savoir :
2
2
2
On en tire
Ou encore
Tous les éléments de ne sont pas dans {X
. Seuls ceux qui remplissent la condition précédente
en font partie.
Donc , , {X
signifie que , , , , 1,0,1 0,1,1.
Im(f) est un sous-espace vectoriel de ³ dont (1,0,1) et (0,1,1) forment une famille génératrice.
(Ce qui signifie que seuls les triplets de réels qui peuvent s'écrire comme combinaison linéaire de ces
deux triplets ont un antécédent par , et aussi que l'on est sûr qu'un tel triplet a bien un antécédent).
{X
+  1,0,1, 0,1,1 Ž
1 2 1
On considère la matrice Z1 4 5 [.
0 3 3
et l'endomorphisme de ³ associé à .
Démontrer que la famille constituée par les vecteurs ₁ 1,1,0, ₂ 2, 4,3, ₃ 1,5, 3
correspondant aux vecteurs colonnes de cette matrice est une famille génératrice de {X
.
Autrement dit un vecteur de ³ appartient à {X
si et seulement si on peut l'écrire comme
combinaison linéaire de ces trois vecteurs.
Détaillons d'abord l'application . On a
Exemple 2 :
$ 2% '
$
1 2 1 $
#%& Z1 4 5 [ #%& Z$ 5' 4%[
'
3% 3'
0 3 3 '
Donc est l'endomorphisme de ³ défini par
$, %, ' = $ 2% ', $ 4% 5', 3% 3'
Un vecteur , , de ³ appartient à {X
s'il est image par d'un vecteur $, %, ' de ³, c'est-àdire s'il existe trois nombres réels $, % et ' tels que f
$, %, ' , , , ou encore
On peut alors écrire
$ 2% ', $ 4% 5', 3% 3' , , , , $, $, 0 2%, 4%, 3% ', 5', 3'
$ 1,1,0 %
2, 4,3 '
1,5, 3
$₁ %₂ '₃
Donc tout vecteur de {X
s'écrit bien comme combinaison linéaire de ₁, ₂ et ₃.
Réciproquement, si l'on considère un vecteur de ³ qui s'écrit comme combinaison linéaire de ces
trois vecteurs, montrons qu'un tel vecteur appartient à {X
.
Soit
> "  1,1,0 2, 4,3 
1,5, 3
2 , 4 5, 3 3
Il est clair que
, ,  et donc {X
.
Remarque :
Ce résultat est tout à fait général. Nous en proposerons une autre démonstration plus tard.
Théorème
Soit une matrice de R,Y et l'application linéaire de Y dans R associée à cette
matrice. La famille de vecteurs de R obtenue à partir des vecteurs colonnes de la matrice
est une famille génératrice de {X
.
2.7) Image et surjectivité
Théorème
Soit une application linéaire d'un espace vectoriel E dans un espace vectoriel F. L'application
est surjective si et seulement si {X
D.
Nous savons que {X
w D.
Dire que l'application est surjective c'est dire que tout élément de F a au moins un antécédent,
autrement dit que D, il existe au moins un élément de E tel que , ce qui signifie que
{X
, et donc tout élément de F est dans {X
, ou encore que D w {X
.
Et donc puisque nous avons à la fois {X
w D et D w {X
, on a bien D {X
.
Réciproquement, si D {X
cela signifie que tout élément de F est l'image d'un élément de E et
donc que est surjective.
III) Applications linéaires entre espaces vectoriels de dimension finie
Soit et D deux espaces vectoriels de dimensions respectives Q et X.
On considère une application C , D .
3.1) Etude du cas général
3
Soit ‘ +> , … , +R une base de et ‘ 3 +>3 , … , +Y
une base de D.
Posons > +> , … , R +R .
Les vecteurs > , … , R sont des vecteurs de D.
Considérons un vecteur de {X
. Il existe donc un vecteur de dont est l’image.
s’écrit sous la forme :
> +> ’ R +R
Donc
> +> ’ R +R > +> ’ R +R > > ’ R R
Donc la famille > , … , R est une famille génératrice de {X
.
Théorème
Soit une application linéaire d’un espace vectoriel de dimension Q dans un espace vectoriel
D. Soit +> , … , +R une base de et > +> , … , R +R , les images des vecteurs
+> , … , +R par .
Alors la famille > , … , R est une famille génératrice de {X
.
3 Considérons maintenant les coordonnées des éléments de la famille > , … , R dans la base +>3 , … , +Y
.
Pour écrire ces coordonnées, nous utiliserons un principe de double indexation. On écrira par
exemple :
3
> >> +>3 "> +"3 ’ Y> +Y
U
3
“ >“ +>3 "“ +"3 ’ Y“ +Y
U
3
R >R +>3 "R +"3 ’ YR +Y
Si > +> ’ R +R alors nous avons vu que > > ’ R R
On peut écrire avec le symbole Σ :
Y
” •1, Q–, — ˜ “— +“3
R
Et
Donc
La š
ième
R
Y
˜ — ˜ —“ +“3
—™>
“™>
composante du vecteur est
“™>
˜ — —
R
—™>
Y
˜ ˜ — —“ +“3
—™> “™>
Y
R
˜ Z˜ — —“ [ +“3
“™>
—™>
R
˜ — —“
—™>
3 .
Ecrivons la matrice de la famille > , … , R dans la base +>3 , … , +Y
>> ’ >R
›
U [ fait le produit par un vecteur colonne à Q lignes, on obtient un vecteur colonne
Z U
Y> ’ YR
à X lignes.
La š ième composante du vecteur colonne s’obtient en faisant la somme des produits de la š ième ligne de
>
la matrice par les éléments du vecteur Z U [
R
>
Soit .“> , “" , … , “R / Z U [ “> > “" " ’ “R R
R
Ce qui donne
R
˜ “— —
—™>
On reconnaît la composante de +“3 dans le vecteur .
Ce produit matriciel donne donc le vecteur image.
On passe de > +> ’ R +R en effectuant le produit de la matrice par le vecteur colonne
>
Z U [.
R
On dit que est la matrice de l’application linéaire relativement aux bases ‘ et ‘ 3 .
On écrit
œ ‘,‘
Définition :
Soit C
, D, et D étant deux espaces vectoriels de dimensions respectives Q et X.
3
Soit ‘ +> , … , +R une base de et ‘ 3 +>3 , … , +Y
une base de D.
Soit la matrice des composantes des vecteurs +> , … , +R dans la base ‘ 3 . Cette matrice
est appelée matrice de l’application linéaire relativement aux bases ‘ et ‘’.
Théorème
Avec les notations précédentes, soit un vecteur de de composantes > , … , R dans la
base ‘ .
>
>
Soit . Posons Z U [ Z U [.
R
Y
3
Alors > +>3 ’ Y +Y
.
Exemple
Considérons l’espace vectoriel des matrices carrées d’ordre 2 " et l’application de " qui à
toute matrice associe le couple , 2 de " .
On démontre facilement que est une application linéaire de " dans " .
Considérons la base canonique de " :
1 0
0 1
0 0
0 0
> , " , - ,  0 0
0 0
1 0
0 1
Et la base canonique de " ?
+> 1,0, +" 0,1
On a
> 1,1 +> +"
" 0,2 0+> 2+"
- 0,1 0+> +"
- 1, 1 +> 1+"
La matrice de l’application relativement à ces deux bases est donc :
1 0 0 1
1 2 1 1
> " - 
Et en passant aux vecteurs colonnes, on obtient :
1 0 0 1
] ^ 1 2 1 1 2 Résultat qui confirme bien ce que nous attendions.
Remarque : en écrivant
3.2) Le cas particulier des applications linéaires de ž dans Ÿ
Nous allons examiner cette question à partir d’un exemple. On considère l’application linéaire de 1 1
2
1
5
1
dans  associée à la matrice W T
V.
2 1 2
2 3 1
Nous savons que l’image d’un vecteur , , de - s’obtient à partir du produit matriciel
W # &
On a
1 1
2
2
1 5 1
5
T
V # & T
V
2 1 2
2 2
2 3 1
2 3 On a donc
.
, , / 2, 5, 2 2, 2 3 Considérons la base canonique de - ? +> 1,0,0, +" 0,1,0, +- 0,0,1 et la base canonique de
 ? +>3 1,0,0,0, +"3 0,1,0,0, +-3 0,0,1,0, +3 0,0,0,1.
+> 1,1,2,2
+" 1, 5,1,3
+- 2,1, 2, 1
On reconnaît les colonnes de la matrice W.
On aura
On aurait pu s’en « apercevoir plus vite ». En effet :
1 1
2
1
1
1 5 1
1
T
V Z0[ T V
2 1 2
2
0
2 3 1
2
Et de même pour les deux autres colonnes.
Cette remarque est très générale. Elle justifie le résultat suivant :
Théorème
Soit C
R , Y associée à une matrice W de Y,R .
Soit ‘ la base canonique de R et ‘’ la base canonique de Y . On a :
W œ ‘,‘
Ce résultat provient du fait que quand on multiplie une matrice à X lignes et Q colonnes par
un vecteur colonne contenant Q 1 « 0 » et un « 1 » placé au rang ”, on obtient la ” ième
colonne de la matrice.
Dans le cas d’un endomorphisme, la seule différence est que ‘’ = ‘.
1 2 3
Par exemple si 4 est l’endomorphisme de associé à la matrice W Z4 5 6[, on a dans
7 8 9
la base canonique de - :
4
+> +> 4+" 7+4
+" 2+> 5+" 8+4
+- 3+> 6+" 9+-
3.3) Noyau et Image en dimension finie
Soit une application linéaire d’un espace vectoriel de dimension Q dans un espace vectoriel
D de dimension X.
On sait que ker est un sev de donc
dim
ker
¤ Q
On sait que {X
est un sev de D donc
dim.{X
/ ¤ X
Certains cas particuliers sont intéressants.
Si dim
ker
0, cela signifie que ker ne contient que le vecteur nul de ? 0 .
Alors est injective, d’après ce que nous avons vu précédemment.
La réciproque est évidemment vraie.
Théorème
En dimensions finies, est injective si et seulement si dim
ker
0
Si dim
ker
Q, alors ker
(c’est un sev de de même dimension que ? il est donc égal à
.
Donc , ker et donc 0 .
L’application est l’application nulle.
La réciproque est vraie : si est l’application nulle, , 0 et donc ker
.
Donc ker
et dim
ker
dim
Q
On a des résultats de même nature pour l’image.
Si dim.{X
/ 0, alors {X
o0 p. Donc , 0 . L’application est l’application nulle.
La réciproque est évidemment vraie.
Si dim.{X
/ X, alors on aura {X
D et donc est surjective.
Ce cas est intéressant, car nous devons nous rappeler que si +> , … , +R est une base de , nous avons
montré que .
+> , … , +R / est une famille génératrice de {X
.
Si l’application est surjective, alors {X
D, et donc cette famille est une famille génératrice de D.
Or toute famille génératrice dans un espace vectoriel contient au moins autant de vecteurs que la
dimension de l’espace.
On a donc dans ce cas nécessairement X ¤ Q.
3.4) Le cas des endomorphismes
On considère un endomorphisme d’un espace vectoriel de dimension Q.
Soit +> , … , +R une base de .
Si est une application surjective, alors . +> , … , +R / est une famille génératrice de qui est égal
à {X
, donc puisqu’il s’agit d’une famille de Q vecteurs, c’est une base de .
Considérons alors deux vecteurs et de tels que .
Posons
> +> ’ R +R
> +> ’ R +R
On a alors
> +> ’ R +R > +> ’ R +R Si , comme +> , … , +R est une base on a :
> >
U
R R
Et donc l’application est injective.
Toute application surjective est donc injective, et donc bijective.
Mais comme toute application bijective est surjective, on en déduit qu’un endomorphisme dans un
espace de dimension finie est bijectif si et seulement si, il est surjectif.
Si est un endomorphisme injectif, ker
o0 p.
Supposons que cet endomorphisme ne soit pas surjectif, cela signifierait que {X
B .
Donc dim.{X
/  Q. La famille de Q vecteurs +> , … , +R est une famille génératrice de {X
qui contiendrait plus de vecteurs que la dimension de {X
: elle ne pourrait donc pas être libre. Si
elle est liée, cela signifie qu’il existe un vecteur au moins de cette famille qui est soit nul, soit s’exprime
comme combinaison linéaire des autres vecteurs de la famille.
Supposons que l’un des vecteurs soit nul, par exemple +— . On aurait alors +— B 0 et +— ker
.
Ce qui est contradictoire avec ker
o0 p.
Supposons que par exemple +R s’exprime comme combinaison linéaire des autres vecteurs de la
famille.
On pourra écrire
RO>
On aura alors
Donc
Mais
+R ˜ 0¥ +¥ ¥™>
RO>
Z+R ˜ 0¥ +¥ [ 0
¥™>
RO>
+R ˜ 0¥ +¥ ker ¥™>
RO>
+R ˜ 0¥ +¥ B 0
¥™>
Ce vecteur n’est pas nul puisqu’il a au moins une composante non nulle.
Nouvelle contradiction.
Donc la famille . +> , … , +R / est libre et donc {X
.
L’application est donc surjective.
Toute application injective est donc surjective, et donc bijective.
Mais comme toute application bijective est injective, on en déduit qu’un endomorphisme dans un
espace de dimension finie est bijectif si et seulement si, il est injectif.
Bien entendu les démonstrations et les résultats sont les mêmes si est une application linéaire d’un
espace vectoriel dans un espace vectoriel D de même dimension que .
On a le théorème suivant :
Théorème
Soit une application linéaire d’un espace vectoriel de dimension Q dans un espace vectoriel
D de même dimension que (éventuellement égal à .
Cette application est bijective si et seulement si elle est injective, ou si et seulement si elle
est surjective.
Et entre des espaces vectoriels de dimensions différentes, peut-il exister un isomorphisme ?
Soit de dimension Q et D de dimension X. Soit une application linéaire de dans D dont on
voudrait qu’elle soit bijective.
On considère une base +> , … , +R de . On sait que +> , … , +R est une famille génératrice de
{X
. Si est surjective, alors {X
D et donc nécessairement X ¤ Q. Nous avons déjà vu ce
résultat. Si X  Q, alors la famille +> , … , +R n’est pas libre. Elle est liée et nous avons vu plus
haut que cela impliquait nécessairement que le noyau contenait d’autres vecteurs que le vecteur nul.
L’application ne peut pas être injective.
Il faut donc que X Q.
Théorème
Il ne peut pas exister d’isomorphismes entre deux espaces vectoriels de dimensions
différentes.
3.5) Matrices d’isomorphismes
Nous savons déjà qu’un isomorphisme ne peut se concevoir qu’entre espaces vectoriels de même
dimension et donc que la matrice associée relativement à des bases de chacun des espaces vectoriels
est nécessairement une matrice carrée dont l’ordre est la dimension commune des deux espaces.
Nous savons également que les colonnes de cette matrice sont constituées par les composantes des
images des vecteurs de la base de dans la base de D. Si l’on nomme les deux bases +> , … , +R et
+>3 , … , +R3 , cette matrice apparaît donc comme la matrice de la famille +> , … , +R dans la base
+>3 , … , +R3 . Or nous savons que l’application linéaire est un isomorphisme si et seulement si la famille
+> , … , +R est une base de D. Ce qui est équivalent à dire que la matrice est inversible.
Théorème
Soit et D deux espaces vectoriels de même dimension rapportés respectivement à des
bases ‘ et ‘’. Soit une application linéaire de dans D et la matrice de relativement
aux bases ‘ et ‘’.
L’application linéaire est bijective si et seulement si la matrice est inversible.
On considère deux espaces vectoriels et D. On suppose que dim
Q.
Soit C , D .
On suppose que n’est pas injective et n’est pas l’application nulle.
Alors le noyau de est un sous-espace vectoriel de de dimension strictement positive.
Soit ¦ dim
ker
. On a donc 0  ¦  Q
Soit +> , … , +§ une base de ker
.
D’après le théorème de la base incomplète, on peut trouver Q ¦ vecteurs de ? +§¨> , … , +R , tels
que la famille +> , … , +§ , +§¨> , … , +R soit une base de .
Rappelons que la construction des vecteurs +§¨> , … , +R se fait de la façon suivante :
Comme ¦  Q, il existe au moins un vecteur non nul que l’on nommera +§¨> appartenant à mais
n’appartenant pas à ker
.
La famille +> , … , +§ , +§¨> est libre.
En effet prenons ¦ 1 nombres réels 0> , … , 0§ , 0§¨>
0> +> ’ 0§ +§ 0§¨> +§¨> 0
Nécessairement 0§¨> 0. S’il n’en était pas ainsi on pourrait écrire :
1
+§¨> .0 + ’ 0§ +§ /
0§¨> > >
Dès lors +§¨> s’écrirait comme combinaison linéaire des vecteurs +> , … , +§ et donc on aurait
+§¨> ker . Ce qui est impossible.
On a donc
3.6) Le théorème du rang
0> +> ’ 0§ +§ 0
Mais comme +> , … , +§ est une base de ker
, on a 0> 0" ’ 0§ 0.
La famille +> , … , +§ , +§¨> est donc libre.
On appelle ©§¨> le sous espace vectoriel de engendré par cette famille.
La famille +> , … , +§ , +§¨> est donc une base de ce sous espace ©§¨> puisqu’elle est par définition
génératrice pour ce sous-espace et libre comme nous l’avons vu.
Si ¦ 1 Q, alors ©§¨> est un sous-espace de de même dimension que ? c’est donc lui-même et
la famille +> , … , +§ , +§¨> est alors une base de .
Si ¦ 1  Q, cela signifie qu’il existe un vecteur +§¨" non nul appartenant à , mais pas à ©§¨> .
On recommence alors le même raisonnement.
Et ainsi de suite. On ajoute des vecteurs jusqu’à ce que l’on atteigne le nombre fatidique d’une famille
de Q vecteurs qui constitue une base de .
On dispose donc maintenant d’une base de dont les ¦ premiers vecteurs forment une base de
ker
.
Appelons © le sous-espace vectoriel de engendré par la famille .+§¨> , … , +R /.
Considérons l’application 4 de © dans {X
définie par :
©, 4
On a > ©, " ©, 0 ,
4
> 0" > 0" > 0
" 4
> 04
" L’application 4 est donc linéaire.
Montrons que 4 est injective.
Soit > © et " © tels que 4
> 4
" On a
4
> 4
" N > " N > " 0
N > " ker Mais > " ©, donc > " ker
ª ©.
Or le seul vecteur commun à ker et © est 0 .
Donc
> " 0
Et donc
> "
Donc l’application 4 est injective. Puisque c’est une application linéaire entre espaces de dimensions
finies, c’est un isomorphisme et donc les deux espaces ont la même dimension.
On en déduit que
dim {X
dim ©
Et donc
dim.{X
/ Q ¦
Ce que l’on peut écrire
dim.{X
/ dim
dim ker
Ou encore
dim
dim
ker
dim.{X
/
Cette formule est aussi vérifiée si est injective d’après ce que nous avons vu plus haut.
On appelle rang de l’application la dimension de {X
.
On obtient ainsi le très important théorème du rang :
Théorème
Soit et D deux espaces vectoriels tels que soit de dimension finie.
Soit C
, D .
On a
dim
dim
ker
dim {X
Téléchargement